Golpe de voz clonada via WhatsApp já é realidade, alerta especialista em IA

Ferramentas de inteligência artificial capazes de clonar vozes com apenas alguns segundos de áudio estão disponíveis ao público, e já estão sendo usadas em golpes financeiros. O alerta é do CEO da vortice.ai e especialista em IA, Giovanni La Porta, em entrevista ao Podcast Canaltech desta sexta-feira (20).

🎧Ouça o Podcast Canaltech no Spotify
🎧Ouça o Podcast Canaltech na Deezer
🎧Ouça o Podcast Canaltech no Apple Podcasts

Segundo La Porta, o modelo de fraude mais preocupante no momento envolve ligações silenciosas: o criminoso liga, aguarda a vítima falar por alguns segundos e coleta o áudio necessário para treinar a clonagem. 

-
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
-

"Quanto mais você responder aquela ligação e continuar falando, mais perfeita  ficará a clonagem da sua voz", explica.

O passo seguinte é enviar uma mensagem de áudio pelo WhatsApp imitando um familiar ou conhecido e pedir uma transferência. A diferença em relação aos golpes mais antigos, feitos por texto, é que o áudio elimina a desconfiança imediata de quem recebe a mensagem.

De laboratório para o celular de qualquer pessoa

A explosão dos deepfakes nos últimos meses tem uma explicação direta: a evolução dos modelos generativos de vídeo e áudio, combinada com a popularização das ferramentas. 

La Porta lembra que as primeiras versões dos vídeos gerados por IA eram facilmente identificáveis. O exemplo clássico é um vídeo do ator Will Smith comendo macarrão, de aspecto obviamente artificial. As versões mais recentes dos modelos mudaram esse padrão.

"Hoje, com apenas algumas fotos ou alguns segundos de áudio, já é possível clonar a voz de uma pessoa", afirma o especialista.

Há casos documentados de deepfakes usados em reuniões corporativas. La Porta cita um episódio em que um executivo foi clonado durante uma videoconferência com a diretoria da empresa, e as instruções dadas pelo falso diretor foram seguidas sem questionamento.

Para identificar vídeos manipulados, La Porta indica um sinal concreto: prestar atenção quando a pessoa vira o rosto. Como os modelos são treinados principalmente com fotos de frente, os detalhes de costas, roupa e corte de cabelo, costumam apresentar inconsistências.

Do ponto de vista legal, o executivo esclarece que gerar um deepfake não é, por si só, crime. O enquadramento jurídico depende do uso dado ao conteúdo. 

Plataformas como TikTok e Instagram já pedem que usuários identifiquem vídeos gerados por IA, e o LinkedIn passou a marcar automaticamente fotos alteradas pela tecnologia.

Leia a matéria no Canaltech.