GUSTAVO ALONGE
Especialista em marketing digital e CEO da Engajatech
Já é sabido por todos que a tecnologia, que tanto torna nossa vida mais prática e dinâmica, nos ajudando inclusive a conectar pessoas, entre outros inúmeros benefícios, infelizmente, em alguns casos serve também como recurso para a realização de golpes. Nesse sentido, é preciso alertar para uma ferramenta que na mão de pessoas erradas tem causado preocupante prejuízo: o clone de voz.
Recentemente, o influenciador Matheus Costa postou vídeos que viralizaram bastante nas redes sociais, trolando seus pais. Nessas produções, o influenciador usou a voz dos parentes e com os recursos de Inteligência Artificial, criou novos áudios que remetia aos próprios pais, os enganando. É claro que nesse caso, não houve maldade, que foram apenas vídeos para divertir e ver a reação dos pais. Contudo, servem também de alerta acerca do perigo dessas novas funcionalidades. Quem atua no universo do marketing digital já conhece bem esse recurso, mas, ainda assim, não está imune aos riscos do clone de voz.
E como esse tipo de golpe funciona? Há algumas formas de clonar a voz de uma pessoa. Existem robôs de Telegram que fazem buscas com o nome de alguém. A busca retorna diversas informações daquela pessoa, incluindo nome de parentes, números de telefone e outros dados úteis para quem pratica o golpe. Com as informações em mãos, o golpista usa uma foto da vítima num perfil de um novo número, entra pelo aplicativo Whatsapp e aí tem todos os ingredientes para seu delito. Na sequência, segue o seguinte roteiro: manda uma mensagem de áudio para um parente, que ao ouvir a voz editada por Inteligência Artificial, acaba por acreditar e, então, se torna presa fácil para o golpista.
Trata-se de um grande perigo. Claro, há quem seja mais desconfiado e, ao receber esse tipo de mensagem, toma o cuidado de apurar e confirmar com o parente ou amigo se realmente aquele áudio foi enviado por ele. Mas, nem todos são precavidos e atentos ou mesmo conhecedores que há esse golpe sendo praticado. Note que há um agravante: não é uma simples mensagem de texto, mas um áudio com a mesma voz de seu conhecido. Imagina, então, um idoso receber no WhatsApp um áudio do neto, chorando ou fazendo alguma coisa do tipo, pedindo dinheiro, por exemplo. É bem provável que ele se torne vítima do golpe.
Há ainda um aperfeiçoamento desse golpe, onde os criminosos pegam material nas redes sociais, principalmente de pessoas bem ativas, que produzem bastante conteúdo, porque usa como vasto material para proceder as edições e com a Inteligência Artificial fazer desses conteúdos, novas e falsas mensagens por meio da clonagem de voz.
O risco é para todos e as medidas para reduzi-los e evitar prejuízos financeiros e, claro, emocionais, passa por alguns poucos, mas eficazes cuidados: desconfie de números novos, inclusive no Whastapp. Antes de manter comunicação, principalmente quando envolve pedido de dinheiro, busque formas de confirmar com o contato, amigo ou parente se realmente houve alteração de número. Informe pessoas mais idosas que hoje há esse tipo de golpe e as alerte para que sempre confirme a informação, antes de dar sequência a uma conversa que certamente a levará a se tornar mais uma vítima. Como colocado no início, a tecnologia vem para agregar bastante à nossa vida, mas precisamos nos adaptar e saber nos proteger de quem a usa para o mal.
Compartilhe isso:
- Clique para compartilhar no Twitter(abre em nova janela)
- Clique para compartilhar no Facebook(abre em nova janela)
- Clique para imprimir(abre em nova janela)
- Clique para compartilhar no LinkedIn(abre em nova janela)
- Clique para compartilhar no Telegram(abre em nova janela)
- Clique para compartilhar no WhatsApp(abre em nova janela)