Ser vítima de um golpe da voz clonada definitivamente não é o desejo de nenhuma pessoa. Porém, com a IA (Inteligência Artificial) ganhando mais força em todo o mundo, esse tipo de armadilha está se tornando cada vez mais recorrente.
Muitas ocorrências já foram identificadas nos Estados Unidos, por exemplo, o que levou o governo local a emitir alertas sobre o assunto. E aqui, no Brasil, também já existem vítimas.
Este é o caso de Dario Centurione, um influenciador digital que faz imenso sucesso na internet por meio do seu perfil Almanaque SOS nas redes sociais: foi justamente por meio delas que ele veio a público para revelar que teve sua voz clonada por meio da IA para a aplicação de um golpe.
Os golpistas fizeram o envio de uma mensagem para o pai do influencer solicitando dinheiro, e o mesmo fez o envio da quantia de R$ 600, por meio da modalidade Pix.
Mas, afinal: como este golpe realmente aconteceu, e o que uma pessoa deve fazer para evitar ser mais uma vítima dele?
Tudo isso, e muito mais, é explicado durante a leitura a seguir.
O que aconteceu no golpe da voz clonada
Depois de receber o contato telefônico, o pai do criador de conteúdo fez o envio do dinheiro, conforme solicitado, uma vez que não desconfiava de que não se tratava de seu filho fazendo o pedido.
Dario acredita que os criminosos fizeram o uso de alguns dos vídeos publicados em suas redes sociais, a fim de criar algo similar a um banco de dados focado em sua voz. Desta forma, eles podem ter usado diversos aplicativos e ferramentas de Inteligência Artificial para transformar os áudios coletados em frases completamente personalizadas, imitando quase que perfeitamente a voz do influenciador.
Em seus canais na internet, o influencer criou e deixou salvo um vídeo explicando como possivelmente tudo aconteceu, e compartilhando dicas válidas que já são famosas no mundo todo e podem ajudar qualquer pessoa a não cair neste tipo de golpe.
Veja também: WhatsApp pode GRAVAR você dormindo sem avisar nada
De fato, é possível ter a voz clonada pela Inteligência Artificial
De acordo com especialistas, copiar a voz de alguém por meio da IA realmente não é algo impossível.
Inclusive, tendo um conhecimento mais avançado em programação já é possível fazer avanços neste sentido, ou mesmo utilizando ferramentas que tornem o processo mais simples.
Para fazer a voz clonada, os criminosos podem, por exemplo, usar a tecnologia deepfake, por meio da qual é possível fazer a manipulação de áudios e imagens, de modo a torná-los muito similares às versões reais.
O especialista Euclides Lourenço Chuma, que trabalha no IEEE (Instituto dos Engenheiros Elétricos e Eletrônicos), reforça que quanto mais qualidade tiver a imagem ou o áudio no formato original, maior será a qualidade do formato clonado.
Em resumo, a Inteligência Artificial, no caso deste golpe, é utilizada com a finalidade de aprender com o áudio e, a partir dele, gerar outros.
Veja também: NINGUÉM USA PARA NADA! 3 funções inúteis do celular que estragam a bateria
Como se proteger do golpe da voz clonada
Este golpe não é necessariamente novo. Inclusive, como já citado, muitas ocorrências foram registradas somente nos Estados Unidos.
O governo não divulgou o número exato de vítimas, ,as foi um número suficiente para que a Federal Trade Comisson (FTC), que regula o comércio no país, emitisse um alerta reforçando que apenas um trecho de voz já é suficiente para que o golpista consiga “trabalhar”.
Portanto, é preciso que as pessoas sempre desconfiem de qualquer mensagem com caráter de urgência que venham a receber. Inclusive, caso o contato for de uma empresa, é válido ligar para os seus números oficiais, para se certificar de que não passam de golpistas tentando se passar por uma marca.
Fazer uma chamada de vídeo e tentar falar de assuntos que somente uma pessoa realmente conhecida conhece também são dicas importantes a serem seguidas.
E, claro:
Antes de realizar qualquer transferência bancária, é imprescindível checar a identidade do destinatário.
Veja também: Não vá esquecer! PRAZO para atualizar NOVO RG está acabando