Publicado originalmente por Gizmodo
Você acabou de voltar para casa depois de um longo dia de trabalho e está prestes a se sentar para jantar quando de repente seu telefone começa a tocar. Do outro lado está um ente querido, talvez um pai, um filho ou um amigo de infância, implorando para que você envie dinheiro imediatamente.
Você faz perguntas a eles, tentando entender. Há algo estranho em suas respostas, que são vagas ou fora do personagem, e às vezes há um atraso peculiar, quase como se estivessem pensando um pouco devagar demais. No entanto, você tem certeza de que é definitivamente o seu ente querido falando: é a voz dele que você ouve e o identificador de chamadas está mostrando o número dele. Atribuindo a estranheza ao pânico deles, você obedientemente envia o dinheiro para a conta bancária que eles fornecem a você.
No dia seguinte, você liga de volta para saber se está tudo bem. Seu ente querido não tem ideia do que você está falando. Isso é porque eles nunca ligaram para você – você foi enganado pela tecnologia: um deepfake de voz de IA.
Milhares de pessoas foram enganadas dessa forma em 2022 .
A capacidade de clonar a voz de uma pessoa está cada vez mais ao alcance de qualquer pessoa com um computador.
Como pesquisadores de segurança de computadores, vemos que os avanços contínuos em algoritmos de aprendizado profundo, edição e engenharia de áudio e geração de voz sintética significam que é cada vez mais possível simular de forma convincente a voz de uma pessoa.
…
Veja o artigo completo no site Gizmodo