Eles pensaram que familiares estavam pedindo ajuda. Foi um golpe de IA.

Publicado originalmente por The Washington Post

Os golpistas estão usando inteligência artificial para soar mais como membros da família em perigo. As pessoas estão caindo nessa e perdendo milhares de dólares.

O homem que ligou para Ruth Card parecia o neto dela, Brandon. Então, quando ele disse que estava na prisão, sem carteira ou celular, e precisava de dinheiro para pagar a fiança, Card se esforçou para fazer o que pudesse para ajudar.

“Foi definitivamente esse sentimento de… medo”, disse ela. “Que temos que ajudá-lo agora.”

Card, 73, e seu marido, Greg Grace, 75, correram para seu banco em Regina, Saskatchewan, e sacaram 3.000 dólares canadenses (US$ 2.207 na moeda americana), o máximo diário. Eles correram para uma segunda filial para obter mais dinheiro. Mas um gerente de banco os puxou para seu escritório: outro cliente recebeu uma ligação semelhante e descobriu que a voz estranhamente precisa havia sido falsificada, Card lembra o banqueiro dizendo. O homem ao telefone provavelmente não era o neto deles.

Foi quando perceberam que haviam sido enganados.

“Fomos sugados”, disse Card em entrevista ao The Washington Post. “Estávamos convencidos de que estávamos conversando com Brandon.”

À medida que os golpes de identidade aumentam nos Estados Unidos, a provação de Card indica uma tendência preocupante. A tecnologia está tornando mais fácil e barato para os maus atores imitar vozes, convencendo as pessoas, muitas vezes os idosos, de que seus entes queridos estão em perigo. Em 2022, os golpes de impostores foram o segundo mais popular na América, com mais de 36.000 relatos de pessoas sendo enganadas por pessoas que fingiam ser amigos e familiares, de acordo com dados da Comissão Federal de Comércio. Mais de 5.100 desses incidentes aconteceram por telefone, representando mais de US$ 11 milhões em perdas, disseram autoridades da FTC…

Veja o artigo completo no site The Washington Post


Mais desse tópico: