Publicado originalmente por MIT Technology Review
A inteligência artificial trouxe um grande impulso à produtividade – ao submundo do crime.
A IA generativa fornece um kit de ferramentas novo e poderoso que permite que atores mal-intencionados trabalhem com muito mais eficiência e internacionalmente do que nunca, afirma Vincenzo Ciancaglini, pesquisador sênior de ameaças da empresa de segurança Trend Micro.
A maioria dos criminosos “não vive em algum covil escuro e planeja coisas”, diz Ciancaglini. “A maioria deles são pessoas normais que realizam atividades regulares que também exigem produtividade.”
O ano passado viu a ascensão e queda do WormGPT, um modelo de linguagem de IA construído sobre um modelo de código aberto e treinado em dados relacionados a malware, que foi criado para ajudar hackers e não tinha regras ou restrições éticas. Mas no verão passado, seus criadores anunciaram que iriam encerrar o modelo depois que ele começou a atrair a atenção da mídia. Desde então, os cibercriminosos pararam de desenvolver seus próprios modelos de IA. Em vez disso, eles estão optando por truques com ferramentas existentes que funcionam de maneira confiável.
Isso porque os criminosos querem uma vida fácil e ganhos rápidos, explica Ciancaglini. Para que qualquer nova tecnologia valha os riscos desconhecidos associados à sua adopção – por exemplo, um risco maior de ser apanhado – tem de ser melhor e trazer recompensas mais elevadas do que as que estão a utilizar actualmente.
Aqui estão cinco maneiras pelas quais os criminosos estão usando IA agora.
O maior caso de uso de IA generativa entre os criminosos atualmente é o phishing, que envolve tentar enganar as pessoas para que revelem informações confidenciais que podem ser usadas para fins maliciosos, diz Mislav Balunović, pesquisador de segurança de IA na ETH Zurique. Os pesquisadores descobriram que a ascensão do ChatGPT foi acompanhada por um enorme aumento no número de e-mails de phishing .
Serviços geradores de spam, como o GoMail Pro, possuem o ChatGPT integrado, o que permite que usuários criminosos traduzam ou melhorem as mensagens enviadas às vítimas, diz Ciancaglini. As políticas da OpenAI restringem as pessoas de utilizarem os seus produtos para atividades ilegais, mas isso é difícil de policiar na prática, porque muitas mensagens aparentemente inocentes também podem ser utilizadas para fins maliciosos, diz Ciancaglini.
Num relatório de fevereiro, a OpenAI disse ter fechado cinco contas associadas a atores maliciosos afiliados ao Estado.
Antes, os chamados golpes do príncipe nigeriano, nos quais alguém promete à vítima uma grande quantia em dinheiro em troca de um pequeno pagamento adiantado, eram relativamente fáceis de detectar porque o inglês nas mensagens era desajeitado e cheio de erros gramaticais, Ciancaglini. diz. Os modelos de linguagem permitem que os golpistas gerem mensagens que soam como algo que um falante nativo teria escrito.
“Os falantes de inglês costumavam estar relativamente protegidos de [criminosos] que não falavam inglês porque era possível identificar suas mensagens”, diz Ciancaglini. Esse não é mais o caso…
Veja o artigo completo no site MIT Technology Review