Publicado originalmente por Wired
Os cibercriminosos estão promovendo grandes modelos de linguagem que podem ajudá-los com phishing ou criação de malware. Mas os chatbots de IA podem ser apenas seu próprio tipo de golpe.
Não demorou muito. Apenas alguns meses após o OpenAI ChatGPT chatbot subverteu a economia de inicialização, cibercriminosos e hackers afirmam ter criado suas próprias versões da tecnologia de geração de texto. Os sistemas poderiam, pelo menos teoricamente, sobrecarregar a capacidade dos criminosos de escrever malware ou e-mails de phishing que enganam as pessoas para que forneçam suas informações de login.
Desde o início de julho, os criminosos que postam em fóruns e mercados da dark web divulgam dois modelos de linguagem grande (LLMs) que dizem ter produzido. Os sistemas, que supostamente imitam as funcionalidades do ChatGPT e do Bard do Google, geram texto para responder às perguntas ou solicitações que os usuários inserem. Mas, ao contrário dos LLMs feitos por empresas legítimas, esses chatbots são comercializados para atividades ilegais.
Existem questões pendentes sobre a autenticidade dos chatbots. Os cibercriminosos não são personagens exatamente confiáveis, e ainda existe a possibilidade de que eles estejam tentando ganhar dinheiro rapidamente enganando uns aos outros. Apesar disso, os desenvolvimentos ocorrem em um momento em que os golpistas estão explorando o hype da IA generativa para seu próprio benefício.
Nas últimas semanas, dois chatbots foram anunciados em fóruns da dark web – WormGPT e FraudGPT – de acordo com pesquisadores de segurança que monitoram a atividade. Os LLMs desenvolvidos por grandes empresas de tecnologia, como Google, Microsoft e OpenAI, possuem várias proteções e medidas de segurança para impedir que sejam mal utilizados. Se você pedir a eles para gerar malware ou escrever discurso de ódio, eles geralmente se recusarão…
Veja o artigo completo no site Wired