Publicado originalmente por New Yorker
Na sexta-feira, o governo Biden anunciou que sete das principais empresas americanas de inteligência artificial concordaram em colocar algumas barreiras voluntárias em torno de seus produtos. Google, Microsoft, Meta, Amazon, OpenAI, Anthropic e Inflection se comprometeram a garantir que seus produtos atendam aos requisitos de segurança antes de liberá-los ao público; que contratarão especialistas externos para testar seus sistemas e relatar quaisquer vulnerabilidades; e que eles desenvolverão mecanismos técnicos para permitir que os usuários saibam quando estão olhando para o conteúdo gerado por IA, provavelmente por meio de algum tipo de sistema de marca d’água. Eles também disseram que estavam comprometidos em investigar e mitigar os riscos sociais apresentados pelos sistemas de IA, incluindo vieses algorítmicos “nocivos” e violações de privacidade. Existem três maneiras de cumprimentar o anúncio:
O acordo foi o mais recente esforço da Casa Branca para usar o poder limitado que tem para controlar a IA. incluindo inteligência artificial e um Plano Estratégico Nacional de Pesquisa e Desenvolvimento de Inteligência Artificial atualizado, todos bem considerados, mas em grande parte aspiracionais. Naquela época, a OpenAI lançou o ChatGPT, seu chatbot revolucionário, capaz de responder a perguntas com fluência impressionante e escrever códigos; O Google lançou o Bard, seu próprio chatbot impressionante; A Microsoft adicionou o ChatGPT ao seu mecanismo de busca, o Bing, e está integrando-o em vários de seus produtos populares; A Meta, dona do Facebook, estreou um grande modelo de linguagem chamado LLaMA; e tanto a OpenAI quanto a startup Stability AI introduziram plataformas que podem gerar imagens a partir de prompts de texto.
As habilidades e capacidades em rápida evolução da IA geraram um surto coletivo global sobre o que pode vir a seguir: uma IA que nos suplanta no trabalho, uma IA que é mais inteligente e mais ágil intelectualmente do que nós; uma IA insensível que aniquila a civilização humana. Sam Altman, CEO da OpenAI, alertou o Congresso: “Se essa tecnologia der errado, pode dar muito errado”, e pediu aos legisladores que a regulem .
Eles parecem estar tentando. Em janeiro, o congressista Ted Lieu, um democrata da Califórnia formado em ciência da computação, introduziu uma medida não vinculativa instando os membros da Câmara a regular a IA, que ele gerou usando o ChatGPT. Somente em junho, membros do Congresso apresentaram três projetos de lei abordando diferentes aspectos da IA, todos com apoio bipartidário. Um exigiria os EUA a informar os usuários quando eles estiverem interagindo com inteligência artificial nas comunicações do governo e estabelecer um processo de apelação para contestar decisões mediadas por IA, enquanto outro propõe responsabilizar empresas de mídia social por espalhar material prejudicial criado por inteligência artificial, negando-lhes proteção sob Seção 230, a parte da Lei de Decência nas Comunicações que imuniza as plataformas de tecnologia da responsabilidade pelo que publicam. Lieu juntou-se a colegas de ambos os lados do corredor para propor a criação de uma comissão bipartidária de vinte pessoas para revisar, recomendar e estabelecer regulamentos para IA…
Veja o artigo completo no site New Yorker