Publicado originalmente por MIT Technology Review
Esta semana, sintonizei várias sessões na RightsCon enquanto me recuperava. O evento é a maior conferência de direitos digitais do mundo e, após vários anos apenas com sessões virtuais, os principais especialistas em ética, ativistas e formuladores de políticas da Internet voltaram pessoalmente à Costa Rica.
Sem surpresa, todo mundo estava falando sobre IA e a recente corrida para implantar grandes modelos de linguagem. Antes da conferência, as Nações Unidas divulgaram uma declaração, incentivando os participantes da RightsCon a se concentrarem na supervisão e transparência da IA.
Fiquei surpreso, no entanto, com a diferença entre as conversas sobre os riscos da IA generativa na RightsCon e todas as advertências das grandes vozes do Vale do Silício que tenho lido nos noticiários. Ao longo das últimas semanas, luminares da tecnologia como o CEO da OpenAI, Sam Altman, o ex-Googler Geoff Hinton, o principal pesquisador de IA Yoshua Bengio, Elon Musk e muitos outros têm pedido regulamentação e ações urgentes para lidar com os “riscos existenciais” – inclusive incluindo extinção — que a IA representa para a humanidade. Certamente, a rápida implantação de grandes modelos de linguagem sem avaliações de risco, divulgações sobre dados e processos de treinamento ou aparentemente muita atenção em como a tecnologia pode ser mal utilizada é preocupante. Mas os palestrantes em várias sessões da RightsCon reiteraram que essa corrida do ouro da IA é um produto da busca de lucro da empresa, não necessariamente inaptidão regulatória ou inevitabilidade tecnológica. Logo na primeira sessão, Gideon Lichfield, o principal editor da Wired (e ex-editor-chefe da Tech Review), e Urvashi Aneja, fundador do Digital Futures Lab, enfrentaram Kent Walker, do Google. “Satya Nadella, da Microsoft, disse que queria fazer o Google dançar. E o Google dançou”, disse Lichfield. “Estamos agora, todos nós, pulando no vazio com o nariz tapado porque essas duas empresas estão tentando vencer uma à outra.” Walker, em resposta, enfatizou os benefícios sociais que os avanços na inteligência artificial poderiam trazer em áreas como a descoberta de drogas e reafirmou o compromisso do Google com os direitos humanos. No dia seguinte, o pesquisador de IA Timnit Gebru abordou diretamente a conversa sobre os riscos existenciais apresentados pela IA: “Atribuir agência a uma ferramenta é um erro, e essa é uma tática de diversão. E se você vir quem fala assim, são literalmente as mesmas pessoas que despejaram bilhões de dólares nessas empresas.” Ela disse: “Apenas alguns meses atrás, Geoff Hinton estava falando sobre GPT-4 e como é a borboleta do mundo. Ah, é como uma lagarta que pega dados e depois voa em uma linda borboleta, e agora de repente é um risco existencial. Quero dizer, por que as pessoas estão levando essas pessoas a sério?” Frustrados com as narrativas em torno da IA, especialistas como o diretor de tecnologia e direitos humanos da Human Right Watch, Frederike Kaltheuner, sugerem nos basear nos riscos que já sabemos que afligem a IA, em vez de especular sobre o que poderia venha. E há alguns danos claros e bem documentados causados pelo uso da IA. Eles incluem:
Kaltheuner diz que está especialmente preocupada que os chatbots de IA generativa sejam implantados em contextos de risco, como terapia de saúde mental: “Estou preocupado com casos de uso absolutamente imprudentes de IA generativa para coisas para as quais a tecnologia simplesmente não foi projetada ou adequada para o propósito”. Gebru reiterou as preocupações sobre os impactos ambientais resultantes da grande quantidade de poder de computação necessária para executar modelos sofisticados de linguagem grande. (Ela diz que foi demitida do Google por levantar essas e outras preocupações em pesquisas internas .) Moderadores do ChatGPT, que trabalham por salários baixos, também experimentaram PTSD em seus esforços para tornar os resultados do modelo menos tóxicos, observou ela. Sobre as preocupações com o futuro da humanidade, Kaltheuner pergunta “Extinção de quem? Extinção de toda a raça humana? Já estamos vendo pessoas historicamente marginalizadas sendo prejudicadas no momento. É por isso que acho um pouco cínico.”
Um novo relatório do grupo de direitos humanos PSCORE, sediado na Coreia do Sul, detalha o processo de inscrição de um dia necessário para acessar a internet na Coreia do Norte. Apenas algumas dezenas de famílias ligadas a Kim Jong-Un têm acesso irrestrito à internet, e apenas “alguns milhares” de funcionários do governo, pesquisadores e estudantes podem acessar uma versão sujeita a forte vigilância. Como relata Matt Burgess na Wired, a Rússia e a China provavelmente fornecem à Coreia do Norte sua infra-estrutura web altamente controlada.
..
Veja o artigo completo no site MIT Technology Review