Publicado originalmente por MIT Technology Review
Está ficando cada vez mais claro que os tribunais, e não os políticos, serão os primeiros a determinar os limites de como a IA é desenvolvida e usada nos EUA.
Na semana passada, a Federal Trade Commission abriu uma investigação para saber se a OpenAI violou as leis de proteção ao consumidor ao coletar os dados online das pessoas para treinar seu popular chatbot de IA, ChatGPT. Enquanto isso, artistas, autores e a empresa de imagem Getty estão processando empresas de IA, como OpenAI, Stability AI e Meta, alegando que violaram as leis de direitos autorais ao treinar seus modelos em seu trabalho sem fornecer nenhum reconhecimento ou pagamento.
Se esses casos forem bem-sucedidos, eles podem forçar OpenAI, Meta, Microsoft e outros a mudar a maneira como a IA é construída, treinada e implantada para que seja mais justa e equitativa.
Eles também poderiam criar novas formas para artistas, autores e outros serem compensados por terem seus trabalhos usados como dados de treinamento para modelos de IA, por meio de um sistema de licenciamento e royalties.
O boom generativo da IA reviveu o entusiasmo dos políticos americanos em aprovar leis específicas da IA. No entanto, é improvável que essa legislação seja aprovada no próximo ano, devido à divisão do Congresso e ao intenso lobby das empresas de tecnologia, diz Ben Winters, conselheiro sênior do Electronic Privacy Information Center. Mesmo a tentativa mais proeminente de criar novas regras de IA, a estrutura SAFE Innovation do senador Chuck Schumer, não inclui nenhuma proposta de política específica.
“Parece que o caminho mais direto [para um livro de regras de IA é] começar com as leis existentes nos livros”, diz Sarah Myers West, diretora-gerente do AI Now Institute, um grupo de pesquisa.
E isso significa ações judiciais.
As leis existentes forneceram muita munição para aqueles que dizem que seus direitos foram prejudicados por empresas de IA.
A OpenAI está otimista com a investigação da FTC – pelo menos em público. Quando contatada para comentar, a empresa compartilhou um tópico no Twitter do CEO Sam Altman, no qual ele disse que a empresa está “confiante de que seguimos a lei”.
Uma agência como a FTC pode levar as empresas ao tribunal, impor padrões contra o setor e introduzir melhores práticas de negócios, diz Marc Rotenberg, presidente e fundador do Center for AI and Digital Policy (CAIDP), uma organização sem fins lucrativos. O CAIDP apresentou uma queixa à FTC em março, pedindo que investigasse a OpenAI. A agência tem o poder de criar efetivamente novas barreiras que dizem às empresas de IA o que elas podem ou não fazer, diz Myers West.
A FTC pode exigir que a OpenAI pague multas ou exclua quaisquer dados obtidos ilegalmente e exclua os algoritmos que usaram os dados coletados ilegalmente, diz Rotenberg. No caso mais extremo, o ChatGPT pode ficar offline. Existe um precedente para isso: a agência fez a empresa de dieta Vigilantes do Peso excluir seus dados e algoritmos em 2022 após coletar ilegalmente dados de crianças…
Veja o artigo completo no site MIT Technology Review