A IA generativa corre o risco de concentrar o poder da Big Tech. Veja como pará-lo.

Publicado originalmente por MIT Technology Review

Se os reguladores não agirem agora, o boom generativo da IA ​​concentrará ainda mais o poder das Big Tech. Esse é o argumento central de um novo relatório  do instituto de pesquisa AI Now. E faz sentido. Para entender por quê, considere que o atual boom da IA ​​depende de duas coisas: grandes quantidades de dados e poder computacional suficiente para processá-los.  

Ambos os recursos estão realmente disponíveis apenas para grandes empresas. E embora alguns dos aplicativos mais interessantes, como o chatbot ChatGPT da OpenAI e o AI Stable Diffusion de geração de imagens da Stability.AI, sejam criados por startups, eles contam com acordos com a Big Tech que lhes dá acesso aos seus vastos dados e recursos de computação. 

“Algumas grandes empresas tecnológicas estão preparadas para consolidar o poder através da IA, em vez de democratizá-lo”, afirma Sarah Myers West, diretora-gerente do AI Now Institute, uma organização de investigação sem fins lucrativos. 

No momento, a Big Tech está dominando a IA.  Mas Myers West acredita que estamos realmente num momento decisivo. É o início de um novo ciclo de propaganda tecnológica e isso significa que os legisladores e reguladores têm uma oportunidade única de garantir que a próxima década da tecnologia de IA seja mais democrática e justa. 

O que separa este boom tecnológico dos anteriores é que temos uma melhor compreensão de todas as formas catastróficas pelas quais a IA pode dar errado. E os reguladores de todo o mundo estão prestando muita atenção. 

A China acaba de lançar um projecto de lei sobre IA generativa  que apela a mais transparência e supervisão, enquanto a União Europeia está a negociar a Lei da IA, que exigirá que as empresas tecnológicas sejam mais transparentes sobre como funcionam os sistemas de IA generativa. Também está planejando um projeto de lei para responsabilizá-los por danos à IA .

Os EUA têm sido tradicionalmente relutantes em regulamentar o seu setor tecnológico. Mas isso está mudando. A administração Biden está à procura de informações  sobre formas de supervisionar modelos de IA como o ChatGPT – por exemplo, exigindo que as empresas tecnológicas produzam auditorias e avaliações de impacto, ou determinando que os sistemas de IA cumpram determinados padrões antes de serem lançados. É uma das medidas mais concretas que o governo tomou para reduzir os danos da IA.

Myers West diz que seu período lhe ensinou que a regulamentação da IA ​​não precisa começar do zero. Em vez de esperar por regulamentações específicas sobre IA, como a Lei de IA da UE, que levará anos para ser implementada, os reguladores deveriam intensificar a aplicação das leis existentes de proteção de dados e concorrência.

Como a IA tal como a conhecemos hoje depende em grande parte de enormes quantidades de dados, a política de dados é também uma política de inteligência artificial, diz Myers West. 

Caso em questão: o ChatGPT tem enfrentado um intenso escrutínio por parte das autoridades de proteção de dados europeias e canadianas e foi bloqueado em Itália por alegadamente extrair dados pessoais da Internet de forma ilegal e utilizar indevidamente dados pessoais…

Veja o artigo completo no site MIT Technology Review


Mais desse tópico: