Publicado originalmente por MIT Technology Review
Se os reguladores não agirem agora, o boom generativo da IA concentrará ainda mais o poder das Big Tech. Esse é o argumento central de um novo relatório do instituto de pesquisa AI Now. E faz sentido. Para entender por quê, considere que o atual boom da IA depende de duas coisas: grandes quantidades de dados e poder computacional suficiente para processá-los.
Ambos os recursos estão realmente disponíveis apenas para grandes empresas. E embora alguns dos aplicativos mais interessantes, como o chatbot ChatGPT da OpenAI e o AI Stable Diffusion de geração de imagens da Stability.AI, sejam criados por startups, eles contam com acordos com a Big Tech que lhes dá acesso aos seus vastos dados e recursos de computação.
“Algumas grandes empresas tecnológicas estão preparadas para consolidar o poder através da IA, em vez de democratizá-lo”, afirma Sarah Myers West, diretora-gerente do AI Now Institute, uma organização de investigação sem fins lucrativos.
No momento, a Big Tech está dominando a IA. Mas Myers West acredita que estamos realmente num momento decisivo. É o início de um novo ciclo de propaganda tecnológica e isso significa que os legisladores e reguladores têm uma oportunidade única de garantir que a próxima década da tecnologia de IA seja mais democrática e justa.
O que separa este boom tecnológico dos anteriores é que temos uma melhor compreensão de todas as formas catastróficas pelas quais a IA pode dar errado. E os reguladores de todo o mundo estão prestando muita atenção.
A China acaba de lançar um projecto de lei sobre IA generativa que apela a mais transparência e supervisão, enquanto a União Europeia está a negociar a Lei da IA, que exigirá que as empresas tecnológicas sejam mais transparentes sobre como funcionam os sistemas de IA generativa. Também está planejando um projeto de lei para responsabilizá-los por danos à IA .
Os EUA têm sido tradicionalmente relutantes em regulamentar o seu setor tecnológico. Mas isso está mudando. A administração Biden está à procura de informações sobre formas de supervisionar modelos de IA como o ChatGPT – por exemplo, exigindo que as empresas tecnológicas produzam auditorias e avaliações de impacto, ou determinando que os sistemas de IA cumpram determinados padrões antes de serem lançados. É uma das medidas mais concretas que o governo tomou para reduzir os danos da IA.
Myers West diz que seu período lhe ensinou que a regulamentação da IA não precisa começar do zero. Em vez de esperar por regulamentações específicas sobre IA, como a Lei de IA da UE, que levará anos para ser implementada, os reguladores deveriam intensificar a aplicação das leis existentes de proteção de dados e concorrência.
Como a IA tal como a conhecemos hoje depende em grande parte de enormes quantidades de dados, a política de dados é também uma política de inteligência artificial, diz Myers West.
Caso em questão: o ChatGPT tem enfrentado um intenso escrutínio por parte das autoridades de proteção de dados europeias e canadianas e foi bloqueado em Itália por alegadamente extrair dados pessoais da Internet de forma ilegal e utilizar indevidamente dados pessoais…
Veja o artigo completo no site MIT Technology Review