Publicado originalmente por MIT Technology Review
Ultimamente tenho perdido muito sono por causa das mudanças climáticas. Faltam pouco mais de cinco semanas para o Natal e, no último fim de semana em Londres, estava quente o suficiente para tomar uma cerveja do lado de fora sem casaco. Enquanto os líderes mundiais se reúnem no Egito para a última semana da conferência do clima COP27 para “ blá, blá, blá ”, esta semana estou me concentrando na pegada de carbono da IA.
Acabei de publicar uma história sobre a primeira tentativa de calcular as emissões mais amplas de um dos produtos de IA mais populares no momento – modelos de linguagem grande – e como isso poderia ajudar a estimular o setor de tecnologia a fazer mais para limpar seu ato.
A startup de IA Hugging Face calculou as emissões de seu grande modelo de linguagem BLOOM, e seus pesquisadores descobriram que o processo de treinamento emitia 25 toneladas métricas de carbono. No entanto, essas emissões dobraram quando levaram em consideração os custos mais amplos de hardware e infraestrutura da execução do modelo. Eles publicaram seu trabalho em um artigo publicado no arXiv que ainda não foi revisado por pares.
A descoberta em si não é muito surpreendente, e o BLOOM é muito mais “limpo” do que grandes modelos de linguagem como o GPT-3 da OpenAI e o OPT da Meta, porque foi treinado em um supercomputador francês alimentado por energia nuclear. Em vez disso, o significado deste trabalho é que ele aponta para uma maneira melhor de calcular o impacto climático dos modelos de IA, indo além do treinamento para a maneira como são usados no mundo real.
O treinamento é apenas a ponta do iceberg, porque embora seja muito poluente, só precisa acontecer uma vez. Uma vez liberados, os modelos de IA alimentam coisas como os mecanismos de recomendação de empresas de tecnologia ou os esforços para classificar os comentários dos usuários. As ações envolvidas usam muito menos energia, mas podem acontecer um bilhão de vezes por dia. Isso soma.
As empresas de tecnologia querem que nos concentremos apenas nas emissões dos modelos de IA de treinamento porque isso os torna melhores, disse David Rolnick, professor assistente de ciência da computação na Universidade McGill, que trabalha com IA e mudanças climáticas.
Mas a verdadeira pegada de carbono da inteligência artificial provavelmente será maior do que sugere o trabalho de Hugging Face, argumenta Rolnick, quando você leva em consideração como a IA está sendo usada para impulsionar indústrias extremamente poluentes – sem mencionar seus efeitos sociais mais amplos. . Por exemplo, algoritmos de recomendação são frequentemente usados em publicidade, o que, por sua vez, leva as pessoas a comprar mais coisas, o que causa mais emissões.
Exigir que as empresas de tecnologia forneçam mais dados sobre o impacto climático da construção, treinamento e uso da IA é um começo. Também devemos deixar de ser obcecados com a construção de modelos de IA cada vez maiores e tentar encontrar maneiras de fazer pesquisas de IA usando métodos mais eficientes em termos de energia, como o ajuste fino dos modelos existentes.
Por dentro do novo esforço da Alphabet X para combater as mudanças climáticas com IA e ervas marinhas
O MIT Technology Review deu uma espiada no Tidal, um novo projeto de mitigação das mudanças climáticas da X, a divisão lunar da empresa controladora do Google, a Alphabet. A Tidal usa câmeras, visão computacional e aprendizado de máquina para rastrear o carbono armazenado na biomassa dos oceanos. Faz parte de um esforço para melhorar nossa compreensão dos ecossistemas subaquáticos, a fim de informar e incentivar os esforços para proteger os oceanos em meio a ameaças crescentes de poluição, pesca predatória, acidificação dos oceanos e aquecimento global…
Veja o artigo completo no site MIT Technology Review