Publicado originalmente por New York Times
Líderes da OpenAI, Google Deepmind, Anthropic e outros laboratórios de IA alertam que os sistemas futuros podem ser tão mortais quanto pandemias e armas nucleares.
Um grupo de líderes da indústria alertou na terça-feira que a tecnologia de inteligência artificial que estão construindo pode um dia representar uma ameaça existencial para a humanidade e deve ser considerada um risco social equivalente a pandemias e guerras nucleares.
“Mitigar o risco de extinção da IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”, diz uma declaração de uma frase divulgada pelo Center for AI Safety, uma organização sem fins lucrativos. A carta aberta foi assinada por mais de 350 executivos, pesquisadores e engenheiros que trabalham em IA
Os signatários incluíam altos executivos de três das principais empresas de IA: Sam Altman, executivo-chefe da OpenAI; Demis Hassabis, executivo-chefe do Google DeepMind; e Dario Amodei, presidente-executivo da Anthropic.
Geoffrey Hinton e Yoshua Bengio, dois dos três pesquisadores que ganharam o Prêmio Turing por seu trabalho pioneiro em redes neurais e são frequentemente considerados “padrinhos” do movimento moderno de IA, assinaram a declaração, assim como outros pesquisadores proeminentes da área. (O terceiro vencedor do Prêmio Turing, Yann LeCun, que lidera os esforços de pesquisa de IA da Meta, não havia assinado até terça-feira.)
Dan Hendrycks, diretor executivo do Center for AI Safety, disse em uma entrevista que a carta aberta representava uma “revelação” para alguns líderes do setor que expressaram preocupação – mas apenas em particular – sobre os riscos da tecnologia que estavam desenvolvendo. em desenvolvimento…
Veja o artigo completo no site New York Times