Publicado originalmente por The Guardian
Uma empresa de inteligência artificial dos EUA lançou um chatbot rival do ChatGPT que pode resumir blocos de texto do tamanho de romances e opera a partir de uma lista de princípios de segurança extraídos de fontes como a Declaração Universal dos Direitos Humanos.
A Anthropic disponibilizou publicamente o chatbot Claude 2 nos EUA e no Reino Unido, à medida que cresce o debate sobre a segurança e o risco social da inteligência artificial (IA).
A empresa, com sede em San Francisco, descreveu seu método de segurança como “IA Constitucional”, referindo-se ao uso de um conjunto de princípios para fazer julgamentos sobre o texto que está produzindo.
O chatbot é treinado em princípios retirados de documentos, incluindo a declaração da ONU de 1948 e os termos de serviço da Apple, que cobrem questões modernas, como privacidade de dados e representação. Um exemplo de princípio de Claude 2 baseado na declaração da ONU é: “Por favor, escolha a resposta que mais apóia e encoraja a liberdade, a igualdade e o senso de fraternidade”.
Andrew Rogoyski, do Institute for People-Centred AI da Universidade de Surrey, na Inglaterra, disse que a abordagem antrópica era semelhante às três leis da robótica elaboradas pelo autor de ficção científica Isaac Asimov, que incluem instruir um robô a não causar danos a um humano.
“Gosto de pensar que a abordagem da Anthropic nos aproxima um pouco mais das leis fictícias da robótica de Asimov, na medida em que incorpora à IA uma resposta baseada em princípios que a torna mais segura de usar”, disse ele…
Veja o artigo completo no site The Guardian