As advertências mais dramáticas sobre os riscos das aplicações de inteligência artificial não vêm de inimigos da tecnologia, mas de quem está diretamente envolvido com o desenvolvimento dessas ferramentas.
Depois da carta aberta que pedia pausa nas pesquisas, agora surgiu novo alerta publicado pelo Centro de Segurança de Inteligência Artificial (Cais na sigla em inglês, que se pronuncia "quêiz"). É assinado por cientistas vinculados ao segmento, entre os quais o cofundador da OpenAI, dona do ChatGPT, Sam Altman.
A coluna não usou a palavra "dramáticas" de forma leviana. O texto de advertência é tão curto quanto forte: "Mitigar o risco de extinção pela inteligência artificial deve ser uma prioridade global, ao lado de outros riscos em escala social, como pandemias e guerra nuclear (clique para ver o original em inglês)". E é só isso mesmo.
Além desse curto parágrafo no site do Cais, só há uma espécie de introdução para contextualizar a declaração. Afirma que especialistas em inteligência artificial (IA), jornalistas, responsáveis por políticas públicas e a sociedade estão discutindo os "importantes e urgentes riscos da IA", mas mesmo assim é difícil de obter atenção a essas preocupações. É para tentar vencer esse obstáculo que foi feito a "declaração sucinta", cujo objetivo também é dar conhecimento público ao fato de que as pessoas mais ligadas ao tema levam essas ameaças a sério.
E tão forte quanto, mas muito mais longa do que o texto, é a lista das assinaturas em apoio. Além de Altman, apoiam o alerta executivos de Microsoft e Google, e cientistas que ajudaram a fazer o desenvolvimento chegar até esse ponto, como Geoffrey Hinton e Yoshua Bengio, que receberam o Prêmio Turing - espécie de Nobel da tecnologia - de 2018 por seu trabalho em aprendizado profundo das máquinas. Só ficou de fora o terceiro destacado naquele ano, o francês Yann LeCun, que é cientista-chefe de AI na Meta (Facebook, Instagram e Whatsapp) e já considerou "completamente ridículos" os temores de ameaça dessa tecnologia à civilização.
O objetivo dos cientistas, obviamente, não é paralisar pesquisas, mas definir uma regulação que considere os riscos para os quais chamam atenção. Desenvolvimentos de inteligência artificial que ainda não estão no mercado incluem de diagnósticos médicos até a redação de petições legais. Estudo da OpenAI com a Universidade da Pensilvânia já fez projeções sobre os empregos que podem ser substituídos por máquinas capazes de aprender. Ou seja, a sociedade ainda não conhece o real potencial das aplicações. Eles, sim.