O Vale do Silício está em polvorosa com uma nova métrica, “p(doom)”, abreviação de “probabilidade de desgraça”, que indica a probabilidade de a inteligência artificial causar a extinção humana ou outras grandes calamidades. Esse conceito, que antes era uma piada interna entre os entusiastas da inteligência artificial, ganhou força após os avanços provocados pelo ChatGPT.
Figuras proeminentes como Dario Amodei, da Anthropic, e Lina Khan, da FTC, expressaram suas porcentagens de p(doom), refletindo níveis variados de preocupação com os riscos da IA. Mesmo dentro da OpenAI, o termo surgiu durante as transições de liderança, com o alto p(doom) do CEO interino Emmett Shear gerando preocupações entre os funcionários.
O termo teve origem há mais de uma década no LessWrong, um fórum on-line do movimento racionalista, e foi popularizado por figuras como Eliezer Yudkowsky. Ele reflete o debate mais amplo no Vale do Silício entre aqueles que recomendam cautela no desenvolvimento da IA e outros que defendem um progresso mais rápido.
Os principais pesquisadores de I.A., incluindo Geoffrey Hinton e Yoshua Bengio, expressaram preocupações significativas sobre a I.A. não regulamentada, estimando riscos substanciais de resultados catastróficos. Essas estimativas variam de 10% a 20%, destacando a urgência de abordar os possíveis perigos.
Entretanto, p(doom) não se trata de previsões precisas. Ele serve para medir a posição dos indivíduos no espectro de risco da I.A. e significa uma séria reflexão sobre seus possíveis impactos. O termo também esclarece as diferentes perspectivas em relação à governança da I.A. e às práticas de segurança, influenciando as pontuações p(doom) dos indivíduos.
Ajeya Cotra, pesquisadora sênior da Open Philanthropy, observa que, embora o p(doom) ofereça um ponto de referência rápido, ele simplifica demais a complexidade dos riscos da I.A., que dependem muito da governança e das medidas regulatórias. Ele funciona essencialmente como um teste de Rorschach, refletindo mais sobre nossas opiniões a respeito da capacidade humana de gerenciar tecnologias emergentes do que sobre a própria I.A..