A nova métrica do Vale do Silício: o “P(doom)” das ameaças de I.A

À medida que a I.A. evolui rapidamente, os líderes tecnológicos do Vale do Silício avaliam os riscos existenciais usando “p(doom)”, uma estatística que reflete a probabilidade de catástrofes induzidas pela I.A..
A Nova Métrica Do Vale Do Silício: O "p(doom)" Das Ameaças De I.a A Nova Métrica Do Vale Do Silício: O "p(doom)" Das Ameaças De I.a
Evil Ai Brain In Data Center. Danger Of Strong Artificial Intelligence Threat To Humanity Future Risk Of Bad Scenario Creating Dangerous Asi Scary Superintelligence. Generative Ai

Keep up to Date with Latin American VC, Startups News

O Vale do Silício está em polvorosa com uma nova métrica, “p(doom)”, abreviação de “probabilidade de desgraça”, que indica a probabilidade de a inteligência artificial causar a extinção humana ou outras grandes calamidades. Esse conceito, que antes era uma piada interna entre os entusiastas da inteligência artificial, ganhou força após os avanços provocados pelo ChatGPT.

Figuras proeminentes como Dario Amodei, da Anthropic, e Lina Khan, da FTC, expressaram suas porcentagens de p(doom), refletindo níveis variados de preocupação com os riscos da IA. Mesmo dentro da OpenAI, o termo surgiu durante as transições de liderança, com o alto p(doom) do CEO interino Emmett Shear gerando preocupações entre os funcionários.

O termo teve origem há mais de uma década no LessWrong, um fórum on-line do movimento racionalista, e foi popularizado por figuras como Eliezer Yudkowsky. Ele reflete o debate mais amplo no Vale do Silício entre aqueles que recomendam cautela no desenvolvimento da IA e outros que defendem um progresso mais rápido.

Os principais pesquisadores de I.A., incluindo Geoffrey Hinton e Yoshua Bengio, expressaram preocupações significativas sobre a I.A. não regulamentada, estimando riscos substanciais de resultados catastróficos. Essas estimativas variam de 10% a 20%, destacando a urgência de abordar os possíveis perigos.

Entretanto, p(doom) não se trata de previsões precisas. Ele serve para medir a posição dos indivíduos no espectro de risco da I.A. e significa uma séria reflexão sobre seus possíveis impactos. O termo também esclarece as diferentes perspectivas em relação à governança da I.A. e às práticas de segurança, influenciando as pontuações p(doom) dos indivíduos.

Ajeya Cotra, pesquisadora sênior da Open Philanthropy, observa que, embora o p(doom) ofereça um ponto de referência rápido, ele simplifica demais a complexidade dos riscos da I.A., que dependem muito da governança e das medidas regulatórias. Ele funciona essencialmente como um teste de Rorschach, refletindo mais sobre nossas opiniões a respeito da capacidade humana de gerenciar tecnologias emergentes do que sobre a própria I.A..

Keep up to Date with Latin American VC, Startups News