La nueva métrica de Silicon Valley: la «P(doom)» de las amenazas de la I.A

A medida que la Inteligencia Artificial evoluciona rápidamente, los líderes tecnológicos de Silicon Valley evalúan los riesgos existenciales utilizando «p(doom)», una estadística que refleja la probabilidad de catástrofes inducidas por la Inteligencia Artificial.
La Nueva Métrica De Silicon Valley: La "p(doom)" De Las Amenazas De La I.a La Nueva Métrica De Silicon Valley: La "p(doom)" De Las Amenazas De La I.a
Evil Ai Brain In Data Center. Danger Of Strong Artificial Intelligence Threat To Humanity Future Risk Of Bad Scenario Creating Dangerous Asi Scary Superintelligence. Generative Ai

Keep up to Date with Latin American VC, Startups News

Silicon Valley bulle con una nueva métrica, «p(doom)», abreviatura de «probabilidad de perdición», que indica la probabilidad de que la inteligencia artificial provoque la extinción humana u otras calamidades importantes. Este concepto, que antes era una broma interna entre los entusiastas de la Inteligencia Artificial, ha ganado adeptos tras los avances provocados por ChatGPT.

Figuras destacadas como Dario Amodei, de Anthropic, y Lina Khan, de la FTC, han expresado sus porcentajes de p(doom), reflejando distintos niveles de preocupación por los riesgos de la Inteligencia Artificial. Incluso dentro de OpenAI, el término surgió durante las transiciones de liderazgo, con el elevado p(doom) del CEO interino Emmett Shear suscitando preocupación entre los empleados.

El término se originó hace más de una década en LessWrong, un foro online del movimiento Racionalista, y fue popularizado por figuras como Eliezer Yudkowsky. Refleja el debate más amplio en Silicon Valley entre quienes instan a la cautela en el desarrollo de la Inteligencia Artificial y otros que abogan por un progreso más rápido.

Destacados investigadores de la I.A., como Geoffrey Hinton y Yoshua Bengio, han expresado una gran preocupación por la I.A. no regulada, estimando riesgos sustanciales de resultados catastróficos. Estas estimaciones oscilan entre el 10 y el 20 por ciento, lo que pone de relieve la urgencia de abordar los peligros potenciales.

Sin embargo, p(doom) no trata de predicciones precisas. Sirve como indicador de dónde se sitúan los individuos en el espectro de riesgos de la Inteligencia Artificial y significa una seria contemplación de sus posibles repercusiones. El término también arroja luz sobre las distintas perspectivas relativas a la gobernanza y las prácticas de seguridad de la Inteligencia Artificial, que influyen en la puntuación p(doom) de los individuos.

Ajeya Cotra, investigadora principal de Open Philanthropy, señala que aunque p(doom) ofrece un punto de referencia rápido, simplifica en exceso la complejidad de los riesgos de la Inteligencia Artificial, que dependen en gran medida de las medidas de gobernanza y regulación. En esencia, actúa como una prueba de Rorschach, que refleja más nuestras opiniones sobre la capacidad humana para gestionar las tecnologías emergentes que sobre la propia Inteligencia Artificial.

Keep up to Date with Latin American VC, Startups News