Anthropic, una startup de inteligencia artificial generativa, está causando revuelo en Silicon Valley con su compromiso con el desarrollo de IA ultra-segura y responsable, liderada por los hermanos y ex empleados de OpenAI, Dario y Daniela Amodei. A diferencia de sus competidores, Anthropic ha establecido una estructura de gobierno novedosa, que incluye un «Fideicomiso de Beneficio a Largo Plazo» supervisando algunos asientos en su junta, creando efectivamente un amortiguador contra la influencia directa de los inversores. Este arreglo es particularmente notable en un sector de IA que enfrenta un escrutinio creciente por parte de reguladores y observadores de la industria.
La reciente investigación de la compañía sobre el sesgo en su chatbot impulsado por IA, Claude, refleja su compromiso más amplio con el desarrollo ético de IA, un enfoque que se está convirtiendo en un punto focal en la industria. El enfoque de Anthropic en la seguridad y ética de la IA es oportuno, ya que organismos reguladores como la Comisión Federal de Comercio de EE. UU., bajo la guía de Lina Khan, expresan preocupaciones sobre la concentración de poder a través de inversiones de las grandes tecnológicas en startups de IA. Estas inversiones a menudo incluyen acuerdos condicionales que atan a las startups a la infraestructura en la nube de sus contrapartes más grandes, una práctica que ha atraído atención por su potencial de dejar a las nuevas empresas excesivamente dependientes.
Aunque los ingresos y el tamaño de mercado de Anthropic aún no pueden compararse con los de OpenAI, su énfasis en la seguridad y el establecimiento de un servicio de suscripción Pro demuestran su ambición y estrategia de mercado. Sin embargo, lo que lo distingue es el Fideicomiso de Beneficio a Largo Plazo, una característica que podría atraer escrutinio o demandas de cambio, especialmente a la luz de problemas de gobernanza enfrentados por organizaciones similares.
A medida que la IA continúa evolucionando y atrayendo la atención tanto de los sectores financieros como regulatorios, la estructura única de Anthropic y su mandato de seguridad primero probablemente lo mantendrán en el centro de atención, tanto como un modelo para el desarrollo responsable de IA como un tema de debate continuo sobre el mejor camino a seguir para la gobernanza y la ética en el mundo rápidamente en desarrollo de la inteligencia artificial.