El Instituto Nacional de Estándares y Tecnología (NIST) está bajo presión con una tarea desalentadora: desarrollar robustos estándares de seguridad para la IA antes de julio de 2024. Esta iniciativa, vital para mitigar los riesgos de la IA, forma parte de una estrategia más amplia de la Casa Blanca para asegurar que los sistemas de IA estén libres de sesgos y tendencias perversas. Sin embargo, el presupuesto actual del NIST es significativamente inferior a lo necesario para cumplir de manera independiente estos objetivos ambiciosos, lo que lleva a preocupaciones sobre una posible dependencia excesiva del sector privado para obtener experiencia y recursos.
Las recientes discusiones en la conferencia de IA NeurIPS arrojaron luz sobre el «plazo casi imposible» establecido para el NIST, resaltando la disparidad entre los recursos de la agencia y los vastos fondos disponibles para desarrolladores privados de IA como OpenAI, Google y Meta. Aunque el NIST tiene un historial de estandarización en diversos campos y recientemente lanzó un marco de gestión de riesgos de IA, el desafío de probar independientemente los sistemas de IA sigue siendo desalentador debido a las limitaciones presupuestarias.
La conciencia del Congreso sobre estas limitaciones ha llevado a llamados bipartidistas por una mayor transparencia y preocupación por el enfoque de la agencia al involucrar entidades privadas. Los legisladores enfatizan el estado incipiente de la investigación en seguridad de IA y la necesidad de estándares claros y científicamente sólidos, expresando inquietud sobre la dirección del NIST bajo las restricciones actuales.
El escenario se complica aún más por la naturaleza secreta de los modelos comerciales de IA, lo que plantea importantes obstáculos para la medición y estandarización. Los expertos abogan por el papel del NIST como un organismo neutral para navegar los riesgos de la IA, enfatizando la necesidad de un apoyo sustancial para cumplir efectivamente su mandato. A medida que la agencia solicita información externa para evaluar y probar adversamente los modelos de IA, enfrenta el desafío crítico de equilibrar las presiones inmediatas contra el objetivo a largo plazo de desarrollar estándares globales comprensivos y responsables para el desarrollo de la IA.