Ayer, un vídeo deepfake de TikTok suscitó preocupación por la posible desinformación electoral. En respuesta, OpenAI actualizó sus políticas, prohibiendo el uso de sus herramientas de IA, incluidas ChatGPT y Dall-E, para hacerse pasar por candidatos políticos o gobiernos locales. Las nuevas normas también prohíben estas herramientas en campañas, actividades de grupos de presión, desalentar el voto o tergiversar el proceso de votación.
La postura de OpenAI sobre la desinformación electoral se ha reforzado, alineándose con los esfuerzos de la Coalición para la Autenticidad y Procedencia de los Contenidos (C2PA). La coalición, que incluye a grandes actores como Microsoft y Adobe, pretende combatir la desinformación mediante la IA, sobre todo en la generación de imágenes. OpenAI tiene previsto integrar las credenciales digitales de la C2PA en las imágenes creadas por Dall-E, lo que simplificará la identificación de las imágenes generadas por IA.
La iniciativa se extiende a dirigir las consultas sobre votaciones en EE.UU. a CanIVote.org, una fuente fiable de información sobre votaciones. Sin embargo, estas medidas aún están en fase de despliegue y dependen en gran medida de los informes de los usuarios para identificar usos indebidos. Ante la naturaleza evolutiva de la IA, la eficacia de estas medidas para mitigar la desinformación electoral sigue siendo incierta. Mientras la IA sigue sorprendiéndonos con sus capacidades y desafíos, la alfabetización mediática sigue siendo una defensa crucial contra la desinformación.