A OpenAI, empresa de pesquisa de IA, anunciou a formação de uma nova equipe, a equipe de Alinhamento Coletivo, em 16 de janeiro de 2024. Essa equipe, composta por pesquisadores e engenheiros, tem como objetivo integrar o feedback do público no desenvolvimento dos produtos e serviços da OpenAI. A iniciativa decorre do compromisso da OpenAI de alinhar as tecnologias de IA com valores humanos mais amplos, uma visão articulada pela primeira vez por meio de seu programa de subsídios lançado em maio do ano anterior.
O programa de concessões, focado no estabelecimento de um processo democrático para a governança da IA, financiou diversos projetos, desde interfaces de bate-papo por vídeo até plataformas para auditorias de IA de crowdsourcing. A OpenAI disponibilizou publicamente todo o código desses projetos, juntamente com os resumos dos projetos e os principais insights. Esse esforço reflete a estratégia da OpenAI de desenvolver sistemas de IA regidos por regras que se encaixam no consenso público e em considerações éticas.
Apesar dos esforços da OpenAI para separar essas iniciativas de seus interesses comerciais, o ceticismo permanece. O CEO Sam Altman, juntamente com outros altos executivos, criticou as regulamentações da UE, argumentando que o ritmo acelerado da inovação em IA supera a capacidade das estruturas regulatórias existentes. Essa postura levou a acusações de concorrentes, como a Meta, de tentar influenciar a regulamentação do setor de IA. Em resposta, a OpenAI destaca seu programa de subsídios e a equipe de Alinhamento Coletivo como evidência de seu compromisso com o desenvolvimento aberto e responsável da IA.
Ao mesmo tempo, a OpenAI enfrenta um crescente escrutínio regulatório, especialmente no Reino Unido, por causa de seus laços com a Microsoft. A empresa também tem sido proativa na abordagem das preocupações com a privacidade de dados da UE por meio de operações estratégicas através de sua subsidiária com sede em Dublin. Em um movimento relacionado, a OpenAI anunciou recentemente colaborações para mitigar o possível uso indevido de sua tecnologia para influenciar eleições, incluindo métodos para identificar conteúdo gerado por IA e sinalizar imagens criadas por IA.