Anthropic, uma startup de inteligência artificial generativa, está criando um burburinho no Vale do Silício com seu compromisso com o desenvolvimento de IA ultra-segura e responsável, liderada pelos irmãos e ex-funcionários da OpenAI, Dario e Daniela Amodei. Ao contrário de seus concorrentes, a Anthropic estabeleceu uma estrutura de governança inovadora, que inclui um “Fundo de Benefício de Longo Prazo” supervisionando alguns assentos em seu conselho, efetivamente criando um amortecedor contra a influência direta dos investidores. Este arranjo é particularmente notável em um setor de IA que enfrenta um escrutínio crescente por parte de reguladores e observadores da indústria.

A recente pesquisa da empresa sobre o viés em seu chatbot alimentado por IA, Claude, reflete seu compromisso mais amplo com o desenvolvimento ético de IA, um compromisso que está se tornando cada vez mais um ponto focal na indústria. A abordagem da Anthropic para a segurança e a ética em IA é oportuna, já que órgãos reguladores como a Comissão Federal de Comércio dos EUA, sob a orientação de Lina Khan, expressam preocupações sobre a concentração de poder através de investimentos das grandes empresas de tecnologia em startups de IA. Esses investimentos frequentemente incluem acordos condicionais que vinculam as startups à infraestrutura de nuvem de suas contrapartes maiores, uma prática que tem atraído atenção pelo seu potencial de deixar as novas empresas excessivamente dependentes.

Embora a receita e o tamanho de mercado da Anthropic ainda não correspondam aos da OpenAI, seu ênfase em segurança e o estabelecimento de um serviço de assinatura Pro demonstram sua ambição e estratégia de mercado. No entanto, o que a distingue é o Fundo de Benefício de Longo Prazo, uma característica que pode atrair escrutínio ou demandas por mudança, especialmente em vista dos problemas de governança enfrentados por organizações similares.

À medida que a IA continua a evoluir e atrair a atenção dos setores financeiro e regulatório, a estrutura única e o mandato de segurança primeiro da Anthropic provavelmente a manterão em destaque, tanto como um modelo para o desenvolvimento responsável de IA quanto como um assunto de debate contínuo sobre o melhor caminho a seguir para a governança e a ética no mundo em rápida evolução da inteligência artificial.