A Anthropic, empresa de inteligência artificial conhecida por uma postura cautelosa, sofreu dois incidentes de segurança em uma semana. No episódio mais recente, uma versão de software divulgada inadvertidamente expôs quase 2.000 ficheiros de código‑fonte — cerca de 512.000 linhas — incluindo detalhes de um produto em desenvolvimento, o Claude Code, uma ferramenta destinada a programadores. A empresa classificou o incidente como erro humano e não o considerou uma violação maliciosa, mas a exposição suscitou críticas na comunidade tecnológica e levou concorrentes, como a OpenAI, a reverem estratégias. Especialistas e utilizadores questionam agora o impacto a prazo sobre a confiança no ciclo de desenvolvimento e na segurança de software de produtos de IA. A Anthropic afirma estar a investigar e a reforçar procedimentos internos para evitar repetições.