Anthropic refuse la demande du Pentagone de lever les mesures de protection de l'IA.
L'entreprise affirme qu'elle "ne peut pas en toute conscience" supprimer les restrictions de Claude.
La société d'IA Anthropic a déclaré qu'elle ne se conformerait pas à la demande du Pentagone de supprimer les garde-fous de son modèle Claude, après que le secrétaire à la Défense Pete Hegseth a menacé d'annuler un contrat de 200 millions de dollars et de qualifier l'entreprise de "risque pour la chaîne d'approvisionnement." Le PDG Dario Amodei a déclaré que l'entreprise restait disposée à soutenir la sécurité nationale américaine, but only with safeguards in place.
Au centre du différend se trouve la demande de l'armée pour une utilisation légale et sans restriction de Claude, y compris un déploiement potentiel dans les armes autonomes et la surveillance domestique. Anthropic a refusé d'autoriser de telles applications, arguant que la technologie n'est pas assez sûre ou fiable pour ces rôles.
Cette impasse met à l'épreuve la réputation d'Anthropic en tant que one of the AI sector's most safety-focused players (l'un des acteurs du secteur de l'IA les plus axés sur la sécurité). Perdre le contrat du Pentagone (et être officiellement désigné comme un risque pour la chaîne d'approvisionnement) pourrait sérieusement limiter la capacité de l'entreprise à travailler avec d'autres partenaires de la défense américaine....
