Le Pentagone a utilisé « Claude », l'outil d'IA d'Anthropic, pour capturer Maduro au Venezuela

L'utilisation de l'intelligence artificielle dans les opérations militaires a franchi une nouvelle étape lorsque l'outil Claude, développé par la société Anthropic, a été utilisé lors de la récente capture de l'ancien dictateur vénézuélien Nicolás Maduro lors d'une opération américaine à Caracas.

Cette révélation révèle non seulement le rôle croissant de l’IA dans les tâches de guerre, mais tend également les relations entre Anthropic et l’administration Trump, soulevant des doutes sur l’avenir d’un contrat pouvant atteindre 200 millions de dollars. du Pentagone, selon Le Wall Street Journal et FoxNews.

L'opération qui a abouti à la capture de Nicolas Maduro et de son épouse sur les terres vénézuéliennes a été menée par les forces spéciales américaines, avec le transfert ultérieur des deux hommes aux États-Unis pour faire face à des accusations de trafic de drogue. Dans ce contexte, l'outil d'IA aurait été utilisé dans le cadre de l'accord avec Palantir Technologies – dont les systèmes sont courants au sein du ministère de la Défense et des forces de sécurité fédérales aux États-Unis -, bien que ni Anthropic ni le ministère de la Défense n'aient officiellement confirmé leur rôle dans l'opération, en faisant référence à des protocoles de confidentialité.

La première image de Maduro

Un porte-parole d'Anthropic a assuré à Fox News Digital et Le Wall Street Journal: « Nous ne pouvons pas dire si Claude, ou tout autre modèle d'IA, a été utilisé dans une opération spécifique, classifiée ou non. » Il a ajouté que toute utilisation de Claude, tant dans le secteur privé que dans le gouvernement, doit être conforme aux politiques d'utilisation de l'entreprise, qui interdisent expressément de contribuer à faciliter la violence, à développer des armes ou à effectuer des opérations de surveillance.

De son côté, une source consultée par Fox News Digital a assuré qu'Anthropic surveille aussi bien les utilisations classifiées que non classifiées de son IA et est convaincue que les règles d'utilisation ont été respectées par ses partenaires.

L’inclusion de systèmes comme Claude dans les opérations de sécurité nationale représente un renforcement de légitimité pour les entreprises d’IA qui, confrontées à des valorisations de plusieurs millions de dollars, cherchent à démontrer leur responsabilité sociale et leur utilité. Cependant, l’adoption militaire soulève d’importantes questions éthiques quant au développement technologique et à la pertinence de ses utilisations. Amodei et d'autres dirigeants du secteur ont perdu des travailleurs qui dénonçaient une priorité accordée à la croissance au détriment du développement responsable de la technologie.

Claude, le chatbot IA

Le débat sur la réglementation a également exacerbé les tensions avec l’administration Trump, qui accuse Anthropic d’entraver la stratégie officielle de faible réglementation de l’intelligence artificielle. À cet égard, Le Wall Street Journal rapporte que des responsables envisagent de mettre fin au contrat qui liait le Pentagone et Anthropic, étant donné qu'il met l'accent sur l'intégration de garanties et de restrictions, y compris celles liées à l'exportation de matériel d'IA sensible.

En raison de l'intervention de sa technologie dans des opérations de cette nature, les dirigeants d'Anthropic ont poussé à restreindre la portée de son modèle pour la guerre et la surveillance, ce qui a incité les responsables gouvernementaux à évaluer l'éventuelle annulation de leur accord d'un million de dollars avec l'entreprise, a rapporté Le Wall Street Journal. Selon des sources citées par les deux médias, la principale préoccupation d'Anthropic réside dans l'utilisation possible de son IA dans des missions autonomes létales et pour des tâches de surveillance intérieure. Dario Amodei, PDG de l'entreprise, s'est publiquement prononcé contre l'utilisation de l'IA sans réglementation plus stricte, plaidant pour l'établissement de limites réglementaires qui préviennent les préjudices sociaux.

Maduro est détenu à

Anthropic a été le premier développeur d'IA officiellement embauché pour des opérations classifiées par le ministère de la Défense, selon Le Wall Street Journal. L'utilité de Claude et des outils similaires est large : elle va de la synthèse de documents au contrôle de drones autonomes. Des sources consultées par les deux médias affirment que d'autres applications d'IA pourraient être utilisées dans des tâches non classifiées lors de l'opération au Venezuela.

En parallèle, l’industrie fait face à une concurrence féroce dans le segment militaire. Un consortium réunissant Google et ChatGPT d'OpenAI, avec la plateforme Gemini, a été annoncé comme support pour le personnel militaire, axé sur l'analyse et la génération de rapports pour près de trois millions de personnes.

Lors d’une conférence en janvier, le secrétaire à la Défense Pete Hegseth a fait allusion aux limites imposées par certains fournisseurs d’intelligence artificielle, déclarant : « Nous n’utiliserons pas de modèles d’IA qui ne peuvent pas mener des guerres. » La déclaration, rapportée par le Wall Street Journal, reflète les frictions actuelles dans les négociations avec Anthropic.

Politiques internes d'Anthropic

Les politiques internes d'Anthropic établissent que Claude, doté des capacités nécessaires pour résumer des documents et coordonner des systèmes autonomes, ne doit pas être utilisé dans des actions offensives, dans le développement d'armes ou dans la surveillance de la population. Cependant, la pression pour que les technologies progressent au rythme des adversaires s’intensifie.

Le contrat attribué à Anthropic par le ministère de la Défense, qui pourrait atteindre 200 millions de dollars, a été approuvé l'été dernier. Les refus d’établir un cadre d’autorégulation dans l’industrie ont généré des démissions et des protestations internes, tandis que les autorités fédérales soutiennent que « l’avenir de la guerre américaine s’appelle l’IA », a déclaré Hegseth à Fox News Digital.

Lors de l'incursion au Venezuela, selon le témoignage d'un responsable recueilli par Fox News Digital*, sept soldats américains ont été blessés.