Titre original : Clawed
Auteur original : Dean W. Ball
Traduction : Peggy, BlockBeats
Auteur original :律动BlockBeats
Source originale :
Reproduit : Mars Finance
Préface :
Lorsque l’expérience de la vie et de la mort d’un individu s’entrelacent avec la métaphore du déclin et de la renaissance d’un système national, la narration politique ne se limite plus à une discussion abstraite sur les institutions, mais devient une reconnaissance émotionnelle profonde. Cet article, en prenant comme point de départ le décès de mon père et la naissance de mon enfant, étend la compréhension personnelle selon laquelle « la mort est un processus » à une réflexion sur l’état actuel du système républicain américain. Selon l’auteur, le conflit actuel entre les entreprises d’intelligence artificielle et le gouvernement n’est pas un incident isolé, mais un reflet d’un affaiblissement prolongé du système et d’un déséquilibre des structures de pouvoir.
L’article se concentre sur la controverse entre Anthropic et le système de défense américain, abordant des sujets allant des clauses contractuelles, des limites politiques, jusqu’à la menace du « risque de chaîne d’approvisionnement ». Il ne s’agit plus seulement d’un jeu de pouvoir entre une entreprise et un gouvernement, mais d’une question plus fondamentale : dans l’ère de l’intelligence artificielle de pointe, à qui doit revenir le contrôle ? À une entreprise privée, au pouvoir administratif, ou à un mécanisme public encore immature ? Lorsque la sécurité nationale devient une justification pour l’expansion du pouvoir, et que les politiques dépendent de plus en plus d’arrangements temporaires et coercitifs, la cohérence et la prévisibilité du régime républicain s’affaiblissent-elles ?
Les avancées technologiques et les changements institutionnels peuvent se produire simultanément, et leur intersection influence souvent le cours d’une époque. L’auteur remet en question les actions du gouvernement tout en conservant l’espoir d’une reconstruction future du système, tout en rappelant aux lecteurs que « contrôle démocratique » ne doit pas être simplement confondu avec « contrôle gouvernemental ». Dans un contexte où l’intelligence artificielle évolue rapidement et où les modes de gouvernance se transforment continuellement, cette controverse pourrait n’être que le début. La recherche d’un nouvel équilibre entre sécurité, efficacité et liberté deviendra une problématique majeure à long terme.
Voici le texte original :
Il y a plus de dix ans, je me suis assis à côté de mon père, regardant sa mort approcher. Six mois auparavant, il était encore une personne pleine d’énergie, plus robuste que moi aujourd’hui, pédalant plus vite et avec plus de résilience que la plupart des jeunes de vingt ans. Puis un jour, il a subi une opération du cœur, et à partir de ce moment, il n’a plus été le même. Son âme semblait avoir été arrachée, la lumière dans ses yeux s’était éteinte. Parfois, il retrouvait un peu de vivacité, comme si le père familier revenait brièvement dans son corps qui se déclinait, mais ces moments devenaient de plus en plus rares. Sa pensée devenait intermittente, sa voix s’affaiblissait.
Pendant ces six mois, il a enchaîné les passages à l’hôpital. Le dernier jour, il a été transféré en soins palliatifs. Ce jour-là, il n’a presque rien dit. Dans ses dernières heures, il était presque parti de ce monde. Allongé sur le lit, sa respiration ralentissait, sa voix devenait de plus en plus faible. Finalement, il ne pouvait presque plus entendre, seul subsistait un « gémissement de fin de vie » — le résultat de son corps incapable de déglutir. Un corps incapable de déglutir ne pouvait plus manger ni boire, en quelque sorte, il avait abandonné la lutte.
Ma mère et moi nous sommes regardés, nous comprenions tous deux, mais nous n’avons pas dit la vérité évidente, ni posé de questions. Nous savions que le temps était compté. À ce moment-là, toute parole ou question n’aurait apporté aucune utilité ; poursuivre aurait seulement accru la chagrin.
J’ai eu plusieurs conversations privées avec lui. Je tenais sa main, essayant de lui dire adieu. Ma mère est revenue dans la pièce, et nous étions tous trois liés par la main. Finalement, une machine a émis un long son, annonçant qu’il avait franchi une frontière — invisible pour ceux dans la pièce. Le 26 décembre 2014, en fin d’après-midi, mon père est décédé.
Quelques jours plus tard, après onze années, le 30 décembre 2025, mon fils est né. J’ai vu de mes propres yeux la mort et la naissance. Ce que j’ai appris, c’est que ces deux événements ne sont pas un instant unique, mais un processus qui se déploie. La naissance est une série de réveils, la mort une série de sommeil. Mon fils a mis plusieurs années à « naître » vraiment, tandis que mon père a mis six mois à « partir » réellement. Certains doivent même mourir lentement sur plusieurs décennies.
À un moment de ma vie, je ne peux pas préciser quand, notre République américaine, telle que nous la connaissons, a commencé à décliner. Comme dans la plupart des morts naturelles, ses causes sont complexes et imbriquées. Aucun événement, crise, attaque, président, parti, loi, idée, individu, entreprise, technologie, erreur, trahison, échec, erreur d’appréciation ou adversaire étranger n’a seul provoqué ce début de déclin, même si tous ont joué un rôle. Je ne sais pas à quel stade nous en sommes, mais je sais que nous sommes dans la « salle de soins palliatifs ». Je le savais depuis longtemps, mais parfois, comme tout mourant, je me suis auto-illusionné. Je préfère ne pas en parler, car évoquer cela ne fait qu’accroître la douleur.
Cependant, si nous n’admettons pas que nous sommes assis à côté du lit de mort, je ne pourrais pas écrire avec la rigueur analytique que vous attendez aujourd’hui. Pour discuter honnêtement du développement de l’intelligence artificielle de pointe et de la construction d’un avenir, il faut reconnaître que la République est en train de mourir. Mais aucune machine ne sonnera le dernier long cri pour nous. Nous ne pouvons que regarder en silence.
Dans l’histoire des États-Unis, notre République a connu plusieurs « morts » puis « renaissances ». Elle a connu plus d’une « fondation » renouvelée. Peut-être sommes-nous à l’aube d’une nouvelle renaissance, ouvrant un nouveau chapitre de transformation continue du pays. J’espère que oui. Mais il est aussi possible que nous manquions de la vertu et de la sagesse nécessaires pour soutenir une nouvelle création, et que la réalité soit une transition lente vers une ère de « post-République ». Je ne prétends pas avoir la réponse.
Ce que je vais décrire, c’est une confrontation entre une entreprise d’intelligence artificielle et le gouvernement américain. Je ne veux pas exagérer. La « mort » que je vais évoquer dure depuis plus de la moitié de ma vie. L’événement dont je parle s’est produit la semaine dernière, et pourrait être résolu dans quelques jours.
Je ne dis pas que cet incident « a causé » la mort de la République, ni qu’il « a ouvert une nouvelle ère ». S’il a une signification, c’est simplement de rendre plus visible, pour moi, cette décadence en cours, plus difficile à nier. Je considère cet événement de la semaine dernière comme un « gémissement de fin de vie » de l’ancienne République, une voix émise par un corps qui a abandonné la lutte.
Voici ce que je sais : lors de l’administration Biden, une entreprise d’intelligence artificielle, Anthropic, a conclu un accord avec le Département de la Défense (désormais appelé « Département de la Guerre », ci-après DoW), permettant à son système d’IA, Claude, d’être utilisé dans des environnements classifiés. Cet accord a été étendu en juillet 2025 par l’administration Trump (pour la transparence : j’étais alors en fonction dans l’administration Trump, mais je n’ai pas participé à cette transaction). D’autres modèles linguistiques peuvent être utilisés dans des contextes non classifiés, mais jusqu’à récemment, seul Claude pouvait être utilisé pour des travaux sensibles, comme la collecte de renseignements ou des opérations en situation de combat.
L’accord initial, négocié par l’équipe Biden avec Anthropic, mérite d’être souligné : plusieurs des principaux concepteurs de la politique IA de Biden ont rejoint Anthropic immédiatement après leur mandat, avec deux restrictions d’utilisation. Premièrement, Claude ne doit pas être utilisé pour la surveillance de masse ciblant les Américains. Deuxièmement, il ne doit pas être utilisé pour contrôler des armes autonomes létales, capables de repérer, suivre et tuer sans intervention humaine. Lors de l’extension de l’accord, l’administration Trump a eu l’opportunité de revoir ces clauses, et les a finalement acceptées.
Les responsables Trump ont affirmé que leur changement d’avis n’était pas motivé par un désir de déployer massivement la surveillance ou des armes autonomes létales, mais par leur opposition à l’idée que des entreprises privées imposent des restrictions à l’utilisation de la technologie militaire. La volte-face du gouvernement a conduit à des mesures politiques visant à nuire, voire détruire, Anthropic — une société peut-être l’une des plus rapides en croissance dans l’histoire du capitalisme, et considérée comme un leader mondial dans le domaine de l’IA, alors que le gouvernement affirme que l’IA est cruciale pour l’avenir du pays. Mais nous en reparlerons plus tard.
L’argument avancé par le gouvernement Trump n’est pas dénué de fondement : limiter l’usage de la technologie militaire par des entreprises privées peut sembler discutable. Pourtant, en réalité, des milliers d’entreprises privées font exactement cela. Chaque transaction technologique entre le gouvernement et une entreprise privée se fait par contrat (d’où le terme « sous-traitant de la défense »), et ces contrats incluent souvent des restrictions opérationnelles (par exemple, « le système X ne doit pas être utilisé contre le pays Y », comme dans les clauses courantes de Starlink de Musk), des limitations technologiques (par exemple, « un certain avion ne peut être certifié que dans des conditions spécifiques »), et des restrictions sur la propriété intellectuelle (par exemple, « le sous-traitant détient et peut réutiliser la propriété intellectuelle liée »).
Dans certains aspects, les clauses d’Anthropic ressemblent à ces restrictions traditionnelles. Par exemple, la société n’est pas opposée aux armes autonomes létales en soi, mais estime que les systèmes d’IA de pointe actuels ne sont pas encore capables de décider de la vie ou de la mort humaine de façon autonome. Cela ressemble beaucoup à une « restriction de certification d’avion ».
Mais la différence essentielle est que, chez Anthropic, ces restrictions par contrat ressemblent davantage à des limitations politiques qu’à des limitations techniques. Par exemple, la différence entre « cet avion n’est pas certifié pour voler à une certaine altitude » et « tu ne peux pas voler à cette altitude » est importante. L’armée n’aurait peut-être pas dû accepter de telles clauses, et les entreprises privées aussi. Mais l’administration Biden les a acceptées, et l’administration Trump aussi, avant de revenir en arrière.
Cela montre que ces clauses ne sont pas forcément absurdes ou illégales. Aucune loi n’interdit qu’un contrat comporte des restrictions politiques plutôt que techniques. Ces clauses ne sont pas illégales, peut-être simplement peu judicieuses à posteriori. Même si vous êtes opposé à la surveillance de masse ou aux armes autonomes létales, vous pouvez penser que le contrat de défense n’est pas le meilleur moyen d’atteindre ces objectifs politiques. Dans le cadre des règles classiques de la République, la meilleure façon de faire adopter de nouvelles politiques est la législation.
Mais « légiférer » en Amérique d’aujourd’hui ressemble de plus en plus à une plaisanterie. Si vous souhaitez vraiment obtenir un résultat, la législation n’est plus la voie prioritaire. La gouvernance devient de plus en plus informelle, ad hoc, l’expansion du pouvoir administratif s’accélère, et les outils politiques et leurs objectifs deviennent de plus en plus déconnectés.
Les responsables Trump ont avancé deux préoccupations pour justifier leur changement d’avis : d’abord, Anthropic pourrait retirer ses services à un moment critique ; ensuite, en tant que sous-traitant, ses clauses pourraient contraindre d’autres sous-traitants militaires. Ajoutons à cela que le gouvernement considère Anthropic comme un adversaire politique (ce qui pourrait être justifié), et que l’armée a soudainement pris conscience de sa dépendance à une entreprise qu’elle ne fait pas confiance.
La réponse rationnelle aurait été d’annuler le contrat et d’en expliquer publiquement les raisons, tout en mettant en place des mécanismes de régulation pour éviter que cela ne se reproduise. Mais le Département de la Guerre a insisté pour que le contrat permette « toutes les utilisations légales », et a menacé de classer Anthropic comme « risque de chaîne d’approvisionnement ». Cette désignation concerne généralement des entreprises contrôlées par des adversaires étrangers, comme Huawei. Le ministre de la Guerre a même menacé d’interdire toute relation commerciale entre l’armée et Anthropic.
C’est presque une déclaration de « meurtre d’entreprise ». Même si cela ne tue pas physiquement, cela envoie un signal clair : faites affaire selon nos conditions, sinon votre entreprise sera détruite.
Cela touche au principe fondamental de la République américaine : la propriété privée. Si l’armée disait à Google « vendez vos données de recherche personnalisée mondiales, sinon vous serez considéré comme un risque », cela reviendrait au même principe. La propriété privée n’est qu’une ressource susceptible d’être expropriée sous prétexte de sécurité nationale.
Une telle démarche augmenterait le coût du capital pour tout le secteur de l’IA, affaiblirait la crédibilité internationale de l’IA américaine, et pourrait même compromettre la rentabilité de l’industrie elle-même.
Avec chaque changement de président, la politique américaine devient de plus en plus imprévisible, brutale et arbitraire. La disparition de l’ordre et de la liberté est difficile à prévoir.
Même si le ministre de la Guerre retire sa menace, le dommage est déjà fait. Le gouvernement a montré qu’il considère que refuser de se plier peut faire de vous un ennemi. Cela sape encore plus profondément la culture politique américaine.
Plus important encore, c’est la première fois qu’un débat public s’engage réellement sur la question « à qui doit revenir le contrôle de l’IA de pointe ». Nos institutions publiques montrent un désordre, une malveillance et un manque de clarté stratégique. L’échec des élites politiques n’est pas nouveau, mais il s’est accentué ces vingt dernières années : « comme avant, mais en pire. »
Peut-être que la prochaine étape de la reconstruction sera étroitement liée à l’IA avancée. Dans la construction future des institutions, ne confondez pas « contrôle démocratique » avec « contrôle gouvernemental ». La différence n’a jamais été aussi évidente qu’aujourd’hui.
Quoi qu’il advienne, nous devons garantir que la surveillance de masse et les armes autonomes ne rongent pas la liberté. Je salue les laboratoires d’IA qui tiennent bon face à ces risques. Dans les décennies à venir, notre liberté pourrait être plus fragile que ce que l’on imagine.
Chacun doit choisir le futur pour lequel il souhaite lutter ou défendre. Lors de ce choix, ignorez le vacarme de ce « gémissement de fin de vie » et gardez votre esprit critique. Vous entrez dans une nouvelle ère de construction institutionnelle.
Mais avant cela, prenez un moment pour pleurer cette ancienne République.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Interprétation du conflit entre Anthropic et le ministère de la Défense, que veut faire Trump ?
Titre original : Clawed
Auteur original : Dean W. Ball
Traduction : Peggy, BlockBeats
Auteur original :律动BlockBeats
Source originale :
Reproduit : Mars Finance
Préface :
Lorsque l’expérience de la vie et de la mort d’un individu s’entrelacent avec la métaphore du déclin et de la renaissance d’un système national, la narration politique ne se limite plus à une discussion abstraite sur les institutions, mais devient une reconnaissance émotionnelle profonde. Cet article, en prenant comme point de départ le décès de mon père et la naissance de mon enfant, étend la compréhension personnelle selon laquelle « la mort est un processus » à une réflexion sur l’état actuel du système républicain américain. Selon l’auteur, le conflit actuel entre les entreprises d’intelligence artificielle et le gouvernement n’est pas un incident isolé, mais un reflet d’un affaiblissement prolongé du système et d’un déséquilibre des structures de pouvoir.
L’article se concentre sur la controverse entre Anthropic et le système de défense américain, abordant des sujets allant des clauses contractuelles, des limites politiques, jusqu’à la menace du « risque de chaîne d’approvisionnement ». Il ne s’agit plus seulement d’un jeu de pouvoir entre une entreprise et un gouvernement, mais d’une question plus fondamentale : dans l’ère de l’intelligence artificielle de pointe, à qui doit revenir le contrôle ? À une entreprise privée, au pouvoir administratif, ou à un mécanisme public encore immature ? Lorsque la sécurité nationale devient une justification pour l’expansion du pouvoir, et que les politiques dépendent de plus en plus d’arrangements temporaires et coercitifs, la cohérence et la prévisibilité du régime républicain s’affaiblissent-elles ?
Les avancées technologiques et les changements institutionnels peuvent se produire simultanément, et leur intersection influence souvent le cours d’une époque. L’auteur remet en question les actions du gouvernement tout en conservant l’espoir d’une reconstruction future du système, tout en rappelant aux lecteurs que « contrôle démocratique » ne doit pas être simplement confondu avec « contrôle gouvernemental ». Dans un contexte où l’intelligence artificielle évolue rapidement et où les modes de gouvernance se transforment continuellement, cette controverse pourrait n’être que le début. La recherche d’un nouvel équilibre entre sécurité, efficacité et liberté deviendra une problématique majeure à long terme.
Voici le texte original :
Il y a plus de dix ans, je me suis assis à côté de mon père, regardant sa mort approcher. Six mois auparavant, il était encore une personne pleine d’énergie, plus robuste que moi aujourd’hui, pédalant plus vite et avec plus de résilience que la plupart des jeunes de vingt ans. Puis un jour, il a subi une opération du cœur, et à partir de ce moment, il n’a plus été le même. Son âme semblait avoir été arrachée, la lumière dans ses yeux s’était éteinte. Parfois, il retrouvait un peu de vivacité, comme si le père familier revenait brièvement dans son corps qui se déclinait, mais ces moments devenaient de plus en plus rares. Sa pensée devenait intermittente, sa voix s’affaiblissait.
Pendant ces six mois, il a enchaîné les passages à l’hôpital. Le dernier jour, il a été transféré en soins palliatifs. Ce jour-là, il n’a presque rien dit. Dans ses dernières heures, il était presque parti de ce monde. Allongé sur le lit, sa respiration ralentissait, sa voix devenait de plus en plus faible. Finalement, il ne pouvait presque plus entendre, seul subsistait un « gémissement de fin de vie » — le résultat de son corps incapable de déglutir. Un corps incapable de déglutir ne pouvait plus manger ni boire, en quelque sorte, il avait abandonné la lutte.
Ma mère et moi nous sommes regardés, nous comprenions tous deux, mais nous n’avons pas dit la vérité évidente, ni posé de questions. Nous savions que le temps était compté. À ce moment-là, toute parole ou question n’aurait apporté aucune utilité ; poursuivre aurait seulement accru la chagrin.
J’ai eu plusieurs conversations privées avec lui. Je tenais sa main, essayant de lui dire adieu. Ma mère est revenue dans la pièce, et nous étions tous trois liés par la main. Finalement, une machine a émis un long son, annonçant qu’il avait franchi une frontière — invisible pour ceux dans la pièce. Le 26 décembre 2014, en fin d’après-midi, mon père est décédé.
Quelques jours plus tard, après onze années, le 30 décembre 2025, mon fils est né. J’ai vu de mes propres yeux la mort et la naissance. Ce que j’ai appris, c’est que ces deux événements ne sont pas un instant unique, mais un processus qui se déploie. La naissance est une série de réveils, la mort une série de sommeil. Mon fils a mis plusieurs années à « naître » vraiment, tandis que mon père a mis six mois à « partir » réellement. Certains doivent même mourir lentement sur plusieurs décennies.
À un moment de ma vie, je ne peux pas préciser quand, notre République américaine, telle que nous la connaissons, a commencé à décliner. Comme dans la plupart des morts naturelles, ses causes sont complexes et imbriquées. Aucun événement, crise, attaque, président, parti, loi, idée, individu, entreprise, technologie, erreur, trahison, échec, erreur d’appréciation ou adversaire étranger n’a seul provoqué ce début de déclin, même si tous ont joué un rôle. Je ne sais pas à quel stade nous en sommes, mais je sais que nous sommes dans la « salle de soins palliatifs ». Je le savais depuis longtemps, mais parfois, comme tout mourant, je me suis auto-illusionné. Je préfère ne pas en parler, car évoquer cela ne fait qu’accroître la douleur.
Cependant, si nous n’admettons pas que nous sommes assis à côté du lit de mort, je ne pourrais pas écrire avec la rigueur analytique que vous attendez aujourd’hui. Pour discuter honnêtement du développement de l’intelligence artificielle de pointe et de la construction d’un avenir, il faut reconnaître que la République est en train de mourir. Mais aucune machine ne sonnera le dernier long cri pour nous. Nous ne pouvons que regarder en silence.
Dans l’histoire des États-Unis, notre République a connu plusieurs « morts » puis « renaissances ». Elle a connu plus d’une « fondation » renouvelée. Peut-être sommes-nous à l’aube d’une nouvelle renaissance, ouvrant un nouveau chapitre de transformation continue du pays. J’espère que oui. Mais il est aussi possible que nous manquions de la vertu et de la sagesse nécessaires pour soutenir une nouvelle création, et que la réalité soit une transition lente vers une ère de « post-République ». Je ne prétends pas avoir la réponse.
Ce que je vais décrire, c’est une confrontation entre une entreprise d’intelligence artificielle et le gouvernement américain. Je ne veux pas exagérer. La « mort » que je vais évoquer dure depuis plus de la moitié de ma vie. L’événement dont je parle s’est produit la semaine dernière, et pourrait être résolu dans quelques jours.
Je ne dis pas que cet incident « a causé » la mort de la République, ni qu’il « a ouvert une nouvelle ère ». S’il a une signification, c’est simplement de rendre plus visible, pour moi, cette décadence en cours, plus difficile à nier. Je considère cet événement de la semaine dernière comme un « gémissement de fin de vie » de l’ancienne République, une voix émise par un corps qui a abandonné la lutte.
Voici ce que je sais : lors de l’administration Biden, une entreprise d’intelligence artificielle, Anthropic, a conclu un accord avec le Département de la Défense (désormais appelé « Département de la Guerre », ci-après DoW), permettant à son système d’IA, Claude, d’être utilisé dans des environnements classifiés. Cet accord a été étendu en juillet 2025 par l’administration Trump (pour la transparence : j’étais alors en fonction dans l’administration Trump, mais je n’ai pas participé à cette transaction). D’autres modèles linguistiques peuvent être utilisés dans des contextes non classifiés, mais jusqu’à récemment, seul Claude pouvait être utilisé pour des travaux sensibles, comme la collecte de renseignements ou des opérations en situation de combat.
L’accord initial, négocié par l’équipe Biden avec Anthropic, mérite d’être souligné : plusieurs des principaux concepteurs de la politique IA de Biden ont rejoint Anthropic immédiatement après leur mandat, avec deux restrictions d’utilisation. Premièrement, Claude ne doit pas être utilisé pour la surveillance de masse ciblant les Américains. Deuxièmement, il ne doit pas être utilisé pour contrôler des armes autonomes létales, capables de repérer, suivre et tuer sans intervention humaine. Lors de l’extension de l’accord, l’administration Trump a eu l’opportunité de revoir ces clauses, et les a finalement acceptées.
Les responsables Trump ont affirmé que leur changement d’avis n’était pas motivé par un désir de déployer massivement la surveillance ou des armes autonomes létales, mais par leur opposition à l’idée que des entreprises privées imposent des restrictions à l’utilisation de la technologie militaire. La volte-face du gouvernement a conduit à des mesures politiques visant à nuire, voire détruire, Anthropic — une société peut-être l’une des plus rapides en croissance dans l’histoire du capitalisme, et considérée comme un leader mondial dans le domaine de l’IA, alors que le gouvernement affirme que l’IA est cruciale pour l’avenir du pays. Mais nous en reparlerons plus tard.
L’argument avancé par le gouvernement Trump n’est pas dénué de fondement : limiter l’usage de la technologie militaire par des entreprises privées peut sembler discutable. Pourtant, en réalité, des milliers d’entreprises privées font exactement cela. Chaque transaction technologique entre le gouvernement et une entreprise privée se fait par contrat (d’où le terme « sous-traitant de la défense »), et ces contrats incluent souvent des restrictions opérationnelles (par exemple, « le système X ne doit pas être utilisé contre le pays Y », comme dans les clauses courantes de Starlink de Musk), des limitations technologiques (par exemple, « un certain avion ne peut être certifié que dans des conditions spécifiques »), et des restrictions sur la propriété intellectuelle (par exemple, « le sous-traitant détient et peut réutiliser la propriété intellectuelle liée »).
Dans certains aspects, les clauses d’Anthropic ressemblent à ces restrictions traditionnelles. Par exemple, la société n’est pas opposée aux armes autonomes létales en soi, mais estime que les systèmes d’IA de pointe actuels ne sont pas encore capables de décider de la vie ou de la mort humaine de façon autonome. Cela ressemble beaucoup à une « restriction de certification d’avion ».
Mais la différence essentielle est que, chez Anthropic, ces restrictions par contrat ressemblent davantage à des limitations politiques qu’à des limitations techniques. Par exemple, la différence entre « cet avion n’est pas certifié pour voler à une certaine altitude » et « tu ne peux pas voler à cette altitude » est importante. L’armée n’aurait peut-être pas dû accepter de telles clauses, et les entreprises privées aussi. Mais l’administration Biden les a acceptées, et l’administration Trump aussi, avant de revenir en arrière.
Cela montre que ces clauses ne sont pas forcément absurdes ou illégales. Aucune loi n’interdit qu’un contrat comporte des restrictions politiques plutôt que techniques. Ces clauses ne sont pas illégales, peut-être simplement peu judicieuses à posteriori. Même si vous êtes opposé à la surveillance de masse ou aux armes autonomes létales, vous pouvez penser que le contrat de défense n’est pas le meilleur moyen d’atteindre ces objectifs politiques. Dans le cadre des règles classiques de la République, la meilleure façon de faire adopter de nouvelles politiques est la législation.
Mais « légiférer » en Amérique d’aujourd’hui ressemble de plus en plus à une plaisanterie. Si vous souhaitez vraiment obtenir un résultat, la législation n’est plus la voie prioritaire. La gouvernance devient de plus en plus informelle, ad hoc, l’expansion du pouvoir administratif s’accélère, et les outils politiques et leurs objectifs deviennent de plus en plus déconnectés.
Les responsables Trump ont avancé deux préoccupations pour justifier leur changement d’avis : d’abord, Anthropic pourrait retirer ses services à un moment critique ; ensuite, en tant que sous-traitant, ses clauses pourraient contraindre d’autres sous-traitants militaires. Ajoutons à cela que le gouvernement considère Anthropic comme un adversaire politique (ce qui pourrait être justifié), et que l’armée a soudainement pris conscience de sa dépendance à une entreprise qu’elle ne fait pas confiance.
La réponse rationnelle aurait été d’annuler le contrat et d’en expliquer publiquement les raisons, tout en mettant en place des mécanismes de régulation pour éviter que cela ne se reproduise. Mais le Département de la Guerre a insisté pour que le contrat permette « toutes les utilisations légales », et a menacé de classer Anthropic comme « risque de chaîne d’approvisionnement ». Cette désignation concerne généralement des entreprises contrôlées par des adversaires étrangers, comme Huawei. Le ministre de la Guerre a même menacé d’interdire toute relation commerciale entre l’armée et Anthropic.
C’est presque une déclaration de « meurtre d’entreprise ». Même si cela ne tue pas physiquement, cela envoie un signal clair : faites affaire selon nos conditions, sinon votre entreprise sera détruite.
Cela touche au principe fondamental de la République américaine : la propriété privée. Si l’armée disait à Google « vendez vos données de recherche personnalisée mondiales, sinon vous serez considéré comme un risque », cela reviendrait au même principe. La propriété privée n’est qu’une ressource susceptible d’être expropriée sous prétexte de sécurité nationale.
Une telle démarche augmenterait le coût du capital pour tout le secteur de l’IA, affaiblirait la crédibilité internationale de l’IA américaine, et pourrait même compromettre la rentabilité de l’industrie elle-même.
Avec chaque changement de président, la politique américaine devient de plus en plus imprévisible, brutale et arbitraire. La disparition de l’ordre et de la liberté est difficile à prévoir.
Même si le ministre de la Guerre retire sa menace, le dommage est déjà fait. Le gouvernement a montré qu’il considère que refuser de se plier peut faire de vous un ennemi. Cela sape encore plus profondément la culture politique américaine.
Plus important encore, c’est la première fois qu’un débat public s’engage réellement sur la question « à qui doit revenir le contrôle de l’IA de pointe ». Nos institutions publiques montrent un désordre, une malveillance et un manque de clarté stratégique. L’échec des élites politiques n’est pas nouveau, mais il s’est accentué ces vingt dernières années : « comme avant, mais en pire. »
Peut-être que la prochaine étape de la reconstruction sera étroitement liée à l’IA avancée. Dans la construction future des institutions, ne confondez pas « contrôle démocratique » avec « contrôle gouvernemental ». La différence n’a jamais été aussi évidente qu’aujourd’hui.
Quoi qu’il advienne, nous devons garantir que la surveillance de masse et les armes autonomes ne rongent pas la liberté. Je salue les laboratoires d’IA qui tiennent bon face à ces risques. Dans les décennies à venir, notre liberté pourrait être plus fragile que ce que l’on imagine.
Chacun doit choisir le futur pour lequel il souhaite lutter ou défendre. Lors de ce choix, ignorez le vacarme de ce « gémissement de fin de vie » et gardez votre esprit critique. Vous entrez dans une nouvelle ère de construction institutionnelle.
Mais avant cela, prenez un moment pour pleurer cette ancienne République.