[]

Întrebarea care a generat conflictul

Discuțiile tensionate dintre cele două părți au escaladat recent, după o dezbatere privind utilizarea sistemului de inteligență artificială Claude dezvoltat de Anthropic într-un scenariu ipotetic de atac nuclear asupra Statelor Unite, potrivit unui articol publicat de The Washington Post.

Un oficial al Apărării a dezvăluit că, în cadrul unei întâlniri desfășurate în ianuarie 2026, directorul tehnologic al Pentagonului a ridicat o întrebare critică: dacă un proiectil balistic intercontinental ar fi lansat asupra SUA, ar putea armata să folosească sistemul de inteligență artificială Claude pentru a-l neutraliza?

Răspunsul oferit de directorul executiv al Anthropic, Dario Amodei, a nemulțumit Pentagonul, oficialul citând răspunsul acestuia: „Ne-ați putea suna și am rezolva problema”. Un purtător de cuvânt al Anthropic a negat această afirmație, susținând că este „complet falsă”. Conform companiei, aceasta este de acord ca sistemul Claude să fie utilizat pentru apărarea antirachetă, dar nu în scopuri ce implică arme autonome letale sau supraveghere în masă.

Ultimatum din partea Pentagonului

Situația a atins un punct critic în urma unei întâlniri directe între Dario Amodei și secretarul Apărării, Pete Hegseth, marți, 24 februarie 2026, potrivit informațiilor The Washington Post. Pentagonul a dat companiei termen până vineri, 27 februarie, ora 17.01, pentru a renunța la obiecțiile sale față de utilizarea Claude în scopuri militare, inclusiv pentru arme autonome și supraveghere internă.

În caz contrar, oficialii au avertizat că ar putea recurge la autoritatea guvernamentală pentru a obliga Anthropic să predea tehnologia, interzicându-i în același timp orice colaborare viitoare cu Departamentul Apărării.

Sean Parnell, purtătorul de cuvânt al Pentagonului, a declarat într-o postare pe platforma X că instituția nu intenționează să desfășoare supraveghere în masă sau să implementeze arme autonome, ci urmărește utilizarea IA „în scopuri legale”.

„Este o cerere de bun-simț care va preveni ca Anthropic să pună în pericol operațiunile militare critice și să pericliteze siguranța soldaților noștri”, a adăugat acesta. În replică, Amodei a afirmat într-un comunicat emis joi seara că Anthropic nu va modifica poziția sa.

„Sistemele actuale de inteligență artificială nu sunt suficient de fiabile pentru a alimenta armamentul robotic fără a pune în pericol atât trupele, cât și civilii”, a declarat acesta, subliniind că legislația privind supravegherea internă nu ține cont de capacitățile extinse ale instrumentelor de monitorizare bazate pe IA.

Tensiuni politice și economice

Conflictul dintre Anthropic și administrația Trump reflectă o tensiune mai largă între sectorul tehnologic și guvernul federal. Fondată în 2021 de foști angajați ai OpenAI, Anthropic a încercat să echilibreze colaborarea cu Pentagonul și să promoveze politici de siguranță în domeniul IA. Totuși, compania a intrat în conflict cu Casa Albă în mai multe rânduri, inclusiv criticând exporturile de cipuri americane de IA către China, pe care Amodei le-a comparat cu „vânzarea de arme nucleare către Coreea de Nord”.

În încercarea de a-și îmbunătăți relațiile cu administrația Trump, Anthropic a investit masiv în lobby la Washington, angajând foști oficiali de rang înalt și explorând investiții din partea unui fond susținut de Donald Trump Jr. Totuși, aceste eforturi nu au reușit să evite tensiunile actuale, care par să aibă și o importantă componentă politică.

„Administrația și republicanii caută modalități de a scăpa de Anthropic odată pentru totdeauna”, a declarat o sursă familiarizată cu situația, sub protecția anonimatului.

Experții avertizează că această confruntare ar putea avea implicații semnificative pentru viitorul colaborării dintre industria IA și armata SUA. Dacă Pentagonul decide să impună măsuri coercitive asupra Anthropic, acest lucru ar putea descuraja alte companii să colaboreze cu Guvernul, de teamă că inovațiile lor ar putea fi confiscate.

„Aceasta ar fi o adevărată opțiune nucleară, care, pe bună dreptate, ar trebui să îngrijoreze companiile”, a declarat Katie Sweeten, fost consilier al Departamentului de Justiție pentru Pentagon. Deși SUA și alte state, precum Franța, Regatul Unit și China, au declarat anterior că deciziile de a lansa arme nucleare vor implica întotdeauna o intervenție umană, utilizarea IA pentru identificarea țintelor și accelerarea răspunsului rămâne o zonă ambiguă.

Potrivit lui Paul Dean, vicepreședinte al programului global pentru dezarmare nucleară din cadrul organizației Nuclear Threat Initiative, „întrebarea este în ce măsură IA va influența deciziile umane”.

Deși viitorul utilizării IA în război este încă incert, conflictul dintre Pentagon și Anthropic subliniază lipsa de încredere reciprocă. „Pentagonul nu crede că Anthropic va fi un furnizor de încredere, iar Anthropic se teme de o utilizare abuzivă a tehnologiei sale”, a concluzionat Michael C. Horowitz, director la Universitatea din Pennsylvania și fost responsabil de politica privind armele cu IA în administrația Biden.

Abonați-vă la ȘTIRILE ZILEI pentru a fi la curent cu cele mai noi informații.
ABONEAZĂ-TE ȘTIRILE ZILEI
Comentează
Google News Urmărește-ne pe Google News Abonați-vă la canalul Libertatea de WhatsApp pentru a fi la curent cu ultimele informații
Comentează

Loghează-te în contul tău pentru a adăuga comentarii și a te alătura dialogului.