2026. február 26-án az Anthropic — a Claude fejlesztője — szembe találta magát egy döntéssel, amelyre a legtöbb technológiai cég szinte soha nem kényszerül rá: nemet mondott 200 millió dollárra. Néhány nappal később az amerikai szövetségi kormányzatból is kitiltották őket. Majd néhány órával ezután az OpenAI megkapta ugyanazt a szerződést — azzal a különbséggel, hogy az OpenAI ugyanazokat a feltételeket elfogadta, amelyeket az Anthropic kért.
Ez a hét talán az AI-ipar eddigi legfurcsább és legellentmondásosabb eseménysora. Az alábbiakban pontról pontra bemutatjuk, mi történt, mit gondolnak róla a különböző oldalak, és miért fontos mindez akkor is, ha soha nem gondolkoztál Pentagon-szerződésekben.
1. Mi történt? — Kronológia
A helyzet hátterében egy 200 millió dolláros tárgyalás állt: a Pentagon meg akarta vásárolni az Anthropic Claude modelljét katonai és kormányzati felhasználásra. A részletek — amelyeket a Washington Post, az NPR, a CNN és az Axios egymástól független forrásokra hivatkozva hoztak nyilvánosságra — szerint az alku két konkrét felhasználási területen akadt el.
A Pentagon azt kérte, hogy a Claude-ot «all lawful purposes» (minden törvényes célra) felhasználhassák. Az Anthropic ezzel szemben két területet explicit módon ki akart zárni a szerződésből:
- Tömeges hazai megfigyelés (mass surveillance) — az amerikai állampolgárok tömeges, szisztematikus megfigyelése AI-segítséggel
- Autonóm fegyverrendszerek vezérlése — önállóan döntő, emberi felügyelet nélküli harci rendszerek irányítása
A tárgyalások hetekig tartottak. Február 26-án a Pentagon határidőt szabott: másnap 17:01-ig kellett volna az Anthropicnak elfogadnia az eredeti feltételeket. Az Anthropic nem fogadta el.
Február 27-én Donald Trump elnök elrendelte az Anthropic teljes kitiltását a szövetségi rendszerekből, azzal, hogy 6 hónapos átmeneti időszak alatt minden kormányzati szervnek be kell szüntetnie az Anthropic eszközeinek használatát. Pete Hegseth védelmi miniszter «supply-chain risk to national security» — azaz ellátási lánc kockázat a nemzetbiztonságra — minősítést adott az Anthropicnak, ami egy olyan kategória, amelyet jellemzően külföldi ellenfelekre — például kínai vagy orosz technológiai cégekre — alkalmaznak.
Az Anthropic bejelentette, hogy bíróság előtt megtámadja a döntést.
2. Miért mondott nemet az Anthropic? — Dario Amodei érvei
Dario Amodei vezérigazgató az ügy kapcsán adott több interjúban (CBS News, Axios) részletesen kifejtette az Anthropic álláspontját. Két fő érvet fogalmazott meg:
Az AI nem elég megbízható autonóm fegyverekhez
Az első érv technikai természetű. Amodei szerint a jelenlegi AI modellek — beleértve a Claude-ot is — nem rendelkeznek azzal a megbízhatósági szinttel, amely autonóm harci döntésekhez szükséges. Egy olyan rendszer, amely önállóan dönt célpontokról, csapásokról, vagy katonai műveletek lefolytatásáról, élet-halál következményekkel jár — és a mai modellek hibaszázaléka nem tolerálható ilyen alkalmazásban. Ez nem egy PR-közlemény, hanem az AI-biztonsági kutatás egyik legismertebb konszenzusa.
„Nem tudjuk jó lelkiismerettel elfogadni a kérésüket. A modellek még nem elég megbízhatóak ahhoz, hogy autonóm életbevágó döntéseket hozzanak emberi felügyelet nélkül.” — Dario Amodei, CBS News
A tömeges hazai megfigyelés alapjogi sérelem
A második érv elvi. Az Anthropic szerint az amerikai állampolgárok tömeges, szisztematikus AI-alapú megfigyelése — alapos gyanú és bírói jóváhagyás nélkül — sérti az alkotmányos alapjogokat. Amodei kiemelte, hogy az ilyen rendszereknek a demokratikus felügyeleti mechanizmusokon kívül kellene működniük, ami nem olyasmi, amivel az Anthropic asszociálni akar.
Az Anthropic nem utasított vissza mindenféle katonai együttműködést. A cég elérhető lett volna elemzési, logisztikai, orvosi, vagy parancsnoki döntéstámogatási feladatokra — ahol az emberi döntéshozó megmarad a folyamatban. Az, amibe belemenni nem volt hajlandó, az emberi felügyelet nélküli fegyver-vezérlés és a tömeges belső megfigyelés.
3. A Pentagon és Trump válasza
A kormányzati oldal érvei szintén értehetők, ha értelmezzük őket. A Pentagon szempontjából egy 200 millió dolláros szerződésnél az a szokásos helyzet, hogy a vállalkozó alkalmazkodik a megrendelő igényeihez — nem fordítva. A «all lawful purposes» kérés logikája az volt, hogy a jövőbeli felhasználási módokat nem akarta korlátoztatni egy AI-cég etikai iránymutatásaival.
A «supply-chain risk to national security» minősítés politikailag erős lépés volt: ezzel a Pentagon azt üzente, hogy egy olyan AI-cég, amely feltételeket szabhat a katonai felhasználásra, potenciális kockázatot jelent — függetlenül attól, hogy az a cég amerikai alapítású és az USA-ban adózik. A minősítés használata egy hazai cégre szokatlan, és az Anthropic jogi képviselői szerint precedens nélküli.
A Trump-adminisztráció számára a lépés politikai üzenetértékű is volt: a szilícium-völgyi AI-cégek nem diktálhatják, hogyan viselkedjen az amerikai hadsereg.
Iratkozz fel hírlevelünkre — heti összefoglaló a legfontosabb AI fejleményekről, magyarul, reklámmentesen.
Feliratkozás →4. Az irónia: az OpenAI ugyanazt a szerződést kapta — ugyanazokkal a feltételekkel
Ez a fejezet az egész sztori legfontosabb és legkevésbé hangsúlyozott eleme.
Az Anthropic kitiltásának bejelentésétől számított néhány órán belül a Pentagon bejelentette, hogy ugyanezt a 200 millió dolláros szerződést az OpenAI-nak ítéli oda. Sok megfigyelő azt várta, hogy az OpenAI egyszerűen elfogadja az összes eredeti feltételt, amit az Anthropic visszautasított — és ezzel bizonyítja, hogy az Anthropic álláspontja üzletileg életképtelen volt.
Ehelyett az történt, amit a CNBC és a Bloomberg is megerősített: az OpenAI-jal kötött szerződésbe bekerültek pontosan azok a korlátozások, amelyeket az Anthropic kért. Nincs tömeges megfigyelés. Nincs autonóm fegyver-vezérlési felhasználás. A felhasználás hatóköre körülhatárolt, emberfelügyeletű alkalmazásokra korlátozódik.
Hogy ez pontosan mit jelent, az a következő kérdések valamelyikét veti fel:
- A Pentagon valójában soha nem akarta a tömeges megfigyelést és az autonóm fegyvereket — csak tesztelni akarta, meddig megy el az Anthropic?
- Az OpenAI tárgyalási pozíciója erősebb volt, és ki tudta harcolni ugyanezeket a feltételeket?
- A politikai döntés (Anthropic kitiltása) és a tényleges katonai igény (körülhatárolt, felügyelt AI) két különböző logika szerint működött?
Ezekre a kérdésekre egyelőre nincs nyilvánosan megerősített válasz. Ami biztos: az Anthropic elveszítette a szerződést — de a feltételrendszer, amelyért harcolt, végül az OpenAI szerződésébe bekerült.
5. Mit jelent ez a gyakorlatban? — Precedens és következmények
Ez az eseménysor több területen is precedenst teremthet — vagy legalábbis jól mutatja azokat a törésvonalakat, amelyek az AI-ipar és a kormányzat közötti együttműködésben zajlanak.
AI-cégek vs. kormányzati megrendelők: ki diktál?
Az üzleti világ hagyományos logikája szerint a megrendelő határozza meg az igényeket, és a vállalkozó teljesíti azokat. Az AI-ipar sajátossága, hogy a termék — maga a modell — nem értéksemleges: a fejlesztő beleültette a saját biztonsági korlátait, és nem feltétlenül tudja (vagy akarja) ezeket kikapcsolni egy szerződés kedvéért.
Ez azt jelenti, hogy az AI-cégeknek van egyfajta alkupozíciójuk, amelyet más iparágak vállalkozói nem rendelkeznek — de ez az alkupozíció politikai kockázattal jár, ahogy az Anthropic esete mutatja.
A «supply-chain risk» minősítés precedense
Ha egy hazai AI-céget el lehet tiltani a szövetségi piacokról azzal az indokkal, hogy «ellátási lánc kockázat a nemzetbiztonságra», akkor ez az eszköz potenciálisan bármely cégre alkalmazható, amely nem ért egyet a kormányzati felhasználási igényekkel. Ez szabályozási és üzleti jogi szempontból is figyelemre méltó fejlemény — az Anthropic pert ígért, és a bírósági döntés komolyan érintheti ezt a logikát.
A katonai AI-piac alakulása
Az esemény rámutat arra, hogy a katonai AI-piac — amelyet a Palantir, Anduril, Scale AI és mások uralnak egyre inkább — megköveteli, hogy az AI-cégek pontosan meghatározzák az etikai határaikat. Az, amit az Anthropic visszautasított (tömeges megfigyelés, autonóm fegyver), ma nem kötelező vállalás, de az iparági normák alakulóban vannak — és az OpenAI-jal kötött szerződés részletei valószínűleg befolyásolni fogják ezeket.
6. Vélemények mindkét oldalról — objektíven
Ez a fejezet szándékosan mindkét nézőpontot bemutatja, kommentár nélkül.
Az Anthropic melletti érvek
- Az AI-biztonság valódi kérdés: A mai modellek valóban nem elég megbízhatóak autonóm, visszavonhatatlan következményű döntésekhez. Ez nem vélemény, hanem az AI-kutatás jelenlegi konszenzusa.
- A tömeges megfigyelés demokratikus aggály: Az alkotmányos jogok védelme nem csupán marketing — az AI-alapú tömegmegfigyelés kockázatait Európa és az USA szabályozói is komolyan veszik.
- Az eredmény igazolja a döntést: Az OpenAI-jal kötött szerződés végül tartalmazta az Anthropic által kért korlátozásokat. Ha ez igaz, az Anthropic a saját kitiltásának árán is érdemi változást ért el az iparági normákban.
- A jogi út legitim: Ha a kitiltás valóban egy szokatlan minősítési kategória alkalmazásával történt, a bírósági felülvizsgálat indokolt.
A kormányzati/Pentagon oldal melletti érvek
- Nemzeti biztonsági igények reálisak: A katonai döntéstámogatás, a hírszerzési elemzés és a logisztikai optimalizálás legitim felhasználási területek, amelyek nem szükségszerűen érintik az autonóm fegyvereket.
- Egy kereskedelmi cég nem diktálhatja a katonai doktrínát: Az, hogy egy szilícium-völgyi startup etikai iránymutatásokat ír elő az USA hadseregének, sok szempontból fordított hatalmi viszony.
- Az «all lawful purposes» valóban törvényes: A Pentagon jogszerű műveletek elvégzésére kérte az eszközt — és az, hogy mit tekint törvényesnek, jogilag az USA törvényei alapján dől el, nem egy magáncég etikai keretrendszere alapján.
- Az ellátási lánc megbízhatósága valódi kérdés: Egy stratégiai fontosságú AI-rendszernél annak tudása, hogy a fejlesztő bizonyos feltételek esetén megtagadja az együttműködést, valóban kockázatot jelent a felhasználó számára.
7. Mit jelent ez neked? — Ha Claude-ot használsz, ha AI-eszközöket választasz
Ha az aibrandepites.hu olvasói közül valaki Claude-ot használ — akár chatként, akár API-n keresztül — ez az esemény nem befolyásolja a szolgáltatás elérhetőségét. A kitiltás a szövetségi kormányzati rendszerekre vonatkozik; a Claude.ai és az Anthropic API változatlanul elérhető marad.
De van néhány dolog, amire érdemes figyelni:
A biztonságos AI-fejlesztés kérdése valódi üzleti szempont lesz
Az Anthropic esetét — függetlenül attól, hogy ki «nyert» politikailag — az AI-ipar nagy figyelemmel kíséri. Az, hogy egy vállalat meghatározza, mire nem hajlandó, egyre inkább bekerül a vállalati kockázatkezelési gondolkodásba. Ha AI-eszközöket választasz üzleti vagy szervezeti célra, az, hogy a fejlesztő milyen etikai határokat tartalmaz a terméken belül, nem csupán erkölcsi, hanem jogi és reputációs kockázatkezelési kérdés is.
Az AI-cégek és kormányzatok viszonya változóban van
Az AI-szabályozás — az EU AI Act, az USA elnöki rendeletei, és most ez az eset — azt mutatja, hogy a korszak, amelyben az AI-cégek nagyrészt szabályozási vákuumban működhettek, lezárul. Az AI-fejlesztők egyre inkább azzal szembesülnek, hogy a termékeikkel kapcsolatos döntéseik politikai és jogi következményekkel járnak.
A Claude és az Anthropic stabilitása
Az Anthropic üzleti helyzete — amely 200 millió dolláros szerződéstől esett el — felvethet aggályokat a cég pénzügyi stabilitásával kapcsolatban. Érdemes tudni: az Anthropic az elmúlt két évben több mint 7 milliárd dolláros befektetést kapott (Google, Amazon és más befektetőktől), és az egyetlen szövetségi szerződés elvesztése önmagában nem fenyegeti a működést. A bírósági eljárás kimenetele azonban hosszabb távon befolyásolhatja a cég pozícióját a kormányzati piacon.
Összefoglaló
Az Anthropic — Pentagon — Trump história a 2026-os AI-ipar egyik legsűrűbb eseménysorát hozta: öt nap alatt egy 200 milliós tárgyalás összeomlott, egy kitiltás megtörtént, és egy jogi csata kezdődött. Az irónia az, hogy az OpenAI — amely átvette a szerződést — végül azokat a feltételeket fogadtatta el a Pentagonnal, amelyekért az Anthropic kitiltást kapott.
Ez a história nem csak geopolitika. Megmutatja, hogy az AI-fejlesztők etikai döntéseinek komoly üzleti, jogi és politikai következményei vannak; hogy a katonai AI-piac szabályait most írják; és hogy az AI-biztonsági elvek — legyenek bármilyen absztraktan hangzóak — konkrét, kézzel fogható tárgyalási pontokká válhatnak.
Az Anthropic pert ígért. A bírósági döntés — ha megszületik — az egész AI-ipar számára precedenst teremthet abban, hogy egy magáncég milyen feltételeket szabhat a saját termékének használatára, és hogy a kormányzat milyen eszközökkel reagálhat erre.
Forrásaink:
- Washington Post: «How Anthropic and the Pentagon got into a fight over AI weapons»
- NPR: «Trump bans Anthropic from government systems»
- CNN: «Anthropic rejects latest Pentagon offer»
- CNBC: «Anthropic faces lose-lose scenario»
- CBS News: «Anthropic CEO says he’s sticking to AI red lines»
- Axios: «Anthropic says Pentagon’s final offer is unacceptable»
- Bloomberg, Fortune, NBC News, Fox News — kiegészítő riportok


