Kai Microsoft gina Anthropic nuo Pentagono: dirbtinio intelekto karas, kurio niekas nelaimės
Data: 2026 m. kovo 12 d.
Microsoft įsijungė į vieną labiausiai neįprastų technologinių kovų pastarojo dešimtmečio laikotarpiu. Antradienį technologijų gigantas pateikė teismo dokumentą, remiančią Anthropic – dirbtinio intelekto kompaniją, kurią JAV Gynybos departamentas neseniai paskelbė "tiekimo grandinės grėsme nacionaliniam saugumui". Taip, teisingai skaitote: amerikiečių kompanija, kurios AI modeliai Claude buvo naudojami JAV karinėse operacijose, dabar oficialiai toje pačioje kategorijoje kaip Kinijos Huawei.
Teismo dokumentas, pateiktas antradienį federaliniam San Francisko teismui, palaiko Anthropic prašymą laikinai užblokuoti Pentagoną nuo "tiekimo grandinės grėsmės" ženkliuko vykdymo. Microsoft perspėja, kad staigus draudimas galėtų sugriauti esamas karines AI sistemas ir priversti rangovus skubiai perkonfigūruoti Pentagonui teikiamus produktus. O tai vyksta ne bet kuriuo metu – JAV armija šiuo metu intensyviai vykdo operacijas Irane, kur AI vaidina esminį vaidmenį.
Istorija prasidėjo ne vakar. Anthropic pasirašė 200 milijonų dolerių vertės sutartį su Gynybos departamentu liepą, ir buvo pirmoji AI laboratorija, integravusi savo modelius į misijų darbo procesus slaptyje tinkluose. Kompanija greitai tapo Pentagono mėgstamiausia – buvę kariniai pareigūnai tvirtina, kad Claude AI modelius kariškiai laiko patikimesniais ir lengviau pritaikomais nei konkurentus.
Bet kažkas nutiko. Praėjusių metų rugpjūtį Pentagono technologijų vadovas Emil Michael, buvęs Uber vadovas ir advokatas, perėmė papildomą vaidmenį – prižiūrėti Gynybos departamento dirbtinio intelekto portfelį. Mėnesiu anksčiau Anthropic buvo paskirta ta pati 200 milijonų dolerių sutartis. "Aš tiesiog pasakiau: 'noriu pamatyti sutartis,'" – pasakojo Michael podkaste, prisimindamas savo pirmąsias dienas valdant AI portfelį. Ta prašymo pamatyti sutartis akimirka pradėjo mėnesių trukmės peržiūros procesą, kuris baigėsi Gynybos departamento oficialiu Anthropic technologijos uždraudimu.
Kame gi problema? Anthropic turėjo dvi raudonas linijas. Kompanija nenorėjo, kad jos technologija būtų naudojama masinei amerikiečių stebėjimui ir netikėjo, kad ji pakankamai paruošta visiškai autonomiškiems ginklams, kur žmogus nedalyvauja taikymo ir šaudymo sprendimuose. Pentagonas atsakė kategoriškai: "Nuo pat pradžių tai buvo vienas fundamentalus principas: kariuomenės galimybė naudoti technologiją visais teisėtiems tikslams. Kariuomenė neleis tiekėjui įsiterpti į vadovavimo grandinę, ribojant teisėtą kritinio pajėgumo naudojimą ir keliant pavojų mūsų kariams".
Vasario pabaigoje derybos galutinai žlugo. Trumpo administracija vasario 27-ąją įsakė federalinėms agentūroms ir kariniam rangovams nutraukti verslo ryšius su Anthropic po to, kai kompanija atsisakė leisti Pentagonui naudoti jos technologiją be apribojimų. Prezidentas Trumpas asmeniškai tai pakomentavo Truth Social platformoje, pavadindamas Anthropic "kairiųjų nutjusiais" ir rašė, kad kompanija padarė "katastrofišką klaidą" bandydama diktuoti sąlygas Gynybos departamentui.
O štai ironija: netgi kai derybos tarp dviejų organizacijų žlugo, Gynybos departamentas naudojo Anthropic modelius palaikyti JAV kariuomenės operacijas vykstančiame konflikte su Iranu. Šaltiniai, susipažinę su Claude kariniais pajėgumais, tvirtina, kad pagrindinė Claude užduotis kariuomenei yra perdirbti didelius kiekius žvalgybos ataskaitų – sintetinti modelius, apibendrinti išvadas ir atskleisti svarbią informaciją greičiau nei žmogaus analitikas galėtų. Kariuomenė dabar apdoroja maždaug tūkstantį potencialių taikinių per dieną ir atakuoja daugumą jų, o laikas iki kito smūgio gali būti mažesnis nei keturios valandės.
Tai verčia užduoti klausimą: kaip kompanija gali būti nacionalinio saugumo grėsme, kai tuo pačiu metu jos AI sistemą naudoja ta pati kariuomenė aktyvaus konflikto metu?
Microsoft įsikišimas šioje situacijoje nėra altruizmas. Microsoft turi iki 5 milijardų dolerių investicijų Anthropic, o Anthropic įsipareigojo nusipirkti 30 milijardų dolerių vertės Azure skaičiavimo pajėgumų pagal partnerystę. Microsoft pati yra didelis Gynybos departamento rangovas, ir tas ženklinimas kelia riziką jos pačios produktams. Gynybos sekretorius Pete Hegseth nurodė, kad joks rangovas, tiekėjas ar partneris, dirbantis su JAV kariuomene, negali vykdyti jokios komercinės veiklos su Anthropic – apimtis potencialiai pakankamai plati, kad apimtų pačius Microsoft Copilot ir Azure produktus, kurie teikiami su Claude palaikymu.
Dokumentas išryškina procedūrinę prieštarą, kuri mažai dėmesio sulaukė pagrindinėje žiniasklaidoje: Gynybos departamentas sau davė šešių mėnesių pereinamąjį laikotarpį persikelti nuo Anthropic įrankių, bet ženklinimą rangovams pritaikė nedelsiant, be jokio ekvivalentiško laiko. Tai, kaip rašo Microsoft advokatai, verčia technologijų tiekėjus dabar skubėti audituoti, perženklinti ir perprojektuoti produktus grafiku, kurio vyriausybė sau nepaskyė.
Dar viena paradoksali detalė: tiekimo grandinės grėsmės įgaliojimai – 10 U.S.C. § 3252 – istoriškai buvo rezervuoti užsienio priešams. Tik vienas toks ženklinimas kada nors buvo viešai išduotas pagal susijusius statutus, ir tai buvo prieš Acronis AG, Šveicarijos programinės įrangos firmą su Rusijos ryšiais. Jo naudojimas prieš San Francisko AI startuolį yra, kaip įdėjo Microsoft, "beprecedentis".
Situacija dar keistesnė, žinant, kad 37 tyrėjai ir inžinieriai iš OpenAI ir Google taip pat pateikė amicus brief palaikydami Anthropic – retas solidarumo demonstravimas tarp konkuruojančių AI firmų. Dešimtys mokslininkų ir tyrinėtojų iš OpenAI ir Google DeepMind pateikė amicus brief asmeniniais gebėjimais pirmadienį palaikydami Anthropic. Grupė tvirtino, kad tiekimo grandinės grėsmės ženklinimas galėtų pakenkti JAV konkurencingumui pramonėje ir trukdyti viešoms diskusijoms apie AI rizikas ir naudą. Jie taip pat sakė, kad Anthropic raudonos linijos kelia teisėtas problemas.
O kas nutiko konkurentui OpenAI? Kai derybos tarp dviejų organizacijų sustojo, OpenAI ir Elono Musko xAI taip pat sutiko diegti savo modelius slaptose sistemose. OpenAI, savo ruožtu, paskubėjo pasirašyti sutartį su Gynybos departamentu valandomis po Anthropic juodąjį sąrašą, – žingsnis, kuris sukėlė vidinį pasipriešinimą ir privedė prie viešo OpenAI generalinio direktoriaus Samo Altmano pripažinimo, kad paskelbimas "atrodė oportunistiškai ir netvarkingai".
OpenAI vėliau paskelbė, kad turi tris pagrindines raudonas linijas, kurios valdo jų darbą su Gynybos departamentu, ir kurios bendrai dalijamos kelių kitų pirmaujančių laboratorijų: jokio OpenAI technologijos naudojimo masinei vidaus stebėsenai, jokio OpenAI technologijos naudojimo vadovauti autonomiškiems ginklų sistemoms, jokio naudojimo didelės rizikos automatizuotiems sprendimams. Bet OpenAI sutiko pritaikyti saugumo sistemas savo modeliuose, o OpenAI teigia, kad jų sutartis turi daugiau apsaugos priemonių nei bet kuri ankstesnė sutartis dėl slaptų AI diegimų, įskaitant Anthropic.
Ką tai reiškia Lietuvai ir Europai? Pirmiausia, tai precedentas, kuris turėtų kelti nerimą bet kuriai technologijų kompanijai, planuojančiai dirbti su vyriausybėmis. Jei JAV gali paskelbti savo pačios AI kompaniją nacionalinio saugumo grėsme dėl sutarties ginčo, kokių standartų galime tikėtis iš kitų šalių?
Antra, tai iškelia fundamentalų klausimą apie tai, kas kontroliuoja dirbtinį intelektą. Ar privačios kompanijos turi teisę nustatyti etines ribas, kaip jų technologija naudojama? Ar vyriausybės turi absoliučią galią diktuoti sąlygas? "Kas yra galutinis arbitras, kaip šie įrankiai naudojami? Tai yra ilgalaikis procesas, kurį turėsime išspręsti per demokratinį procesą", – sako ekspertai.
Trečia, tai rodo augančią įtampą tarp AI saugumo principų ir nacionalinio saugumo prioritetų. Deanas Ballas, buvęs Trumpo Baltųjų rūmų AI patarėjas, ženklinimą pavadino "mirštančiu amerikietiškosios respublikos šniūkščiojimu", teigdamas, kad vyriausybė atsisakė strateginio aiškumo ir pagarbos naudodamasi "chulganišku" tribalizmu, kuris su vidaus inovatoriais elgiasi blogiau nei su užsienio priešais.
Anthropic savo ieškinyje teigia, kad vyriausybės sprendimas galėtų pakenkti "šimtams milijonų dolerių" pajamų artimiausiu metu. Finansų direktorius Krishna Rao sakė susijusiame dokumente pirmadienį, kad smūgis galėtų būti daug sunkesnis. "Visame Anthropic versle, ir pritaikius, koks tikimumas, kad bet kuris klientas priims maksimalų aiškinimą, vyriausybės veiksmai galėtų sumažinti Anthropic 2026 metų pajamas keliais milijardais dolerių".
Microsoft prašymas yra laikina draudimo priemonė, ne nuosprendis. Bet faktas, kad viena didžiausių pasaulio technologijų kompanijų atsistoja į teismą gindama konkurentą (netgi kai pati Microsoft yra didžiausia OpenAI rėmėja su maždaug 135 milijardų dolerių vertės investicijomis), rodo, kaip rimta ši situacija.
Štai kas labiausiai nerimą kelianti: AI buvo svarbus pagalbininkas didinant JAV atakos prieš Iraną greitį ir mastą. Atakų mastas buvo milžiniškas, "dvigubai" didesnis nei pradinė "šoko ir baimės" fazė 2003 metų invazijos į Iraką, pasak karinių ekspertų. Mes žiūrime į konfliktą realiu laiku, kur AI jau neatskiriama karo dalis – ir dabar kovoje dėl to, kas kontroliuoja šią technologiją, matome, kad nėra aiškių atsakymų.
Kaip būtų pasakęs Ponas Obuolys – tai ne ginčas dėl technologijos. Tai kova dėl to, kas turi teisę spręsti, kaip galingiausia mūsų laikų technologija naudojama. Ir nei Microsoft, nei Anthropic, nei Pentagonas šioje kovoje neatrodo kaip nugalėtojai. O pralaimėti gali mes visi.
Šaltiniai: CNBC, TechCrunch, CNN Business, Axios, Reuters, Bloomberg, NPR, Microsoft court filing, Anthropic official statements