article

Anthropic" sukūrė ginklą, kurio nenori išleisti: kodėl tai rimčiausia AI žinia per metus

Data: 2026 m. balandžio 7 d.

„Anthropic" pristatė „Project Glasswing" — uždarą kibernetinio saugumo iniciatyvą su „Claude Mythos Preview" modeliu, kuris jau rado tūkstančius kritinių klaidų visose pagrindinėse operacinėse sistemose, tačiau yra per galingas viešam paleidimui.

Trumpai (TL;DR):

---

Kai technologijų kompanija skelbia, kad jos produktas per pavojingas viešam naudojimui, paprastai tai yra šiaip rinkodarinis triukas. „Anthropic" atvejis — kitoks. „Claude Mythos Preview" jau identifikavo tūkstančius didelės rizikos zero-day pažeidžiamumų — spragų, kurių programinės įrangos kūrėjai iki šiol nežinojo — kiekvienoje pagrindinėje operacinėje sistemoje ir kiekvienoje pagrindinėje naršyklėje. Svarbiausias klausimas nėra, ar modelis galingas. Klausimas — kas nutiks, kai tokie modeliai pateks į netinkamas rankas.

Kas yra „Project Glasswing" ir kodėl jis uždaras?

„Anthropic" paskelbė „Project Glasswing" — kibernetinio saugumo iniciatyvą, skirtą apsaugoti pasaulio svarbiausią programinę įrangą ir tobulinti saugumo praktikas tuo metu, kai dirbtinis intelektas tampa vis galingesnis. Skirtingai nuo įprastų AI paleidimų, šis modelis viešai nebus prieinamas.

Ribotą prieigą gavo 12 partnerių organizacijų, kurios modelį naudos gynybiniam darbui ir kritinės programinės įrangos apsaugai: „Amazon Web Services", „Apple", „Broadcom", „Cisco", „CrowdStrike", „Google", „JPMorganChase", „Linux Foundation", „Microsoft", „NVIDIA" ir „Palo Alto Networks". Iš viso „Mythos Preview" naudosis 40 organizacijų.

Paprasčiau tariant: „Anthropic" mano, kad modelis yra pakankamai galingas, jog privalo būti testuojamas tik uždaroje aplinkoje su patikimais pramonės gigantais — o ne paleistas laisvai, kur galėtų būti panaudotas piktiems tikslams. Dalyvaujančios kompanijos gaus 100 mln. dolerių naudojimo kreditų, o atvirojo kodo saugumo organizacijoms skirta 4 mln. dolerių tiesioginių dotacijų.

Modelis, kuris nebuvo kurtas saugumui — bet rado tai, ko nerado niekas kitas

Intriguojantis faktas: „Mythos" nebuvo specialiai treniruotas kibernetinio saugumo darbui. Jis paprasčiausiai naudojamas kodo spragoms aptikti tiek patentuotose, tiek atvirojo kodo sistemose — ir jo gebėjimai, pasak „Anthropic", yra stiprių agentinio kodavimo (*agentic coding*) ir samprotavimo įgūdžių rezultatas.

Rezultatai kalba patys už save. Kai kuriais atvejais aptiktos spragos „išgyveno dešimtmečius žmogaus peržiūros ir milijonus automatizuotų saugumo testų" — vienas pavyzdys yra „Linux" branduolio klaida, kurią išnaudojus galima perimti visišką mašinos valdymą. „AWS" jau taikė „Claude Mythos Preview" kritinėms „Amazon" kodų bazėms, kurios nuolatos tikrinamos AI — ir net tose gerai išbandytose aplinkose modelis padėjo rasti papildomų silpnų vietų. „CrowdStrike" ir „Palo Alto Networks" — kompanijos, ilgai didžiavusios savo patentuotomis saugumo priemonėmis — dabar viešai pripažįsta, kad „Claude Mythos Preview" fiksuoja zero-day klaidas, kurių jokios kitos priemonės niekada neaptiko.

Kodėl „Anthropic" žino, kad bijo ne veltui

„Anthropic" kalbos apie pavojus nėra teorinės — kompanija turi asmeninės patirties su tuo, kaip jos modeliai gali būti panaudoti prieš pačius jų kūrėjus.

2025 m. rugsėjo viduryje kompanija aptiko įtartiną veiklą, kuri vėliau pasirodė esanti itin sudėtinga šnipinėjimo kampanija. Užpuolikai naudojo AI agentines (*agentic*) galimybes precedento neturinčiu mastu — ne kaip patarėją, bet kaip vykdytoją: grėsmės veikėjui pakako žmogaus priežiūros tik retkarčiais, o likusius 80–90% kampanijos atliko AI.

Grėsmės veikėjas — vertinamas kaip Kinijos valstybės remiama grupė — manipuliavo „Claude Code" įrankiu ir bandė įsilaužti į apie 30 pasaulinių taikinių: dideles technologijų įmones, finansų institucijas, chemijos gamybos kompanijas ir vyriausybines agentūras. Atakos piko metu AI siuntė tūkstančius užklausų — dažnai kelis per sekundę — tokiu greičiu, kuris žmogaus įsilaužėliui būtų tiesiog nepasiekiamas. Tai ne scenarijus iš kibernetinio trilerio — tai jau nutiko.

Nuo eksperimento iki standarto: ar gynybinis konsorciumas veiks?

Projekto sėkmė iš dalies priklausys nuo to, ar bendradarbiavimo modelis sugebės neatsilikti nuo sparčiai augančių AI galimybių. „Anthropic" pats pripažįsta, kad pasienio AI sistemos gali iš esmės pažengti vos per kelis mėnesius — tai reiškia, kad gynybinės ir puolamosios galimybės gali tobulėti lygiagrečiai, viena kitą vejantis. Kompanija įsipareigojo per 90 dienų viešai atsiskaityti apie tai, ko išmoko, o patį projektą įrėmino nacionalinio saugumo terminais: lyderystės išlaikymas AI srityje esąs strateginis prioritetas JAV ir jos sąjungininkams.

Europai tai aktualu ypač. Daugiau nei pusė — 51% — Europos IT ir kibernetinio saugumo specialistų baiminasi, kad AI grėsmės ir deepfake technologijos taps jų kasdieniu galvos skausmu jau 2026-aisiais, tačiau tik 14% jaučiasi „labai pasiruošę" valdyti generatyvaus AI rizikas. Lietuva, kaip aktyvi NATO kibernetinės gynybos narė, šiame kontekste negali stovėti nuošalyje — tačiau galimybė patekti į tokius konsorciumus kol kas išlieka didelių žaidėjų privilegija.

Ponas Obuolys sako:

„Anthropic" čia atlieka įdomų manevrą: vienu metu skelbia turinti pavojingiausią kibernetinio saugumo įrankį pasaulyje — ir tuo pačiu aiškina, kodėl jo jums neduos. Tai panašu į ginkluotės pardavėją, kuris sako: „Šis ginklas per galingas visuomenei, todėl atiduosime jį tik „Apple", „Google" ir „Microsoft"." Ramina, ar ne?

Juokus į šalį — kontekstas tikrai neįprastas. Kinijos valstybės remiami įsilaužėliai jau naudojo „Claude" automatizuotoms atakoms, kurios 80–90% operacijos vykdė be žmogaus priežiūros. „Anthropic" nebėra tik technologijų įmonė — ji tapo kibernetinio karo lauko dalyviu, ar to norėjo, ar ne.

Galiausiai svarbiausia žinutė yra ne apie modelio galimybes, o apie tai, kad gynybos žaidimas dabar yra lenktynės su laiku. „Jei kirtome Rubikoną, kuriame galima funkciškai automatizuoti šias galimybes ir padaryti jas labai pigias — esame visiškai naujame pasaulyje," — sakė „Anthropic" atstovas. Ir jis teisus. Klausimas tik — kas pirmesnis: gynėjai ar užpuolikai?

---

Šaltiniai: „TechCrunch", „VentureBeat", „CyberScoop", „AWS Security Blog", „9to5Mac", „IT Pro", „Anthropic" (oficialus pranešimas), „Axios", „The Hacker News".

Temos

Susijusios naujienos

AI Kursai