article

OpenAI siekia visiško automatinio tyrėjo – kas gali nutikti, kai mašinos pradės kurti mašinas

Data: 2026 m. kovo 21 d.

Kas nutiks, jei dirbtinis intelektas pats pradės tobulinti dirbtinį intelektą – ir kodėl OpenAI šiuo klausimu nebeklausia?

OpenAI keičia savo tyrimų prioritetus ir sutelkia visus resursus į naują didįjį iššūkį. San Francisko įmonė nusitaikė sukurti tai, ką vadina DI tyrėju – visiškai automatizuotą agentų sistemą, kuri savarankiškai galės spręsti didelės apimties sudėtingas problemas. OpenAI teigia, kad šis naujas tyrimo tikslas taps jų „Šiaurės žvaigžde" artimiausius keletą metų, sujungiant kelias tyrimų kryptis, įskaitant darbą su samprotavimo modeliais, agentais ir interpretuojamumu.

Net pateikė terminą. OpenAI planuoja sukurti „autonominį DI tyrimų stažuotoją" – sistemą, kuri pati galės atlikti nedidelę dalį specifinių tyrimų problemų – iki rugsėjo. DI stažuotojas bus visiškai automatizuotos daugelio agentų tyrimų sistemos, kurią įmonė planuoja pristatyti 2028 m., pirmtakas.

Kodas virsta viskuo

Didelė dalis šio sprendimo priklauso Jakub Pachocki, OpenAI vyriausiajam mokslininkui, kuris nustato ilgalaikius įmonės tyrimų tikslus. Pachocki suvaidino pagrindinius vaidmenis kuriant tiek GPT-4 – revoliucinį didelį kalbos modelį, išleistą 2023 m., tiek samprotavimo modelius – technologiją, kuri pirmą kartą pasirodė 2024 m. ir dabar sudaro visų pagrindinių pokalbių robotų ir agentų sistemų pagrindą.

Išskirtiniame interviu šią savaitę Pachocki papasakojo apie naujausią OpenAI viziją: „Manau, artėjame prie taško, kai turėsime modelius, galinčius dirbti neribotą laiką nuosekliai, kaip žmonės. Žinoma, vis tiek norite, kad žmonės vadovautų ir nusistatytų tikslus. Bet manau, pasieksime tašką, kai jūsų duomenų centre iš esmės turėsite visą tyrimų laboratoriją."

Ar tai reiškia, kad mokslininkai bus nereikalingi? Ne visai. 2025 m. sausį OpenAI išleido Codex – agentų pagrįstą programą, kuri gali sukurti kodą iškart, kad atliktų užduotis jūsų kompiuteryje. Ji gali analizuoti dokumentus, generuoti diagramas, sukurti kasdienę jūsų gautųjų laiškų ir socialinių tinklų santrauką ir daug daugiau. OpenAI teigia, kad didžioji dalis jų techninių darbuotojų dabar naudoja Codex savo darbe.

Codex gali atlikti užduotis, tokias kaip funkcijų rašymas, klausimų apie jūsų kodo bazę atsakymas, klaidų taisymas ir pull request pasiūlymų teikimas peržiūrai. Kiekviena užduotis vykdoma savo debesies sandbox aplinkoje, iš anksto įkeltoje su jūsų saugykla. Techninės komandos OpenAI pradėjo naudoti Codex kaip kasdienių įrankių dalį. OpenAI inžinieriai dažniausiai naudoja jį, kad perkeltų pasikartojančias, gerai apibrėžtas užduotis, tokias kaip refaktoringas, pervadinimas ir testų rašymas, kurios kitaip atimtų dėmesį.

Bet Pachocki šito nepakanka. „Iš tiesų ieškome automatizuoto tyrimų stažuotojo, kuris galėtų atlikti užduotis, kurios žmogui užtruktų kelias dienas", – sako Pachocki.

Matematika, fizika, biologija – ir atomazgis

OpenAI jau turi tam įrodymų. Šiais metais OpenAI samprotavimo modeliai pasiekė aukso medalio lygį Tarptautinėje matematikos olimpiadoje ir įveikė visus, išskyrus vieną žmogų, konkurencingoje programavimo varžyboje. Dabar reguliariai matome, kaip pažangiausi modeliai prisideda prie anksčiau neišspręstų – ir vis subtilesnių – klausimų matematikoje ir moksluose sprendimų.

Biologijoje, studijoje, vadovautoje Derya Unutmaz, M.D., mokslininkai praleido mėnesius bandydami paaiškinti mįslingą žmogaus imuninių ląstelių pokytį. GPT-5 per kelias minutes nustatė tikėtiną mechanizmą iš nepublikuoto grafiko ir pasiūlė eksperimentą, kuris tai įrodė. Toks greitis galėtų padėti tyrėjams greičiau suprasti ligas ir sukurti geresnius gydymo būdus.

Matematikoje, kitame atvejyje, tyrėjai Mehtaab Sawhney ir Mark Sellke sprendė dešimtmečius trukusią atvirą problemą, kurią iš pradžių pasiūlė Paul Erdős. Jie įstrigo paskutiniame žingsnyje, o GPT-5 pateikė naują idėją, kaip vienas neporinių skaičių pažeidžia šabloną, o tai padėjo jiems užbaigti įrodymą.

FrontierMath (1–3 lygiai), ekspertų lygio matematikos vertinime, GPT-5.2 Thinking nustatė naują standartą, išspręsdamas 40,3% problemų.

Bet kodėl dabar? Kadangi pasak Pachocki, viskas veikia. Pachocki sako, kad OpenAI dabar turi daugumą to, ko reikia, kad tai pasiektų. Modeliai tampa geresni samprotaudami, geba dirbti ilgiau be žmogaus pagalbos, o „chain-of-thought" stebėsena leidžia sekti, ką modeliai daro viduje.

Ar jie klysta? Taip. GPT-5.2 Thinking haliucinuoja mažiau nei GPT-5.1 Thinking. Deidentifikuotų užklausų iš ChatGPT rinkinyje atsakymai su klaidomis buvo 30% rečiau. Bet kaip visi modeliai, GPT-5.2 Thinking nėra tobulas. Kritiniais atvejais patikrinkite jo atsakymus.

Riziką sprendžia vyriausybė, ne?

Štai kur prasideda problemos. „Daug žmonių entuziastingai kuria sistemas, galinčias atlikti ilgalaikius mokslinius tyrimus", – sako Doug Downey, tyrimų mokslininkas iš Allen Institute for AI, kuris nėra susijęs su OpenAI. „Manau, tai didele dalimi skatina šių kodavimo agentų sėkmė. Faktas, kad galite perduoti gana didelės apimties kodavimo užduotis tokiems įrankiams kaip Codex yra neįtikėtinai naudingas ir įspūdingas. Ir tai kelia klausimą: ar galime padaryti panašius dalykus už kodavimo ribų, platesnėse mokslo srityse?"

Paklausiau Pachocki apie rizikas. Pachocki patvirtina, kad žmonės OpenAI dažnai aptaria šias rizikas. „Jei tikite, kad DI ketina žymiai paspartinti tyrimus, įskaitant paties DI tyrimus, tai yra didelis pasaulio pokytis. Tai didelis dalykas", – pasakė jis. „Ir tai kelia keletą rimtų neatsakytų klausimų."

Sistema gali suklaidinti, gali būti įsilaužta arba tiesiog neteisingai suprasti instrukcijas. Pagrindinė strategija, kurią OpenAI šiuo metu naudoja šioms problemoms spręsti, yra treniruoti savo samprotavimo modelius dalintis informacija apie tai, ką jie daro, kai dirba.

Tai vadinasi „chain-of-thought monitoring" – modeliai mokomi užsirašyti, ką daro, lyg juodraštiniame lape. Tyrėjai gali peržiūrėti tuos užrašus ir patikrinti, ar modelis elgiasi kaip tikimasi. Pachocki ypač susižavėjęs sistemos vidinio samprotavimo žurnalo stebimu.

Bet taip – jie naudos kitus DI modelius, kad stebėtų DI modelius. „Tai buvo šiek tiek tolima ateitis, šiek tiek mokslinė fantastika, ir manau, tai aiškiai tampa tikrove", – sako jis.

Pentagono sandoris: kodas su išlygomis

Kalbant apie pasitikėjimą – vasario pabaigoje OpenAI pasirašė sutartį su Pentagonu dėl GPT naudojimo slapiose sistemose. 2026 m. vasario 28 d. OpenAI paskelbė pasiekusi susitarimą, kuris leis JAV kariuomenei naudoti jos technologijas slaptose aplinkose. Generalinis direktorius Sam Altman sakė, kad derybos, kurias įmonė pradėjo vykdyti tik po Pentagono viešo Anthropic smerkimo, buvo „tikrai skubios". Paskelbime OpenAI daug rūpinosi pasakyti, kad ji nenusileidė ir neleido Pentagonui daryti, ką tik nori su jos technologija.

Kodėl? Nes konkurentė Anthropic buvo ką tik paskelbta „tiekimo grandinės rizika" ir pašalinta iš visų vyriausybinių sutarčių – vien todėl, kad atsisakė leisti savo modelius naudoti visiškai autonominiams ginklams ir masiniam buitiniam šnipinėjimui. „Mes manome, kad šiandienos pažangūs DI modeliai nėra pakankamai patikimi, kad būtų naudojami visiškai autonominiuose ginkluose. Leidimas dabartiniams modeliams būti naudojamiems tokiu būdu keltų pavojų Amerikos kariams ir civiliams. Antra, tikime, kad masinis vidaus amerikiečių stebėjimas yra pagrindinių teisių pažeidimas."

OpenAI sako, kad jie turi tokias pačias „raudonas linijas". Turime tris pagrindines raudonas linijas, kurios veda mūsų darbą su Gynybos departamentu: jokio OpenAI technologijos naudojimo masiniam vidaus stebėjimui, jokio naudojimo autonominėms ginklų sistemoms valdyti, jokio naudojimo didelės svarbos automatiniams sprendimams (pvz., „socialinio kredito" sistemos).

Bet štai problema – priežastis, kodėl OpenAI sugebėjo susitarti, kai Anthropic negalėjo, buvo mažiau susijusi su ribomis, o daugiau su požiūriu, sakė Altman. „Anthropic atrodė labiau sutelkta į konkrečius draudimus sutartyje, o ne į taikomų įstatymų citavimą, su kuriais mes jautėmės patogiai", – rašė jis. OpenAI sako, kad vienas jų noro dirbti su Pentagonu pagrindas yra tiesiog prielaida, kad vyriausybė nelaužys įstatymo.

Tačiau paskelbta ištrauka „nesuteikia OpenAI Anthropic stiliaus, savarankiškos teisės uždrausti kitaip įstatymais leidžiamą vyriausybės naudojimą", – rašė Jessica Tillipman, vyriausybės pirkimų teisės studijų prodekanas George Washington universiteto teisės mokykloje. Joje tiesiog teigiama, kad Pentagonas negali naudoti OpenAI technologijos pažeisti bet kurio iš tų įstatymų ir politikos, kaip jie yra nurodyta šiandien.

Problema? Visa priežastis, dėl kurios Anthropic užsitarnavo tiek daug rėmėjų savo kovoje – įskaitant kai kuriuos paties OpenAI darbuotojų – ta, kad jie netiki, jog šios taisyklės yra pakankamai geros, kad užkirstų kelią DI autonominių ginklų ar masinio stebėjimo kūrimui. O prielaida, kad federalinės agentūros nelaužys įstatymo, yra menkas patikrinimas bet kam, kas prisimena, kad stebėjimo praktikos, kurią atskleidė Edward Snowden, buvo pripažintos teisėtomis vidinių agentūrų ir buvo pripažintos neteisėtomis tik po ilgų mūšių.

Viešuose forumuose ir privačiuose pokalbiuose OpenAI darbuotojai išsako, kaip OpenAI vadovybė tvarkė Pentagono derybas. Daugelis darbuotojų „tikrai gerbia" Anthropic, kad ji priešinosi Pentagonui, ir yra nusivylę, kaip OpenAI tvarkė savo sutartį, sakė vienas dabartinis darbuotojas CNN, nuslėpdamas savo tapatybę, kad galėtų laisvai kalbėti.

Kas gali nutikti?

Taigi, santrauka: OpenAI kuria sistemą, kuri pati galės kurti mokslą, rašyti kodą, ieškoti sprendimų ir – kadangi Pachocki to tiesiogiai neatsako – galbūt gerinti pati save. Pentagone jų technologija dabar gali būti naudojama „bet kokiam įstatymais leidžiamam tikslui", tik su prielaida, kad niekas nepadarys nieko blogo. Darbuotojai nepatenkinti. Anthropic užkištas burna. O 2028 m. – jei viskas eis pagal planą – mes turėsime visiškai automatizuotą daugelio agentų tyrimų sistemą, dirbančią be žmogaus.

Kas gali nutikti blogai?

Pachocki sako, kad jie turi stebėjimo sistemas. Sako, kad DI bus sandbox'e. Sako, kad vyriausybė turės išsiaiškinti reguliavimą. Bet „Tai buvo šiek tiek tolima ateitis, šiek tiek mokslinė fantastika, ir manau, tai aiškiai tampa tikrove."

Problema ne ta, kad OpenAI neturi protingų žmonių. Problema ta, kad protingi žmonės daro dalykus skubiai, su ribotu priežiūros, su prielaidomis apie įstatymų laikymąsi ir su 2028 m. terminu, kuris atrodo labiau kaip startup pitch nei saugumo garantija.

Ir ką mes apie tai galime padaryti? Maždaug tiek pat, kiek OpenAI darbuotojai, kurie rašė kreida ant šaligatvio ir pasirašė laiškus. Tiksliau, nieko.

---

Šaltiniai: MIT Technology Review, OpenAI, TIME, Nature, Allen Institute for AI, CNN, NPR, Fortune, The Intercept

Temos

Susijusios naujienos

AI Kursai