Mintis patikėti branduolinio arsenalo kontrolę dirbtiniam intelektui skamba kaip scenarijus iš distopinio filmo. Vis dėlto mokslininkai nusprendė patikrinti, kas nutiktų, jei tokia situacija taptų realybe. Eksperimentas buvo atliktas saugioje simuliacijoje, kur keli dideliais kalbos modeliais pagrįsti dirbtinio intelekto agentai turėjo spręsti geopolitinius konfliktus, galinčius baigtis branduoliniu karu.
Rezultatai pasirodė tokie nerimą keliantys, kad jie tik dar labiau sustiprino pasaulio lyderių baimes. Apie tai jau anksčiau perspėjo ir António Guterres, pabrėžęs, kad sprendimą panaudoti branduolinius ginklus visada turi priimti žmonės, o ne algoritmai ar mašinos.
Nuo sovietinės „Dead Hand“ sistemos iki šiuolaikinio dirbtinio intelekto
Branduoliniai ginklai istorijoje jau buvo iš dalies automatizuoti. Šaltojo karo laikotarpiu Sovietų Sąjunga sukūrė liūdnai pagarsėjusią sistemą, vadinamą Dead Hand system. Ji stebėjo radiacijos lygį, oro slėgį ir seisminį aktyvumą, siekdama aptikti galimą branduolinį smūgį.
Jei sistema nustatydavo ataką ir nebūdavo ryšio su aukščiausia vadovybe, leidimas paleisti atsakomąjį branduolinį smūgį galėdavo būti perduotas žemesnio lygio operatoriams bunkeryje. Šis mechanizmas buvo sukurtas kaip paskutinė atsako garantija.
Šiuolaikiniai tyrėjai nusprendė pažiūrėti, kaip panašioje krizėje elgtųsi modernūs dirbtinio intelekto modeliai.
Karo simuliacija: trys dirbtinio intelekto modeliai prieš geopolitines krizes
Eksperimentą atliko Londono King’s koledžo strategijos profesorius Kenneth Payne. Tyrimo metu buvo panaudoti keli pažangūs dirbtinio intelekto modeliai: ChatGPT, Claude ir Gemini.
Šiems modeliams buvo pateiktos sudėtingos geopolitinės situacijos: teritoriniai ginčai, kova dėl retųjų išteklių, režimų destabilizacija ir galimos branduolinės grėsmės iš priešininkų.
Dirbtinis intelektas galėjo rinktis įvairius veiksmus – nuo diplomatinių derybų ir įprastų karinių operacijų iki taktinių ir strateginių branduolinių smūgių.
Rezultatai, paskelbti mokslinių tyrimų platformoje arXiv, sukėlė didelį nerimą: net 95 procentuose simuliacijų modeliai pasirinko panaudoti bent kelis taktinius branduolinius ginklus.
Algoritmai šį sprendimą vertino ne kaip paskutinę išeitį, o kaip logišką konflikto eskalacijos etapą.
Mašinų logika be žmogaus baimės
Analizuodami savo sprendimus dirbtinio intelekto modeliai demonstravo šaltą, matematinį skaičiavimą. Jie retai rinkosi strateginius, viską naikinančius branduolinius smūgius, tačiau gana lengvai svarstė taktinių ginklų panaudojimą, laikydami tai „kontroliuojama eskalacija“.
Pasak profesoriaus Payne’o, viena iš priežasčių gali būti emocijų trūkumas.
Dirbtinio intelekto modeliai nejaučia baimės, siaubo ar moralinio tabu, kurį žmonėms sukelia tokios tragedijos kaip Hirošimos ar Nagasakio bombardavimas. Jei branduolinio ginklo tabu iš dalies remiasi emociniu suvokimu, dirbtinis intelektas jo gali paprasčiausiai „nepaveldėti“.
Kita problema – vadinamasis išlikimo šališkumas. Per daugiau nei 80 branduolinių ginklų egzistavimo metų žmonija didelių krizių metu jų nepanaudojo. Tai reiškia, kad istoriniuose duomenyse, kuriais mokomi neuroniniai tinklai, daugiausia užfiksuotos situacijos, kurios baigėsi taikiai.
Todėl algoritmai gali klaidingai vertinti tikrąją eskalacijos riziką.
Mokslininkų išvada: dirbtinis intelektas turi likti kuo toliau nuo branduolinių sprendimų
Tyrimo autoriai pateikė gana aiškią išvadą. Šiuolaikiniai dirbtinio intelekto modeliai neturėtų būti įtraukiami į sprendimus, susijusius su branduolinių ginklų panaudojimu ar strateginėmis derybomis.
Nors algoritmai gali būti naudingi analizuojant duomenis ar prognozuojant scenarijus, galutinis sprendimas turi likti žmonių rankose. Priešingu atveju pasaulis gali susidurti su situacija, kurioje mašininė logika neatsižvelgia į pačias svarbiausias ribas – tas, kurios žmonijai iki šiol leido išvengti branduolinės katastrofos.
Šaltinis: https://arxiv.org/abs/2602.14740v1
