Hey.lt - Nemokamas lankytojų skaitliukas

Dirbtinio intelekto tėvas perspėja: DI gali sukelti scenarijų, kuris žmonijai nėra palankus

DI gali sukelti scenarijų, kuris žmonijai nėra palankus
4 min. skaitymo

Vienas svarbiausių dirbtinio intelekto kūrėjų, Nobelio premijos laureatas Geoffrey Hintonas, vis dažniau viešai prabyla apie grėsmes, kurias kelia sparčiai augančios DI sistemos. Jo žodžiai nestokoja svorio – būtent Hintonas padėjo sukurti neuroninių tinklų pagrindus, ant kurių šiandien stovi tokios sistemos kaip GPT, Gemini ar Grok.

Iki 2023 m. jis dirbo „Google“, tačiau pasitraukė norėdamas atvirai kalbėti apie pavojus, kuriuos, pasak jo, technologijų gigantai linkę nutylėti. Dabar Hintonas įspėja: dirbtinis intelektas gali ne tik pakeisti mūsų profesijas, bet ir sugriauti ekonomines sistemas, o blogiausiu atveju – sukurti naują, nekontroliuojamą karinę realybę.

Ekonomikos ateitis: DI gali sunaikinti darbo rinką

Per pastaruosius metus Hintonas tapo vienu garsiausių balsų, kalbančių apie vadinamąją „DI revoliucijos tamsiąją pusę“. Diskusijose su JAV senatoriumi Bernie Sandersu jis išdėstė scenarijų, kuris skamba kaip perspėjimas visai žmonijai.

Ankstesnės technologinės revoliucijos naikino kai kurias profesijas, bet sukurdavo daug naujų. Pasak Hintono, šį kartą bus kitaip:
dirbtinis intelektas gali atlikti beveik visas intelektines užduotis, todėl naujų darbo vietų tiesiog nebebus.

Tai reiškia ne pavienius praradimus, o masinį užimtumo kritimą.

Hintonas pabrėžia ir ekonominį paradoksą:
jeigu žmonės praras darbus, jie neturės pajamų pirkti produktams ar paslaugoms, kuriuos generuos tos pačios DI sistemos. Ekonomika gali tiesiog „užstrigti“, kaip Černobylio reaktorius – dėl to, kad buvo nevaldoma technologija.

Jis tai vadina kapitalistine aklaviete: DI gali duoti neregėtą pelną, bet kartu sunaikinti vartotojų rinką.

Superintelektas gali būti pavojingesnis, nei manome

Kitas Hintono nerimas – įsibėgėjantis dirbtinio bendrojo intelekto (AGI) kūrimas. Jeigu prieš kelis metus jis kalbėjo apie 50 metų laikotarpį, dabar sako, kad superintelektas gali atsirasti per artimiausius 10–20 metų.

Jo žodžiais, modernūs modeliai – GPT-5, „Grok-3“, Gemini – jau šiandien demonstruoja:

  • milžinišką mastelio augimą,
  • gebėjimą mokytis savarankiškai,
  • potencialą atlikti užduotis, kurių žmogus nesugebėtų.

Hintonas teigia: „Šios sistemos jau turi mus tūkstančius kartų pranokstančių galimybių.“
Tai reiškia, kad jos gali tapti ne įrankiais, o veikėjais, turinčiais savo tikslus, kurių žmonės nebūtinai kontroliuos.

Karinės autonominės sistemos – pavojingiausias scenarijus

Hintonas taip pat išskiria dar vieną sritį, kur DI gali sukelti katastrofiškų padarinių – kariuomenę.

Autonominiai ginklai gali:

  • veikti be žmogaus sprendimo,
  • priimti mirtinas komandas akimirksniu,
  • pašalinti moralines kliūtis pradėti karą.

Jei kariai nežūsta, visuomenė nebeturi emocinio spaudimo stabdyti konfliktą. Tai, pasak Hintono, gali atverti kelią naujam etapui – „robotų šaltajam karui“, kurį lemtų ne karių skaičius, o ginklų intelektas.

Tai itin pavojinga, turint omenyje, kad DI jau naudojamas:

  • kibernetinėse atakose,
  • dezinformacijos kampanijose,
  • autonominiuose dronuose.
DI plėtra
DI plėtra

Kas turi pasikeisti?

Hintonas nesiekia gąsdinti – jis ragina imtis atsakingų sprendimų. Jo teigimu:

  • DI plėtra turi būti griežčiau reguliuojama,
  • valstybės privalo kurti tarptautines taisykles,
  • būtina riboti autonominių ginklų kūrimą,
  • reikia investuoti į technologijų saugą, o ne vien į pažangą.

Be šių priemonių, pasak jo, „žmonija žaidžia su ugnimi“.

Ar tai jau pasaulio pabaiga?

Hintonas neprognozuoja apokalipsės tiesiogine prasme, bet teigia, kad be kontrolės DI gali:

  • pakeisti žmones darbo rinkoje,
  • sunaikinti ekonominę pusiausvyrą,
  • iškreipti politines sistemas,
  • išprovokuoti nekontroliuojamus karinius konfliktus,
  • galiausiai – tapti egzistencine grėsme žmonijai.

Šie perspėjimai nėra mokslinė fantastika. Kaip ir garo mašinos ar atominė energija, DI yra technologinė jėga, kuri gali būti ir naudinga, ir pavojinga – priklausomai nuo to, kaip ji valdoma.

Hintono žinutė aiški:

dar turime laiko išvengti blogiausio scenarijaus, bet langas susitraukia.

Šaltinis: https://futurism.com/artificial-intelligence/godfather-ai-breakdown-society

Esu KAIPKADA.LT portalo redaktorius. Mano tikslas – suteikti skaitytojams aktualią, patikimą ir naudingą informaciją, padedančią geriau suprasti pasaulį aplink mus. Siekiu padėti atrasti svarbiausias žinias ir dalintis įvykiais, kurie gali turėti realią įtaką mūsų kasdieniam gyvenimui.
Komentarų: 0

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *

Primename: kviečiame diskutuoti pagarbiai ir laikytis bendravimo etiketo. Nepagarbūs, įžeidžiantys ar neapykantą skatinantys komentarai bus šalinami. Ačiū už supratingumą!

Komentuodami sutinkate, kad jūsų pateikti duomenys gali būti tvarkomi pagal mūsų privatumo taisykles.