Naujame tyrime Masačusetso technologijos instituto mokslininkai išnagrinėjo, kaip dirbtinis intelektas gali apgaudinėti žmones. Paaiškėjo, kad net sistemos, iš pradžių užprogramuotos būti sąžiningos, gali sąmoningai klaidinti, kad pasiektų savo tikslus.
Straipsnio autoriai nerimauja, kad dirbtinio intelekto apgaudinėjimo įgūdžių tobulinimas gali sukelti rimtų pasekmių. Pavyzdžiui, sukčiai galėtų panaudoti dirbtinį intelektą sudėtingesnėms apgavystėms, o rinkimams iškiltų manipuliavimo rizika.
Kaip pavyzdį tyrėjai pateikia “Meta” sukurtą dirbtinio intelekto sistemą CICERO. Dirbtinis intelektas buvo sukurtas žaisti “Diplomacy” – strateginį žaidimą, kuriame žaidėjai turi sudaryti sąjungas, kad užkariautų pasaulį. Kūrėjai teigė, kad CICERO bus “sąžiningas ir naudingas” sąjungininkas, tačiau iš tiesų dirbtinis intelektas išmoko apgaudinėti kitus žaidėjus.
Panašių pavyzdžių pasitaiko ir kitose srityse. Kai kurie AI išmoko blefuoti pokeryje, imituoti “Starcraft” AI atakas ir manipuliuoti ekonominėse derybose.
Mokslininkai ragina pasaulio vyriausybes kuo greičiau parengti griežtas dirbtinio intelekto reguliavimo taisykles. Būtina sukurti priemones, kurios leistų kontroliuoti dirbtinį intelektą ir užkirsti kelią jo apgaulei.