Dauguma pagrindinių dirbtinio intelekto (DI) taikomųjų programų naudoja jo gebėjimą apdoroti didelius duomenų kiekius, nustatant juose modelius ir tendencijas. Rezultatai gali padėti numatyti būsimą finansų rinkų ir miestų eismo elgseną ir net padėti gydytojams diagnozuoti ligas dar prieš pasireiškiant jų simptomams.
Tačiau dirbtinis intelektas taip pat gali būti naudojamas siekiant pažeisti mūsų internetinių duomenų privatumą, automatizuoti žmonių darbą ir pakenkti demokratiniams rinkimams, užtvindant socialinę žiniasklaidą dezinformacija. Algoritmai gali paveldėti šališkumą iš realaus pasaulio duomenų, kurie naudojami jiems tobulinti, o tai gali lemti, pavyzdžiui, diskriminaciją priimant į darbą.
Dirbtinio intelekto reguliavimas – tai išsamus taisyklių rinkinys, kuriame apibrėžiama, kaip ši technologija turėtų būti plėtojama ir naudojama, kad būtų sprendžiama galimos žalos problema. Toliau pateikiame kelias pagrindines pastangas tai padaryti ir jų skirtumus.
ES dirbtinio intelekto aktas ir Bletchley deklaracija
Europos Komisijos Dirbtinio intelekto aktu siekiama sumažinti galimus pavojus ir kartu skatinti verslumą ir inovacijas dirbtinio intelekto srityje. Jungtinės Karalystės dirbtinio intelekto saugumo institutas, apie kurį buvo paskelbta per neseniai Bletchley parke vykusį vyriausybės aukščiausiojo lygio susitikimą, taip pat siekia šios pusiausvyros.
ES teisės aktu draudžiama naudoti dirbtinio intelekto priemones, kurios, kaip manoma, kelia nepriimtiną riziką. Į šią kategoriją patenka “socialinio profiliavimo” produktai, kai žmonės klasifikuojami pagal jų elgesį, ir veido atpažinimo realiuoju laiku produktai.
Įstatymu taip pat gerokai ribojamas didelės rizikos dirbtinis intelektinis intelektas – kita žemiau esanti kategorija. Į šią kategoriją patenka taikomosios programos, kurios gali turėti neigiamą poveikį pagrindinėms teisėms, įskaitant saugumą.
Kaip pavyzdžius galima paminėti autonominį vairavimą ir AI rekomendacines sistemas, naudojamas įdarbinimo, teisėsaugos ir švietimo srityse. Daugelį šių priemonių reikės registruoti ES duomenų bazėje. Ribotos rizikos kategorijai priskiriami pokalbių robotai, pavyzdžiui, “ChatGPT”, arba vaizdų generatoriai, pavyzdžiui, “Dall-E”.
Apskritai dirbtinio intelekto kūrėjai turės užtikrinti visų asmens duomenų, naudojamų jų algoritmams “mokyti” – arba tobulinti – konfidencialumą ir skaidriai nurodyti, kaip veikia jų technologijos. Tačiau vienas iš pagrindinių įstatymo trūkumų yra tas, kad jį daugiausia rengė technokratai, plačiai nedalyvaujant visuomenei.
Priešingai nei dirbtinio intelekto įstatymas, neseniai priimta Bletchley deklaracija yra ne reglamentavimo sistema per se, o raginimas ją plėtoti bendradarbiaujant tarptautiniu mastu. 2023 m. aukščiausiojo lygio susitikimas dėl AI saugumo, kuriame deklaracija buvo priimta, buvo pavadintas diplomatiniu proveržiu, nes privertė pasaulio politines, komercines ir mokslo bendruomenes susitarti dėl bendro plano, kuris atspindi ES teisės aktą.
Jungtinės Valstijos ir Kinija
Šiaurės Amerikos (ypač JAV) ir Kinijos bendrovės dominuoja komercinėje dirbtinio intelekto srityje, o dauguma jų būstinių Europoje yra Jungtinėje Karalystėje. JAV ir Kinija konkuruoja dėl vietos reguliavimo srityje. JAV prezidentas Joe Bidenas neseniai išleido įsaką, kuriuo reikalaujama, kad dirbtinio intelekto gamintojai pateiktų federalinei vyriausybei savo programų pažeidžiamumo kibernetinėms atakoms vertinimą, duomenis, naudojamus dirbtiniam intelektui apmokyti ir išbandyti, ir jo našumo matavimus.
JAV vykdomuoju įsaku sukuriamos paskatos skatinti inovacijas ir konkurenciją pritraukiant tarptautinius talentus. Jame numatyta sukurti švietimo programas, skirtas JAV darbo jėgos dirbtinio intelekto įgūdžiams ugdyti. Jame taip pat skiriamas viešasis finansavimas vyriausybės ir privačių bendrovių partnerystei.
Tokios rizikos, kaip diskriminacija, kurią sukelia dirbtinio intelekto naudojimas įdarbinant, teikiant hipotekos paraiškas ir priimant teismo nuosprendžius, sprendžiamos įpareigojant JAV vykdomųjų departamentų vadovus paskelbti gaires. Jose būtų apibrėžta, kaip federalinės valdžios institucijos turėtų kontroliuoti dirbtinio intelekto naudojimą šiose srityse.
Kinijos dirbtinio intelekto taisyklėse rodomas didelis susidomėjimas generatyviniu dirbtiniu intelektu ir apsauga nuo gilių klastočių (sintetiniu būdu sukurtų vaizdų ir vaizdo įrašų, kurie imituoja tikrų žmonių išvaizdą ir balsą, bet perteikia įvykius, kurių niekada nebuvo).
Taip pat daug dėmesio skiriama dirbtinio intelekto rekomendacinių sistemų, t. y. algoritmų, kurie analizuoja žmonių veiklą internete, kad nustatytų, koks turinys, įskaitant reklamą, turėtų būti pateikiamas jų kanalų viršuje, reglamentavimui.
Siekiant apsaugoti visuomenę nuo rekomendacijų, kurios laikomos nepagrįstomis ar emociškai žalingomis, Kinijos įstatymai draudžia melagingas naujienas ir neleidžia bendrovėms taikyti dinaminės kainodaros (imti didesnių priemokų už pagrindines paslaugas remiantis asmens duomenų gavyba). Taip pat reikalaujama, kad visi automatizuotai priimami sprendimai būtų skaidrūs tiems, kuriems jie daro poveikį.
Tolesni veiksmai
Reguliavimo pastangos priklauso nuo nacionalinių aplinkybių, pavyzdžiui, JAV susirūpinimą keliančių kibernetinės gynybos klausimų, Kinijos privačiojo sektoriaus stiprinimo ir ES bei Jungtinės Karalystės bandymų suderinti paramą inovacijoms ir rizikos mažinimą. Pasaulinės sistemos susiduria su panašiais iššūkiais bandydamos skatinti etišką, saugų ir patikimą dirbtinį intelektą.
Kai kurios pagrindinių terminų apibrėžtys yra neaiškios ir atspindi nedidelės grupės įtakingų suinteresuotųjų šalių indėlį. Plačioji visuomenė šiame procese buvo nepakankamai atstovaujama. Politikai turėtų saugotis didelio technologijų bendrovių politinio kapitalo. Jas būtina įtraukti į diskusijas dėl reguliavimo, tačiau būtų naivu pasitikėti šių galingų lobistų savikontrole.
Dirbtinis intelektas įsitraukia į ekonomikos struktūrą, kuria grindžiamos finansinės investicijos, remiamos nacionalinės sveikatos ir socialinės paslaugos ir daro įtaką mūsų pramogų pasirinkimui. Taigi tas, kas nustato dominuojančią reguliavimo sistemą, taip pat turi galią pakeisti pasaulinę galios pusiausvyrą.
Svarbūs klausimai lieka neišspręsti. Pavyzdžiui, kalbant apie darbo vietų automatizavimą, įprasta manyti, kad skaitmeninės pameistrystės ir kitos perkvalifikavimo formos pavers darbo jėgą duomenų mokslininkais ir dirbtinio intelekto programuotojais. Tačiau daugelio aukštos kvalifikacijos žmonių gali nedominti programinės įrangos kūrimas.
Pasauliui kovojant su su dirbtiniu intelektu susijusia rizika ir galimybėmis, galime imtis teigiamų veiksmų, kad ši technologija būtų kuriama ir naudojama atsakingai. Siekiant remti inovacijas, naujai kuriamos dirbtinio intelekto sistemos iš pradžių galėtų būti priskiriamos didelės rizikos kategorijai, kaip apibrėžta ES dirbtinio intelekto akte, o ištyrus jų poveikį, jos galėtų būti priskiriamos mažesnės rizikos kategorijoms.
Politikai taip pat galėtų pasimokyti iš griežtai reguliuojamų pramonės šakų, pavyzdžiui, farmacijos ir branduolinės energetikos. Jos nėra tiesioginiai dirbtinio intelekto analogai, tačiau daugelis kokybės standartų ir veiklos procedūrų, reglamentuojančių šias saugai itin svarbias pramonės šakas, gali suteikti naudingų įžvalgų.
Galiausiai, labai svarbu, kad bendradarbiautų visi su AI susiję subjektai. Taisyklių kūrimas neturėtų būti paliktas vien technokratams. Plačioji visuomenė turi išsakyti savo nuomonę apie technologiją, kuri gali turėti didelį poveikį jų asmeniniam ir profesiniam gyvenimui.