2026-ieji tapo metais, kai dirbtinis intelektas (DI) galutinai įsitvirtino mūsų kasdienybėje. Kasdien „ChatGPT“ apdoroja apie 2,5 milijardo užklausų, o bendravimas su juo tapo toks natūralus, lyg susirašinėtume su senu, viską žinančiu draugu. Tačiau kibernetinio saugumo ekspertai įspėja: šis „draugas“ turi puikią atmintį ir jokios moralinės pareigos saugoti jūsų paslaptis. Tai, ką parašote pokalbių lange, gali tapti vieša informacija, o pasekmės – skaudžios.
Skirtingai nei paprasta „Google“ paieška, „ChatGPT“ atsakymai yra suasmeninti, emociškai įtraukiantys ir skatina atvirauti. Žmonės robotui pasakoja apie savo ligas, finansines bėdas ir darbines problemas. Tačiau svarbu suprasti esminį dalyką: „ChatGPT“ nėra statinė duomenų bazė. Tai sistema, kuri mokosi iš to, ką jai duodate.
Nors kūrėjai diegia saugiklius, istorija rodo, kad jie nėra nepralaužiami. Prisiminkime „Meta AI“ klaidą, leidusią vartotojams matyti kitų žmonių susirašinėjimus, arba atvejus, kai programišiai perėmė asmeninius duomenis per vadinamąsias „injekcijos atakas“. Dar blogiau – paieškos sistemos kartais indeksuoja viešai pasidalintus pokalbius.
Todėl skaitmeninė higiena bendraujant su DI yra kritiškai svarbi. Štai 5 kategorijos duomenų, kuriuos privalote pasilikti sau.
Asmeninė tapatybės informacija (PII)
Tai skamba kaip savaime suprantamas dalykas, tačiau realybė rodo ką kita. Kibernetinio saugumo grupės „Safety Detectives“ atliktas tyrimas, kurio metu išanalizuota 1000 viešai prieinamų pokalbių, atskleidė šokiruojančius faktus: žmonės masiškai dalijasi savo vardais, tiksliais adresais, asmens kodais ir net slaptažodžiais.
Kodėl tai pavojinga?
Atsiradus autonominėms DI naršyklėms (pvz., „OpenAI“ sukurta „Atlas“), jūsų duomenų pėdsakas tampa dar ryškesnis. Jei prašote DI parašyti motyvacinį laišką ar sukurti gyvenimo aprašymą, jis tai puikiai atliks ir be jūsų tikrų duomenų.
Ką daryti?
Naudokite vietos rezervavimo ženklus (angl. placeholders). Vietoj „Jonas Jonaitis, Gyvenantis Vilniaus g. 10“, rašykite „[Vardas Pavardė], [Adresas]“. Taip gausite reikiamą tekstą, bet nerizikuosite tapatybės vagyste. Taip pat verta nustatymuose išjungti funkciją, leidžiančią naudoti jūsų duomenis modelio apmokymui, nors tai ir nėra šimtaprocentinė garantija.

Jūsų piniginės turinys
Daugelis vartotojų atrado „ChatGPT“ kaip puikų finansų patarėją: jis padeda sudaryti biudžetą, planuoti pensiją ar analizuoti išlaidas. Nors patys „OpenAI“ pripažįsta, kad robotas gali klysti skaičiuodamas, pagrindinė rizika čia ne matematika, o privatumas.
Kodėl tai pavojinga?
DI platformos nėra bankinės sistemos. Jos neturi tų pačių saugumo protokolų, kurie saugo jūsų pavedimus. Įvesdami banko sąskaitos numerius, kredito kortelės duomenis, mokesčių deklaracijų kopijas ar prisijungimo prie investicinių fondų informaciją, jūs šiuos duomenis išvedate iš saugios zonos į „laukinę gamtą“.
Nutekėjimo atveju ši informacija yra aukso vertės dovanėlė sukčiams, kurie ją gali panaudoti finansinėms machinacijoms ar turto prievartavimui.
Medicininės paslaptys
Apklausos rodo, kad kas šeštas suaugęs žmogus bent kartą per mėnesį konsultuojasi su DI sveikatos klausimais. Jaunimo tarpe šis skaičius dar didesnis. Pokalbio formatas sukuria intymumo jausmą, todėl žmonės drąsiau nei „Google“ paieškai pasakoja apie simptomus, diagnozes ar psichologines problemas.
Kodėl tai pavojinga?
Kai į pokalbių laukelį įvedate savo diagnozę, vartojamus vaistus ar tyrimų rezultatus kartu su kita identifikuojančia informacija, šie duomenys praranda medicininio konfidencialumo apsaugą (kurią užtikrina gydymo įstaigos). Jūs prarandate kontrolę, kas ir kaip šiuos jautrius duomenis pamatys ateityje. Nors DI gali paaiškinti medicininius terminus, jis neturėtų tapti jūsų ligos istorijos saugykla.
Darbo dokumentai ir komercinės paslaptys
Tai viena dažniausių klaidų profesinėje aplinkoje. Noras sutaupyti laiko skatina darbuotojus kelti į „ChatGPT“ viską: nuo klientų el. laiškų juodraščių iki vidinių ataskaitų santraukų ar programinio kodo.
Kodėl tai pavojinga?
Įsivaizduokite gydytoją, kuris įkelia paciento ligos aprašymą, norėdamas jį „sulietuvinti“, arba programuotoją, įkeliantį įmonės patentuotą kodą klaidų taisymui. Visa ši informacija palieka saugią įmonės aplinką. Tai ne tik kelia grėsmę intelektinei nuosavybei, bet ir dažnai pažeidžia darbo sutartis bei konfidencialumo įsipareigojimus. Jei dokumentas turi žymą „konfidencialu“, jam ne vieta viešame pokalbių robote.
Neteisėta veikla ir „pilkosios zonos“
Galiausiai, nors tai atrodo akivaizdu, venkite bet kokių užklausų, susijusių su neteisėta veikla. „OpenAI“ ir kitos DI kompanijos atvirai deklaruoja, kad bendradarbiauja su teisėsauga ir teikia duomenis gavusios teisinius nurodymus.
Kodėl tai pavojinga?
Įstatymai keičiasi greitai. Tai, kas šiandien atrodo kaip nekaltas pokštas ar ribinis elgesys, rytoj gali būti traktuojama kitaip. Nors DI turi filtrus, draudžiančius generuoti kenkėjišką kodą ar instrukcijas nusikaltimams, bandymai apiti šiuos saugiklius yra fiksuojami. Jūsų pokalbių istorija gali tapti įkalčiu prieš jus pačius.
Apibendrinant:
„ChatGPT“ yra galingas įrankis, tačiau naudokite jį su sveiku protu. Pagrindinė taisyklė paprasta: niekada nerašykite robotui to, ko nenorėtumėte pamatyti viešai skelbimų lentoje miesto centre.
Šaltinis: https://www.slashgear.com/2063800/never-tell-chatgpt-these-things/

