Kibernetinio saugumo ekspertai aptiko dirbtinio intelekto pokalbių robotų pažeidžiamumą, leidžiantį įsilaužėliams klausytis privačių pokalbių. Ši saugumo spraga yra daugelyje dirbtinio intelekto paslaugų, įskaitant “ChatGPT“, ir ja gali pasinaudoti tame pačiame tinkle ar net nuotoliniu būdu esantys įsilaužėliai. Apie tai rašo ArsTechnica.
Pasak Ben-Guriono universiteto dirbtinio intelekto tyrimų laboratorijos vadovo Yisroel Mirsky, bent jau kol kas niekas nėra saugus, todėl naudotojai turėtų žinoti apie pažeidžiamumą, kad išvengtų skaudžių pasekmių.
Kaip tai veikia?
Pažeidžiamumas atsiranda dėl vadinamųjų šoninių kanalų atakų. Šios atakos tiesiogiai nepažeidžia saugumo užkardų, bet vietoj to slaptą informaciją gauna per metaduomenis ar kitais netiesioginiais būdais. Dirbtinio intelekto pokalbių robotai yra ypač pažeidžiami tokioms atakoms dėl nekokybiškų šifravimo metodų.
Priežastis ta, kad pokalbių robotai naudoja užkoduotus duomenis, vadinamus “žetonais”, kad apdorotų įvestį ir greitai generuotų atsakymus, užtikrindami, kad pokalbio srautas nenutrūktų. Tačiau šie žetonai netyčia sukuria šalutinį kanalą, kuris anksčiau tyrėjams nebuvo žinomas.
Užpuolikai gali gauti prieigą prie šių duomenų realiuoju laiku ir daryti išvadas iš naudotojo užuominų, o tai kelia didelį pavojų privatumui.
Pasekmės ir atsakas
Šio išnaudojimo pasekmės yra rimtos, ypač naudotojams, kurie su pokalbių robotais diskutuoja jautriomis temomis. Bendrovė “Microsoft“, pripažindama problemą, turinčią įtakos jos dirbtiniam intelektui “Copilot”, patikino, kad asmeniniai duomenys, pavyzdžiui, vardai, greičiausiai nebus nutekinti, ir pažadėjo išleisti pažeidžiamumui pašalinti skirtą atnaujinimą.
Ką turėtų daryti naudotojai?
Atsižvelgiant į šias išvadas, naudotojams patariama būti atsargiems bendraujant su dirbtinio intelekto pokalbių robotais ir vengti teikti jautrią informaciją, kol šios saugumo problemos bus išspręstos.