Dirbtinis intelektas šiandien gali sukurti vaizdo įrašus, kuriuos net specialistams tampa sudėtinga atskirti nuo realybės. Tai revoliucija, turinti ir šviesiąją, ir itin pavojingą pusę. Nuo humoristinių klipų iki dezinformacijos kampanijų – dirbtinio intelekto generuojama medžiaga plinta taip greitai, kad tampa tikru skaitmeniniu maru. Tad kaip atpažinti, ar vaizdo įrašas tikras?
Kodėl tai tapo problema dabar?
Dar 2023 m. dirbtinio intelekto generuoti vaizdai ir vaizdo įrašai buvo tiesiog juokingi – keistos rankos, šeši pirštai, kreivas tekstas. Šiandien to beveik nebėra.
Naujausi generatoriai, tokie kaip OpenAI Sora ar Google Veo, kuria tikroviškus, sklandžiai judančius vaizdo įrašus, kuriuose klaidos – subtilios ir sunkiai pastebimos.
Tai pavojinga dėl kelių priežasčių:
- vaizdo įrašai vis dar laikomi „labiausiai įtikinamu įrodymu“
- juos lengva panaudoti politinei manipuliacijai
- jie tampa nauju sukčiavimo įrankiu
- žmonės natūraliai pasitiki tuo, ką mato savo akimis
Ekspertai įspėja: atsainus požiūris tampa rizika.

Trys ženklai, kad vaizdo įrašas – dirbtinis
1. Prasta arba dirbtinai „triukšminga“ kokybė
Dirbtinio intelekto generatoriai dažnai specialiai „prastina“ vaizdą, kad paslėptų trūkumus:
- stebėjimo kamerų imitacija
- ryškumo šuoliai
- „triukšmingas“, grūdėtas fonas
Tai leidžia lengviau užmaskuoti fizikos klaidas ar keistai elgiančius objektus.
Pvz.: populiarus „TikTok“ klipas, kuriame triušiai šokinėja ant batuto – žaidžiama prastinimu, kad nematytumėte klaidų fone.
2. Fizikos dėsnių nesilaikymas
Dirbtinis intelektas dar nepakankamai supranta realaus pasaulio taisykles.
Stebėkite:
- daiktus, kurie keistai išnyksta arba atsiranda
- šešėlius, kurie juda nenatūraliai
- drabužius ar plaukus, kurie juda „lyg skystyje“
- objektus, kuriuos vos matoma jėga „pastumia“ ar „pakelia“
- žingsnių ar rankų judesių nesinchroniškumą su aplinka
Dažnai tai pastebima fone – ne pagrindiniame veikėjui.
3. Garsas, kuris „nesutampa“ su vaizdu
Jei garso takelis generuotas kartu su vaizdu, gali būti:
- lūpos juda ne visiškai pagal garsą
- žingsnių, kvėpavimo ar aplinkos garsas neatsilieka nuo veiksmų
- balso intonacija monotoniška, pernelyg „lygi“
- fone girdisi „tušti“ garsai, lyg jie būtų generuoti, o ne įrašyti
Garsas yra vienas patikimiausių IA sukurtų klipų išdavikų.
Trumpi klipai – dar vienas įspėjamasis ženklas
Dauguma dirbtinio intelekto sukurtų vaizdo įrašų:
- trunka 6–10 sekundžių
- yra sujungti iš kelių trumpų fragmentų
- iškirpimo vietose matomos mažos „peršokimo“ klaidos
Kuo trumpesnis ir ryškiau sukomponuotas įrašas – tuo didesnė tikimybė, kad jis generuotas.

O kaip dėl vandens ženklų? Ar jie padeda?
Teoriškai – taip. Praktikoje – nebe.
- dauguma dirbtinio intelekto įrankių savo įrašus žymi vandens ženklais
- internete pilna instrukcijų, kaip juos pašalinti
- „Washington Post“ atlikus bandymą paaiškėjo, kad net kelios platformos nepažymi IA vaizdo įrašų, nors jie tokie
Vienintelė platforma, kuri ženklą pridėjo automatiškai, buvo YouTube.
Vadinasi, vandens ženklai – silpnas saugiklis.
Dirbtinio intelekto įrašus atpažinti darosi sunku – ir tai tik pradžia
Ekspertai įspėja:
„Šiandien veikiančios taisyklės gali pasenti per kelis mėnesius.“
Būtina keisti požiūrį. Neužtenka vien žiūrėti – reikia analizuoti.
Kaip apsisaugoti? Penkios praktinės taisyklės
- Visada abejokite pirmu įspūdžiu. Ypač jei įrašas kelia stiprias emocijas.
- Patikrinkite šaltinį. Ne platformą, o konkretų naudotoją.
- Ieškokite fizikos klaidų fone. Judesiai – geriausi IA išdavikai.
- Patikrinkite, ar yra ilgesnė versija. IA klipai dažniausiai labai trumpi.
- Naudokite IA detektorius. Tai ne tobula, bet geriau nei nieko – „Hive“, „Sensity“, „Deepware“.
Išvada
Dirbtinio intelekto generuojami vaizdo įrašai tapo nauja dezinformacijos era. Tačiau kiekvienas iš mūsų gali apsisaugoti – ne technologijomis, o kritiniu mąstymu.
Nuo šiandien taisyklė paprasta:
Jei vaizdo įrašas atrodo per geras, per emocingas arba per keistas – tikrinkite, o ne tikėkite.
