Hey.lt - Nemokamas lankytojų skaitliukas

Dirbtinio intelekto vaizdo įrašai tampa maru: kaip atpažinti, ar vaizdo įrašas tikras?

Dirbtinio intelekto vaizdo įrašų kūrimas
4 min. skaitymo

Dirbtinis intelektas šiandien gali sukurti vaizdo įrašus, kuriuos net specialistams tampa sudėtinga atskirti nuo realybės. Tai revoliucija, turinti ir šviesiąją, ir itin pavojingą pusę. Nuo humoristinių klipų iki dezinformacijos kampanijų – dirbtinio intelekto generuojama medžiaga plinta taip greitai, kad tampa tikru skaitmeniniu maru. Tad kaip atpažinti, ar vaizdo įrašas tikras?

Kodėl tai tapo problema dabar?

Dar 2023 m. dirbtinio intelekto generuoti vaizdai ir vaizdo įrašai buvo tiesiog juokingi – keistos rankos, šeši pirštai, kreivas tekstas. Šiandien to beveik nebėra.

Naujausi generatoriai, tokie kaip OpenAI Sora ar Google Veo, kuria tikroviškus, sklandžiai judančius vaizdo įrašus, kuriuose klaidos – subtilios ir sunkiai pastebimos.

Tai pavojinga dėl kelių priežasčių:

  • vaizdo įrašai vis dar laikomi „labiausiai įtikinamu įrodymu“
  • juos lengva panaudoti politinei manipuliacijai
  • jie tampa nauju sukčiavimo įrankiu
  • žmonės natūraliai pasitiki tuo, ką mato savo akimis

Ekspertai įspėja: atsainus požiūris tampa rizika.

Trys ženklai, kad vaizdo įrašas – dirbtinis
Trys ženklai, kad vaizdo įrašas – dirbtinis

Trys ženklai, kad vaizdo įrašas – dirbtinis

1. Prasta arba dirbtinai „triukšminga“ kokybė

Dirbtinio intelekto generatoriai dažnai specialiai „prastina“ vaizdą, kad paslėptų trūkumus:

  • stebėjimo kamerų imitacija
  • ryškumo šuoliai
  • „triukšmingas“, grūdėtas fonas

Tai leidžia lengviau užmaskuoti fizikos klaidas ar keistai elgiančius objektus.

Pvz.: populiarus „TikTok“ klipas, kuriame triušiai šokinėja ant batuto – žaidžiama prastinimu, kad nematytumėte klaidų fone.

2. Fizikos dėsnių nesilaikymas

Dirbtinis intelektas dar nepakankamai supranta realaus pasaulio taisykles.

Stebėkite:

  • daiktus, kurie keistai išnyksta arba atsiranda
  • šešėlius, kurie juda nenatūraliai
  • drabužius ar plaukus, kurie juda „lyg skystyje“
  • objektus, kuriuos vos matoma jėga „pastumia“ ar „pakelia“
  • žingsnių ar rankų judesių nesinchroniškumą su aplinka

Dažnai tai pastebima fone – ne pagrindiniame veikėjui.

3. Garsas, kuris „nesutampa“ su vaizdu

Jei garso takelis generuotas kartu su vaizdu, gali būti:

  • lūpos juda ne visiškai pagal garsą
  • žingsnių, kvėpavimo ar aplinkos garsas neatsilieka nuo veiksmų
  • balso intonacija monotoniška, pernelyg „lygi“
  • fone girdisi „tušti“ garsai, lyg jie būtų generuoti, o ne įrašyti

Garsas yra vienas patikimiausių IA sukurtų klipų išdavikų.

Trumpi klipai – dar vienas įspėjamasis ženklas

Dauguma dirbtinio intelekto sukurtų vaizdo įrašų:

  • trunka 6–10 sekundžių
  • yra sujungti iš kelių trumpų fragmentų
  • iškirpimo vietose matomos mažos „peršokimo“ klaidos

Kuo trumpesnis ir ryškiau sukomponuotas įrašas – tuo didesnė tikimybė, kad jis generuotas.

Vaizdo įrašas sukurtas su DI
Vaizdo įrašas sukurtas su DI

O kaip dėl vandens ženklų? Ar jie padeda?

Teoriškai – taip. Praktikoje – nebe.

  • dauguma dirbtinio intelekto įrankių savo įrašus žymi vandens ženklais
  • internete pilna instrukcijų, kaip juos pašalinti
  • „Washington Post“ atlikus bandymą paaiškėjo, kad net kelios platformos nepažymi IA vaizdo įrašų, nors jie tokie

Vienintelė platforma, kuri ženklą pridėjo automatiškai, buvo YouTube.

Vadinasi, vandens ženklai – silpnas saugiklis.

Dirbtinio intelekto įrašus atpažinti darosi sunku – ir tai tik pradžia

Ekspertai įspėja:

„Šiandien veikiančios taisyklės gali pasenti per kelis mėnesius.“

Būtina keisti požiūrį. Neužtenka vien žiūrėti – reikia analizuoti.

Kaip apsisaugoti? Penkios praktinės taisyklės

  • Visada abejokite pirmu įspūdžiu. Ypač jei įrašas kelia stiprias emocijas.
  • Patikrinkite šaltinį. Ne platformą, o konkretų naudotoją.
  • Ieškokite fizikos klaidų fone. Judesiai – geriausi IA išdavikai.
  • Patikrinkite, ar yra ilgesnė versija. IA klipai dažniausiai labai trumpi.
  • Naudokite IA detektorius. Tai ne tobula, bet geriau nei nieko – „Hive“, „Sensity“, „Deepware“.

Išvada

Dirbtinio intelekto generuojami vaizdo įrašai tapo nauja dezinformacijos era. Tačiau kiekvienas iš mūsų gali apsisaugoti – ne technologijomis, o kritiniu mąstymu.

Nuo šiandien taisyklė paprasta:

Jei vaizdo įrašas atrodo per geras, per emocingas arba per keistas – tikrinkite, o ne tikėkite.

Esu KAIPKADA.LT portalo redaktorius. Mano tikslas – suteikti skaitytojams aktualią, patikimą ir naudingą informaciją, padedančią geriau suprasti pasaulį aplink mus. Siekiu padėti atrasti svarbiausias žinias ir dalintis įvykiais, kurie gali turėti realią įtaką mūsų kasdieniam gyvenimui.
Komentarų: 0

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *

Primename: kviečiame diskutuoti pagarbiai ir laikytis bendravimo etiketo. Nepagarbūs, įžeidžiantys ar neapykantą skatinantys komentarai bus šalinami. Ačiū už supratingumą!

Komentuodami sutinkate, kad jūsų pateikti duomenys gali būti tvarkomi pagal mūsų privatumo taisykles.