Lažni snimci iranskog oružja: Kako veštačka inteligencija pravi ratne laži
Uvod u digitalnu zaveru
Društvene mreže su krajem juna eksplodirale snimcima koji navodno prikazuju Iran kako izvlači najopasnije oružje iz planinskih tunela. Rakete, vojni kamioni, dramatični pejzaži – sve je to trebalo da nas uveri u opasnost koju Iran navodno nosi. Ali, čekajte malo… da li je sve to stvarno ili samo još jedna digitalna iluzija?
Više verzija istog lažnog filma
Na prvi pogled, snimci izgledaju kao da su iz ratnog filma. Međutim, kad se malo bolje pogleda, primeti se da su skoro identični, samo sa sitnim razlikama u rasporedu vozila, brzini kretanja ili čak muzičkoj podlozi. Kao da je neko napravio nekoliko verzija istog filma da nas zbuni!
AI na delu: Google DeepDream ili DeepFake?
Obrnuta pretraga otkriva da je jedan od tih snimaka objavljen na TikToku 23. juna sa vodenim žigom alata za generisanje video zapisa koji je razvio Google DeepDream (DeepD). Još jedan raniji snimak sa YouTube-a iz juna jasno navodi da je reč o fiktivnoj simulaciji, napravljenoj pomoću AI alata Veo2 AI, i da ne prikazuje stvarne vojne operacije ili događaje.
Grafičke nepravilnosti koje vrište laž
Ako ste mislili da je to sve, varate se! Snimci su puni nelogičnosti: automobili voze unazad, stapaju se sa okolinom, stubovi izgledaju kao da su nacrtani, prašina ne leti, rakete stoje nepomično u trenutku lansiranja, a zastave se njišu u različitim, nelogičnim pravcima. Vojnici su u čudnim pozama, lica i ekstremiteti su zamućeni – sve to ukazuje na digitalnu montažu i AI generisani sadržaj.
Širenje dezinformacija u doba AI
Ovi snimci nisu samo bezazleni video zapisi – oni su deo šireg trenda širenja dezinformacija pomoću veštačke inteligencije. AI je postao dvosekli mač: s jedne strane, moćan alat za napredak, a sa druge, sredstvo za pravljenje uverljivih laži koje mogu da manipulišu javnošću i stvaraju paniku.
Zašto je ovo opasno?
U svetu gde informacije putuju brže od svetlosti, ovakve lažne snimke mogu da izazovu međunarodne tenzije, paniku i pogrešne odluke. Zamislite samo da neko poveruje da Iran zaista izvlači smrtonosno oružje iz tunela i da to postane povod za sukob!
Kako prepoznati lažne snimke?
- Obratite pažnju na nelogične detalje u videu.
- Proverite izvore i datume objava.
- Koristite alate za proveru autentičnosti slika i video zapisa.
- Budite skeptični prema dramatičnim tvrdnjama bez potvrde iz više izvora.
Zaključak
Veštačka inteligencija je postala majstor u pravljenju lažnih video zapisa koji izgledaju uverljivo, ali su daleko od stvarnosti. Ovi iranski snimci su samo vrh ledenog brega u digitalnoj eri dezinformacija. Budite pametni, proveravajte informacije i ne dozvolite da vas lažne slike i video zapisi zavode.
A sad, ako ste uspeli da prepoznate koliko je ovaj video lažan bez da ste koristili AI detektor, čestitamo! Ako niste, možda je vreme da se malo više igrate sa tim alatima. Ili nam ostavite komentar sa vašim omiljenim primerom digitalne prevare – ko zna, možda zajedno otkrijemo još neke lude AI trikove!
Izvor: Istinomer.rs, analiza snimaka generisanih AI alatima Google DeepDream i Veo2 AI, jun 2023.