Lažni snimci iranskog oružja: Kako umjetna inteligencija pravi ratne laži

Lažni snimci iranskog oružja: Kako umjetna inteligencija pravi ratne laži

Uvod u digitalnu zavjeru

Društvene mreže krajem juna preplavile su snimci koji navodno prikazuju Iran kako izvlači najopasnije oružje iz planinskih tunela. Rakete, vojni kamioni, dramatični pejzaži – sve je to trebalo uvjeriti javnost u opasnost koju Iran navodno nosi. Ali, čekajte malo… je li to stvarno ili samo još jedna digitalna iluzija?

Više verzija istog lažnog filma

Na prvi pogled, snimci izgledaju kao da su iz ratnog filma. Međutim, kad se bolje pogleda, primijeti se da su skoro identični, samo sa sitnim razlikama u rasporedu vozila, brzini kretanja ili čak muzičkoj podlozi. Kao da je neko napravio nekoliko verzija istog filma da nas zbuni!

AI na djelu: Google DeepDream ili DeepFake?

Obrnuta pretraga otkriva da je jedan od tih snimaka objavljen na TikToku 23. juna sa vodenim žigom alata za generisanje video zapisa koji je razvio Google DeepDream (DeepD). Još jedan raniji snimak sa YouTube-a iz juna jasno navodi da je riječ o fiktivnoj simulaciji, napravljenoj pomoću AI alata Veo2 AI, i da ne prikazuje stvarne vojne operacije ili događaje.

Grafičke nepravilnosti koje vrište laž

Ako ste mislili da je to sve, varate se! Snimci su puni nelogičnosti: automobili voze unazad, stapaju se sa okolinom, stubovi izgledaju kao da su nacrtani, prašina ne leti, rakete stoje nepomično u trenutku lansiranja, a zastave se njišu u različitim, nelogičnim pravcima. Vojnici su u čudnim pozama, lica i ekstremiteti su zamućeni – sve to ukazuje na digitalnu montažu i AI generisani sadržaj.

Širenje dezinformacija u doba AI

Ovi snimci nisu samo bezazleni video zapisi – oni su dio šireg trenda širenja dezinformacija pomoću umjetne inteligencije. AI je postao dvostruki mač: s jedne strane, moćan alat za napredak, a s druge, sredstvo za pravljenje uvjerljivih laži koje mogu manipulirati javnošću i stvarati paniku.

Zašto je ovo opasno?

U svijetu gdje informacije putuju brže od svjetlosti, ovakve lažne snimke mogu izazvati međunarodne tenzije, paniku i pogrešne odluke. Zamislite samo da neko povjeruje da Iran zaista izvlači smrtonosno oružje iz tunela i da to postane povod za sukob!

Kako prepoznati lažne snimke?

  • Obratite pažnju na nelogične detalje u videu.
  • Provjerite izvore i datume objava.
  • Koristite alate za provjeru autentičnosti slika i video zapisa.
  • Budite skeptični prema dramatičnim tvrdnjama bez potvrde iz više izvora.

Zaključak

Umjetna inteligencija postala je majstor u pravljenju lažnih video zapisa koji izgledaju uvjerljivo, ali su daleko od stvarnosti. Ovi iranski snimci su samo vrh ledenog brijega u digitalnoj eri dezinformacija. Budite pametni, provjeravajte informacije i ne dozvolite da vas lažne slike i video zapisi zavaraju.

A sad, ako ste uspjeli prepoznati koliko je ovaj video lažan bez da ste koristili AI detektor, čestitamo! Ako niste, možda je vrijeme da se malo više igrate s tim alatima. Ili nam ostavite komentar s vašim omiljenim primjerom digitalne prevare – možda zajedno otkrijemo još neke lude AI trikove!


Izvor: Istinomer.ba, analiza snimaka generisanih AI alatima Google DeepDream i Veo2 AI, juni 2023.

Komentariši

Vaša email adresa neće biti objavljivana. Neophodna polja su označena sa *