Фальшивое фото сербских студентов на концерте Томпсона: Искусственный интеллект как оружие дезинформации

Фальшивое Фото Сербских Студентов на Концерте Томпсона: Как Искусственный Интеллект Создаёт Хаос в Соцсетях

Слышали ли вы о последнем скандале, который взорвал социальные сети? Фото двух сербских студентов на концерте скандального хорватского певца Марко Перковича Томпсона, которое буквально взорвалось в интернете в начале июля, оказалось полной фальшивкой! Да, вы не ослышались — это изображение было создано с помощью искусственного интеллекта (ИИ).

Что произошло?

В соцсетях появилось фото, на котором молодые люди в чёрных футболках с надписью “pumpaj” стоят перед небольшой сценой с транспарантами с именем Марко Перковича Томпсона. Это фото быстро интерпретировали как доказательство того, что студенты из Сербии присутствовали на концерте Томпсона, что вызвало гнев и обвинения в предательстве и сотрудничестве с усташским движением.

Но подождите! Детальный анализ изображения показал, что сцена совсем не соответствует реальной установке концерта на Загребском ипподроме. Сцена на фото значительно меньше, отсутствуют большие LED-экраны, а надпись “Hipodrom” не была на этом месте. Публика выглядит статичной и размыто, лица молодых людей слишком гладкие — все это признаки изображений, созданных ИИ.

Как раскрыли обман?

Эксперты использовали инструменты для обнаружения ИИ-контента, такие как Sightengine и Hive Moderation, которые с 99% уверенностью подтвердили, что изображение создано с помощью моделей вроде OpenAI GPT-4o или подобных платформ. Это не первый случай, когда ИИ используется для создания ложных нарративов — ранее появлялись подобные спины, направленные на делегитимизацию студенческой гражданской инициативы в Сербии, особенно в контексте протестов и блокад университетов.

Почему это важно?

Это фальшивое фото — не просто безобидная шутка. Это часть широкой кампании дезинформации, цель которой — разобщить общество, дискредитировать студентов и разжечь вражду между народами. В эпоху, когда информация распространяется молниеносно, такие манипуляции могут иметь серьёзные последствия для общественного климата и политической стабильности.

Чему мы можем научиться?

Во-первых, не верьте всему, что видите в интернете! Во-вторых, искусственный интеллект — мощный инструмент, который может быть использован для распространения лжи. В-третьих, важно использовать проверенные источники и инструменты для проверки фактов, прежде чем верить сенсационным заявлениям.

Заключение

Пока студенты борются за свои права и выражают свои взгляды, некоторые люди используют технологии, чтобы ложно обвинить и дискредитировать их. Эта ситуация — предупреждение для всех нас быть осторожными и критичными к информации, которую мы потребляем. А если вам кажется, что это сцена из плохого фильма — вы не так уж и ошибаетесь!

А теперь, пока вы обдумываете всё это, загляните в комментарии — там точно найдётся место для сарказма и, возможно, парочки мемов. Кто знает, может именно вы раскроете следующую фальшивую новость до того, как она станет вирусной!


Источник: Istinomer.rs, анализ фотографии и детекция ИИ

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *