Рубрик
Проблема реалистичности ИИ-контента растет, и этот рост сильно ускорился с выходом обновленной версии приложения Sora 2. Не прошло и недели после обновления, как Сеть заполонила масса искусственных видеороликов, многие из которых трудно отличить от настоящих даже продвинутым интернет-пользователям. Особое внимание пользователей уделяется шок-контенту – сгенерированные видео катастроф, нападений животных¹ и прочих происшествий² набирают больше всего просмотров. Популярностью также пользуются ролики «с камер наблюдения» в общественном транспорте, пункте выдачи (https://t.me/doctorsaifer/1804) или у подъезда. Чаще всего такие видео про конфликты и потасовки. Тем временем похожая на Sora 2 платформа задала новый тренд в Сети. С её помощью подростки разыгрывают родителей (https://riamo.ru/news/obschestvo/mama-ja-privel-bomzha-molodezh-razygryvaet-roditelej-s-pomoschju-ii-foto/), генерируя изображения бездомного, расхаживающего по квартире. Тренд стал популярным и в корпоративной среде, где сотрудники сообщают начальству о неожиданном визите Владимира Путина (https://ural.tsargrad.tv/dzen/besplatno-dajte-emu-putin-v-avtosalone-dovjol-biznesmena-do-isteriki_1410310). ❗️ Логично предположить, что возможность генерировать фейковые видео, которые многим трудно отличить от настоящих, создает массу рисков. ➡ Только представьте, что будет, если за короткий срок в Сети распространятся несколько похожих искусственных видео с разных ракурсов, где «запечатлены», к примеру, крупная катастрофа или выражение общественных недовольств (https://t.me/RockstarFans/10128). А если эти несколько роликов еще и будут подкреплены парочкой вбросов, «подтверждающих» реальность происходящего на видео? Все это на некоторое время может создать панические настроения, с которыми уже можно «работать» в дальнейшем. ➡ Вред с помощью таких роликов или фото могут наносить и точечно. Эти приложения – отличный инструмент для мошенников, использующих фейковые фото и видео в качестве доказательств своей лжи. Кроме того, с помощью этих сервисов возможно получить реальный репутационный ущерб стараниями обычных недоброжелателей из числа знакомых. Для разоблачения фейковых изображений уже есть сервисы детектирования ИИ-контента. Однако на сегодняшний день они далеки от совершенства, поскольку и их все еще легко обмануть. На днях также появилась новость (https://t.me/shot_shot/87924) о готовящемся законопроекте, предусматривающем штрафы за распространение фейкового ИИ-контента. Правда, все это до сих пор не решает существующих проблем, из-за которых нынешнее интернет-пространство вызывает еще больше недоверия. Сегодня даже старые популярные ролики, снятые еще до начала эры искусственного интеллекта, выглядят ненастоящими, а каждый новый ролик рождает еще больше сомнений по поводу его подлинности. __________ ¹https://www.instagram.com/reel/DPoQj3viBaJ/ ²https://www.instagram.com/reel/DPXcABakQw2/ – Instagram (запрещен в РФ, принадлежит корпорации Meta, которая признана в РФ экстремистской) #Правда_Крибрум
1 фото
Проблема реалистичности ИИ-контента растет, и этот рост сильно ускорился с выходом обновленной версии приложения Sora 2
Рубрики
Осторожно, cоциальные сети!