Специалист Северо-Кавказского федерального университета рассказал, как выявлять контент, созданный искусственным интеллектом, и не стать жертвой цифровых подделок.
Отличить подлинные материалы от созданных нейросетями становится всё сложнее. В соцсетях появляются несуществующие люди, видео с политиками и знаменитостями, которые говорят то, чего в реальности никогда не говорили. Голосовые сообщения имитируют близких, точно копируя тембр и интонации.
«В эпоху искусственного интеллекта особенно важно не терять бдительность. Проверяйте изображения и видео через сервисы обратного поиска, сравнивайте факты из разных источников, не доверяйте слишком идеальным кадрам и громким словам. Нейросети умеют имитировать реальность, но критическое мышление всё ещё остаётся лучшей защитой от обмана», — отметил начальник управления по информации и связям с общественностью СКФУ Максим Тизенгаузен.
У фотографий, созданных ИИ, есть характерные особенности: ошибки в прорисовке пальцев, ушей и теней, излишне идеальная кожа без текстуры, неестественные глаза, нечитаемые надписи на вывесках, размытый фон со странной перспективой.
Видео выдаёт несовпадение движения губ и речи, отсутствие естественных микродвижений, механическое моргание, застывшая мимика. Свет и тени, не подчиняющиеся законам физики, также указывают на дипфейк.
Синтетическая речь звучит слишком ровно, без пауз, вздохов и запинок. Эмоции кажутся стерильными, словно озвучены роботом. Часто отсутствуют фоновые звуки, создавая эффект вакуума.
Нейросети требуют ответственности от всех участников процесса: прозрачности от разработчиков, маркировки от медиа и внимательности от потребителей контента, подчёркивает эксперт. |