Новое и опасное: дипфейки
Справка: дипфейк (от англ. deepfake) – синтез изображения, основанный на машинном обучении. Технология: с помощью искусственного интеллекта обрабатывается несколько изображений человека, на основе этих изображений создается видео. ИИ, обрабатывая фото, учится распознавать и проецировать движения и образ человека. Подделка настолько реалистична, что доказать фейковость видео сложно.
В чем опасность?
С помощью новейших программ создать такое фейковое видео могут не только специалисты по машинному обучению. В сети все чаще появляются фальшивые видео, дискредитирующие публичных людей.
Речь политиков превращается в речь алкоголиков, человек совершает поступки, которые никогда не совершал. И если раньше видео могло быть весомым доказательством в суде, то к чему приведет создание фальшивых видео, которые от подлинных отличить невозможно?
Американцы всерьез озабочены проблемой дипфейков. Журнал Forbes заявляет о том, что технология ИИ уже сейчас влияет на политику, со временем это приведет к тому, что такие видео могут стать угрозой нацбезопасности.
Без вывода.