Общество05.05.2025 - 02:24Каждый второй гражданин России (страна-террорист) в конце года может стать жертвой дипфейк-атаки. Эксперты отметили, что в текущем году технологии создания и редактирования видео, а также имитации голосов значительно усовершенствовались. В результате современные дипфейки становятся всё труднее распознать.
Фото: contrastwerkstatt, источник: FotoliaКаждый второй гражданин РФ к концу 2025 года может столкнуться с дипфейк-атакой, уверяют специалисты в области искусственного интеллекта.
Согласно данным «Известий», дипфейками называют изображения или видеозаписи, где голос или внешний вид личности «подделаны» с помощью нейросетей. Эксперты подчеркнули, что злоумышленники могут в реальном времени имитировать разговор с якобы другом, который просит о помощи, или коллегой, срочно нуждающимся в деньгах.
Специалисты выделили, что в этом году технологии создания и редактирования видео, а также клонирования голосов значительно развились. На этом фоне современные дипфейки становятся всё сложнее обнаружить.
Видеозвонки и голосовые сообщения в мессенджерах являются одними из наиболее популярных способов общения. В связи с этим они представляют собой потенциальную наибольшую угрозу для использования мошенниками после телефонных звонков. Кроме того, в отличие от звонков, которые можно проверить по номеру, у голосовых сообщений и видеозвонков отсутствует возможность удостовериться в их источнике, отметили в пресс-службе MTS AI.
Ранее сообщалось, что поддельное видео с Сергеем Аксеновым о запрете Дня Победы было создано мошенниками.
Автор: Наталья Лебедева




Новые комментарии