‼ Получив аудио- или видеосообщение от знакомого с просьбой о помощи, переводе денег, лучше проверить, действительно ли его записал реальный человек.
Современная технология – дипфейк – позволяет мошенникам подделывать голоса и внешность людей с помощью искусственного интеллекта Чтобы создать цифровую копию конкретного человека, мошенники используют фотографии, видео- и аудиозаписи, полученные из открытых источников, взломанных аккаунтов в социальных сетях или мессенджерах. Затем они создают убедительные видеоролики, где виртуальный двойник, голос которого трудно отличить от оригинала, сообщает о мнимой проблеме – болезни, ДТП, финансовых трудностях и просит о помощи, требуя перевести деньги на якобы безопасный счет. Используют даже образы известных личностей, государственных служащих или работодателей, чтобы повысить доверие к своей схеме. ⬇ Чтобы не стать жертвой мошенников, в Управлении МВД России по Мурманской области рекомендуют: - Не спешите переводить деньги. Сначала позвоните тому, от чьего имени поступило сообщение, перепроверьте информацию. - Чтобы во время видеозвонка понять, реальный ли это человек или сгенерированный образ, уделите внимание деталям. Искусственные интеллект-технологии все еще несовершенны. Неестественная монотонная речь собеседника, дефекты звука и видео, несвойственная мимика лица или глаз, отсутствие моргания или слишком плавное движение могут свидетельствовать о том, что это мошенническая схема. - Чтобы убедиться, что не используется дипфейк, можно попросить собеседника при онлайн-общении повернуть голову или провести перед собой рукой. Искусственный интеллект в настоящее время очень плохо справляется с расчетами таких неожиданных задач и просьб. - Задайте собеседнику личный вопрос, ответ на который знает только ваш знакомый.
Kn51 – Мончегорск, Никель, Заполярный. Новости
‼ Получив аудио- или видеосообщение от знакомого с просьбой о помощи, переводе денег, лучше проверить, действительно ли его записал реальный человек.
Современная технология – дипфейк – позволяет мошенникам подделывать голоса и внешность людей с помощью искусственного интеллекта
Чтобы создать цифровую копию конкретного человека, мошенники используют фотографии, видео- и аудиозаписи, полученные из открытых источников, взломанных аккаунтов в социальных сетях или мессенджерах. Затем они создают убедительные видеоролики, где виртуальный двойник, голос которого трудно отличить от оригинала, сообщает о мнимой проблеме – болезни, ДТП, финансовых трудностях и просит о помощи, требуя перевести деньги на якобы безопасный счет.
Используют даже образы известных личностей, государственных служащих или работодателей, чтобы повысить доверие к своей схеме.
⬇ Чтобы не стать жертвой мошенников, в Управлении МВД России по Мурманской области рекомендуют:
- Не спешите переводить деньги. Сначала позвоните тому, от чьего имени поступило сообщение, перепроверьте информацию.
- Чтобы во время видеозвонка понять, реальный ли это человек или сгенерированный образ, уделите внимание деталям. Искусственные интеллект-технологии все еще несовершенны. Неестественная монотонная речь собеседника, дефекты звука и видео, несвойственная мимика лица или глаз, отсутствие моргания или слишком плавное движение могут свидетельствовать о том, что это мошенническая схема.
- Чтобы убедиться, что не используется дипфейк, можно попросить собеседника при онлайн-общении повернуть голову или провести перед собой рукой. Искусственный интеллект в настоящее время очень плохо справляется с расчетами таких неожиданных задач и просьб.
- Задайте собеседнику личный вопрос, ответ на который знает только ваш знакомый.