«Мама, помоги, мне срочно нужны средства!

» — но это не родной голос. Это ИИ.
Вообразите: вам звонят. Голос — знакомый, узнаваемый до мелочей. Просит перевести деньги, сообщает о серьёзной проблеме.
А потом выясняется — никакого звонка не было. На самом деле это была нейросеть, сгенерированный голос. Злоумышленник загрузил в систему несколько фраз из социальных сетей или мобильных приложений — и всё, поддельный «близкий человек» создан.
Такое уже случается. И именно подобные инциденты подтолкнули власти одобрить второй антимошеннический пакет.
Теперь, если мошенники используют ИИ — им светит до пятнадцати лет заключения.
Что это значит для нас с вами:
— Если у вас украдут деньги через «голос дочки» — теперь это будет считаться преступлением с усугубляющими факторами.
— Если поступит звонок от якобы банка, но это окажется дипфейк — есть шанс, что таких мошенников накажут строже.
— Если взломают ваш аккаунт с помощью ИИ — это уже не просто цифровое нарушение, а дело с серьёзными сроками.
В список угроз входят разработки, которые умеют:
— имитировать речь и внешность,
— создавать фейковые документы,
— взламывать устройства и пересылать личную информацию,
— самостоятельно вводить в заблуждение и требовать средства.
Но есть и неоднозначные аспекты. По словам экспертов, в законопроекте слишком широко прописано, что можно называть искусственным интеллектом. Это может привести к путанице и проблемам даже у законопослушных пользователей.
Главное — быть настороже. Не верьте звонкам, даже если кажется, что это «ваш человек». Проверяйте, перезванивайте, не спешите переводить деньги. А если вы подозреваете обман — обращайтесь в полицию. Теперь у них есть реальный инструмент, чтобы привлечь к ответственности тех, кто использует ИИ во зло.

«Мама, помоги, мне срочно нужны средства!» — но это не родной голос. - 963881301403

Комментарии

Комментариев нет.