«Мама, помоги, мне срочно нужны средства!
» — но это не родной голос. Это ИИ.
Вообразите: вы получаете звонок. Голос — родной, знакомый до дрожи. Просит перевести деньги, сообщает о серьёзной проблеме.
Позже становится ясно — никто не звонил. На самом деле это была нейросеть, сгенерированный голос. Злоумышленник загрузил в систему отрывки речи из социальных сетей или мобильных приложений — и всё, фальшивый «родственник» готов.
Это уже происходит. И именно подобные инциденты вынудили государство одобрить новый пакет мер против мошенников.
Теперь, если злоумышленники применяют искусственный интеллект — им светит до 15 лет тюрьмы.
Что это означает для нас с вами:
— Если у вас украдут деньги через подделанный голос родственника — теперь это будет рассматриваться как правонарушение с отягчающими обстоятельствами.
— Если поступит звонок от якобы банка, но это окажется технологическая подделка — есть шанс, что таких преступников привлекут строже.
— Если взломают ваш аккаунт с помощью ИИ — это уже не просто киберпреступление, а уголовное дело со строгим наказанием.
Под удар попадают технологии, которые умеют:
— подделывать голос и лицо,
— генерировать поддельные бумаги,
— взламывать устройства и пересылать личную информацию,
— самостоятельно вводить в заблуждение и требовать средства.
Но есть и неоднозначные аспекты. По словам экспертов, в законопроекте слишком расплывчато сформулировано, что можно называть искусственным интеллектом. Это может вызвать недоразумения и трудности даже у законопослушных пользователей.
Главное — быть настороже. Не доверяйте звонящим, даже если звучит как кто-то близкий. Проверяйте, перезванивайте, не спешите переводить деньги. А если вас пытаются обмануть — обращайтесь в полицию. Теперь у них есть официальный механизм, чтобы наказать тех, кто применяет технологии для преступлений.
Дня через 2 . Звонит *внук* из больницы. Спрашиваю - *Серёжа, это ты?*. Говорит - *да*.
У моих внуков другие имена...