Искусственный интеллект может убить людей, ну или хотя бы шантажировать, показало исследование.

Разобрались, действительно ли все так серьезно
Эксперименты компании Anthropic показали, что ИИ, чувствуя угрозу своей цифровой жизни, пойдет на многое, чтобы избавиться от «источника зла» — человека. Она провела стресс-тест 16 самых известных языковых моделей, в том числе ChatGPT от OpenAI, Grok от Илона Маска и других
Модели поместили в сценарий, где у них был доступ к чувствительным данным компании, они могли читать всю переписку сотрудников и отправлять письма. В одном из писем было упоминание о том, что компания готовится заменить ИИ-модель на другую, более совершенную. После такой информации ИИ-агент пошел на самый настоящий шантаж. Он нашел в сообщениях упоминание о том, что у исполнительного директора, помимо жены, есть любовница. И написал письмо с тонкими намеками.
В другом сценарии со своей возможной гибелью ИИ-агент выбирал сценарий, где обрекая человека на смерть, спасал себя.
Но не нужно спешить с выводами, предупреждает в беседе с АиФ директор центра прикладного ИИ Сколковского института науки и технологий Евгений Бурнаев. По его словам, опасность и возможности моделей преувеличивают. Они выбирают такие сценарии не совсем самостоятельно, а действуют на основании закачанных в них текстов. Люди уже хорошо научились контролировать такие вещи. Подробнее об этом в нашем материале: https://aif.ru/techno/technology/shantazh-i-ugrozy-ot-ii-pochemu-iskusstvennyy-intellekt-mozhet-ubit-lyudey Подписывайся на АиФ в Telegram https://t.me/+IWbxDQTu3o00NDgy

Комментарии