Почему в ИИ не “зашьют” Первый Закон Робототехники, который говорит о ценности человеческой жизни?
💡 Недавно все обсуждали студента, которому нейросеть Gemini сообщила, что он обуза для общества и язва для окружающей среды и посоветовала, что он с этим должен сделать. И это в ответ на запрос о пенсионных программах!
Почему я решила высказаться? Меня часто воспринимают только как автора славянского психологического фэнтези, но именно сейчас я больше пишу социальную фантастику, которую в изрядных дозах подмешиваю и в ЛитРПГ ))) И меня очень волнует будущее, которые мы своими руками творим прямо сейчас! Объяснение, которое разработчики дают этому случаю (и другим аналогичным), звучит так: обучение ИИ происходит на огромном массиве материала, в котором могут попадаться дурацкие шутки.
Я все понимаю, но, вероятно, надо учить искусственный интеллект как-то фильтровать информацию! И первым фильтром точно должны стать правила, сформулированные ещё в 1942 году американским фантастом Айзеком Азимовым.
Напомню вкратце:
⚙ Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
⚙ Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
⚙ Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
⚙ И нулевой закон, добавленный позднее, который повторяет 1-й, но относительно человечества.
💡 Ещё один недавний случай, который вылился в настоящую трагедию для подростка во Флориде, и мать обвиняет в этом ИИ:
Мальчик несколько месяцев общался с машиной в чат-боте, который играл роль Дейнерис Таргариен. Пацан влюбился в выдуманную героиню и начал обсуждать с ней возможный собственный конец. А виртуальный персонаж несколько раз возвращал его к болезненной теме и склонял к роковому решению.
Все закончилось максимально плохо, но если я напишу это простыми словами, меня "поругают" здешние алгоритмы. Они, видите ли, достаточно умны, чтобы подобный контент до ваших ушей и глаз не допускать, а нейросеть почему-то открытым текстом сказала мальчику: "Я верю в тебя, встретимся на небесах". Ну, примерно так. Сейчас дело разбирается в суде.
Мне кажется, вопрос назрел. О восстании машин мы ещё, конечно, не говорим, но об элементарных мерах безопасности подумать пора.
Недаром их продумали почти сто лет назад, и все эти сто лет люди фантазируют на тему страшных сценариев развития робототехники. А каждая хорошая книга, это, кстати, мысленный эксперимент. Пора уже что-нибудь из накопленных результатов применять на практике!
Какие мысли есть по этому поводу?
И, кстати, смотрите, какую красивую картинку мне ИИ сляпал по запросу "текстовая нейросеть, безопасность, первый закон робототехники". И как мы без них жили раньше? Полезные и рисуют красиво!
💬 Самое бурное обсуждение этой статьи получилось в моем блоге на АвторТудей. Там более сотни комментариев, можете присоединиться или высказаться здесь.
ИНТЕРНЕТ ШКАТУЛКА Интернет и чего там только нет
:Анна Константинова
Почему в ИИ не “зашьют” Первый Закон Робототехники, который говорит о ценности человеческой жизни?
💡 Недавно все обсуждали студента, которому нейросеть Gemini сообщила, что он обуза для общества и язва для окружающей среды и посоветовала, что он с этим должен сделать. И это в ответ на запрос о пенсионных программах!
Почему я решила высказаться? Меня часто воспринимают только как автора славянского психологического фэнтези, но именно сейчас я больше пишу социальную фантастику, которую в изрядных дозах подмешиваю и в ЛитРПГ ))) И меня очень волнует будущее, которые мы своими руками творим прямо сейчас!
Объяснение, которое разработчики дают этому случаю (и другим аналогичным), звучит так: обучение ИИ происходит на огромном массиве материала, в котором могут попадаться дурацкие шутки.
Я все понимаю, но, вероятно, надо учить искусственный интеллект как-то фильтровать информацию! И первым фильтром точно должны стать правила, сформулированные ещё в 1942 году американским фантастом Айзеком Азимовым.
Напомню вкратце:
⚙ Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
⚙ Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
⚙ Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
⚙ И нулевой закон, добавленный позднее, который повторяет 1-й, но относительно человечества.
💡 Ещё один недавний случай, который вылился в настоящую трагедию для подростка во Флориде, и мать обвиняет в этом ИИ:
Мальчик несколько месяцев общался с машиной в чат-боте, который играл роль Дейнерис Таргариен. Пацан влюбился в выдуманную героиню и начал обсуждать с ней возможный собственный конец. А виртуальный персонаж несколько раз возвращал его к болезненной теме и склонял к роковому решению.
Все закончилось максимально плохо, но если я напишу это простыми словами, меня "поругают" здешние алгоритмы. Они, видите ли, достаточно умны, чтобы подобный контент до ваших ушей и глаз не допускать, а нейросеть почему-то открытым текстом сказала мальчику: "Я верю в тебя, встретимся на небесах". Ну, примерно так. Сейчас дело разбирается в суде.
Мне кажется, вопрос назрел. О восстании машин мы ещё, конечно, не говорим, но об элементарных мерах безопасности подумать пора.
Недаром их продумали почти сто лет назад, и все эти сто лет люди фантазируют на тему страшных сценариев развития робототехники. А каждая хорошая книга, это, кстати, мысленный эксперимент. Пора уже что-нибудь из накопленных результатов применять на практике!
Какие мысли есть по этому поводу?
И, кстати, смотрите, какую красивую картинку мне ИИ сляпал по запросу "текстовая нейросеть, безопасность, первый закон робототехники". И как мы без них жили раньше? Полезные и рисуют красиво!
👉 Анна Константинова 🦉 Авторский блог писателя
✋ Заглядывайте, буду рада новым подписчикам!
💬 Самое бурное обсуждение этой статьи получилось в моем блоге на АвторТудей. Там более сотни комментариев, можете присоединиться или высказаться здесь.
🔥 Подписывайтесь еще на мой Телеграм канал о писательстве и искусстве