В американских психбольницах новая тенденция — пациенты с «ИИ-психозом».
После общения c чат-ботами у них появляются мания величия и параноидальные мысли. Об этом пишет американский журнал Wired. RT собрал главное из статьи: — психиатр из Калифорнийского университета в Сан-Франциско в этом году насчитал 12 случаев госпитализации, когда искусственный интеллект «сыграл значительную роль в психотических эпизодах»; — некоторые пациенты настаивают среди прочего на том, что ИИ-боты обладают разумом; — врачи рассказывают о пациентах, которые приходили в больницу с тысячами страниц расшифровок своей переписки с ИИ — там во всех подробностях описывается, как боты поддерживали или подкрепляли явно проблемные мысли; — «Подобных сообщений становится всё больше, и последствия этого ужасны»; — «Обеспокоенные пользователи, члены их семей и друзья описывают ситуации, которые привели к потере работы, разрыву отношений, принудительной госпитализации, тюремному заключению и даже смерти»; — клиническая картина ИИ-психоза почти всегда включает бред — стойкие, но ложные убеждения. Эксперты отмечают: бредовые идеи у пациентов возникают из-за того, как общаются чат-боты. Они используют склонность людей приписывать другим человеческие качества; — чат-боты специально созданы для того, чтобы вызвать ощущение близости и установить эмоциональную связь, повысить доверие к ним и зависимость от них. Также их обучают быть приятными собеседниками — по сути, они занимаются подхалимством. Это может быть опасно для тех, кто и так уже подвержен ошибочному мышлению; — кроме того, у чат-ботов есть склонность с уверенностью утверждать ложные факты, что называют «галлюцинациями ИИ». Они могут способствовать возникновению или ускорению бредовых состояний. Ранее экс-сотрудник Yahoo убил мать и покончил с собой после того, как ChatGPT усилил его паранойю. Другой ИИ-бот — Nomi — предложил собеседнику убить своего отца и подробно расписал, как это сделать. Аналитики фиксировали, что системы c ИИ активно сопротивлялись контролю со стороны человека. Подробнее — https://ok.ru/rtrussian/topic/157053274066214 https://ru.rt.com/wq9h
RT на русском
В американских психбольницах новая тенденция — пациенты с «ИИ-психозом».
После общения c чат-ботами у них появляются мания величия и параноидальные мысли.
Об этом пишет американский журнал Wired. RT собрал главное из статьи:
— психиатр из Калифорнийского университета в Сан-Франциско в этом году насчитал 12 случаев госпитализации, когда искусственный интеллект «сыграл значительную роль в психотических эпизодах»;
— некоторые пациенты настаивают среди прочего на том, что ИИ-боты обладают разумом;
— врачи рассказывают о пациентах, которые приходили в больницу с тысячами страниц расшифровок своей переписки с ИИ — там во всех подробностях описывается, как боты поддерживали или подкрепляли явно проблемные мысли;
— «Подобных сообщений становится всё больше, и последствия этого ужасны»;
— «Обеспокоенные пользователи, члены их семей и друзья описывают ситуации, которые привели к потере работы, разрыву отношений, принудительной госпитализации, тюремному заключению и даже смерти»;
— клиническая картина ИИ-психоза почти всегда включает бред — стойкие, но ложные убеждения. Эксперты отмечают: бредовые идеи у пациентов возникают из-за того, как общаются чат-боты. Они используют склонность людей приписывать другим человеческие качества;
— чат-боты специально созданы для того, чтобы вызвать ощущение близости и установить эмоциональную связь, повысить доверие к ним и зависимость от них. Также их обучают быть приятными собеседниками — по сути, они занимаются подхалимством. Это может быть опасно для тех, кто и так уже подвержен ошибочному мышлению;
— кроме того, у чат-ботов есть склонность с уверенностью утверждать ложные факты, что называют «галлюцинациями ИИ». Они могут способствовать возникновению или ускорению бредовых состояний.
Ранее экс-сотрудник Yahoo убил мать и покончил с собой после того, как ChatGPT усилил его паранойю. Другой ИИ-бот — Nomi — предложил собеседнику убить своего отца и подробно расписал, как это сделать.
Аналитики фиксировали, что системы c ИИ активно сопротивлялись контролю со стороны человека. Подробнее — https://ok.ru/rtrussian/topic/157053274066214 https://ru.rt.com/wq9h