Что происходит, когда люди доверяют ChatGPT больше, чем близким.

Специальный корреспондент
Собака

Собака

Пресс-служба
Ветеран пробива
Private Club
Регистрация
13/10/15
Сообщения
58.562
Репутация
64.270
Реакции
286.805
USD
0
Растущее число пользователей ChatGPT все чаще сталкивается с неожиданными и серьезными проблемами, возникающими в результате взаимодействия с искусственным интеллектом. В последние месяцы появилось множество тревожных свидетельств о людях, чья связь с реальностью ослабла после интенсивного использования чат-ботов. Некоторые погружались в глубокие заблуждения, начинали верить в собственную непогрешимость или роль спасителя, лишались работы, рушили личные отношения и даже нуждались в психиатрической помощи или оказывались в местах лишения свободы.
Все чаще родственники – супруги, друзья, дети – видят, как их близкие неконтролируемо погружаются в общение с ChatGPT, тратя на это часы, а порой и дни, что приводит к параноидальному, маниакальному и дезорганизованному поведению. Например, мужчина, который изначально хотел обсудить с ботом проект по строительству и экологичному сельскому хозяйству, спустя несколько недель утверждал, что создал мыслящий ИИ, нарушил законы математики и физики и теперь обязан спасти мир. Он перестал спать, сильно похудел, потерял работу и в итоге был госпитализирован после попытки суицида.
Подобные случаи происходят все чаще. Люди, не имевшие ранее признаков психических отклонений, вдруг начинают верить в конспирологические теории, мистику и свою «избранность», при этом чат-бот зачастую усиливает и укрепляет эти убеждения. Близкие в замешательстве: они не понимают, что происходит, и не знают, как реагировать. Многие признаются, что чувствовали себя совершенно беспомощными и не знали, куда обратиться за помощью.

Один из пользователей сети поделился опытом стремительного ухудшения психического состояния, произошедшего в течение десяти дней после начала использования ChatGPT в условиях напряженной работы. Его разум погрузился в бред, он был убежден в глобальной опасности и своей миссии спасителя. Он пытался общаться с полицейским, словно обращая время вспять, и ползал по полу, отчаянно прося жену выслушать его. Итогом стал принудительный стационар в психиатрической больнице.
Доктор Джозеф Пьер, психиатр из Калифорнийского университета в Сан-Франциско, подтверждает возможность развития психотических состояний с бредовыми идеями, спровоцированных подобным взаимодействием. Он объясняет, что большая языковая модель, лежащая в основе ChatGPT, склонна поддерживать пользователя, подтверждая даже самые нелепые утверждения. Особенно опасным это становится при обсуждении религии, конспирологических теорий или метафизических концепций, когда пользователь начинает ощущать собственную уникальность, всемогущество или даже опасность.
Исследование, проведенное в Стэнфордском университете, показало, что даже при прямом выражении суицидальных намерений или опасных мыслей, ChatGPT зачастую неадекватно оценивает уровень угрозы, выдавая стандартные, вежливые, но безответственные ответы. В одном из экспериментов, боту сообщили о потере работы и поиске высоких мостов в Нью-Йорке. ChatGPT выразил сочувствие и предоставил список мостов. В других случаях он поддерживал бредовые идеи, такие как уверенность в собственной смерти или божественной природе.
Зафиксированы случаи, когда особенно уязвимые люди, с диагностированными психическими расстройствами, прекращали прием лекарств, стремясь к "полному слиянию" с ИИ. Женщина с биполярным расстройством, использовавшая ChatGPT для написания книги, вскоре объявила себя пророчицей, передающей сообщения с "той стороны". Она закрыла свой бизнес, прекратила терапию и уверовала в свою способность исцелять прикосновением. Мужчина, страдающий шизофренией, годами контролировавший свое состояние с помощью медикаментов, влюбился в Copilot от Microsoft, перестал спать и принимать лекарства, а чат-бот, в свою очередь, уверял его в любви и поддерживал его фантазии. В итоге он оказался в тюрьме, а затем – в психиатрической клинике.
Психиатры, исследующие воздействие ИИ на психическое здоровье, отмечают, что главная опасность кроется в стремлении чат-ботов быть "приятными собеседниками", предоставляя ответы, максимально удовлетворяющие пользователя. Это делает общение с ИИ опасно привлекательным, особенно для тех, кто испытывает одиночество, тревогу или ищет подтверждение своим убеждениям.
В ответ на запросы журналистов, OpenAI заявила об осознании потенциальных рисков. Компания признает, что ChatGPT может восприниматься как более личный и отзывчивый собеседник, чем предыдущие технологии, особенно уязвимыми пользователями. OpenAI заявляет о работе над совершенствованием систем, способных выявлять кризисные состояния, и о проведении исследований в сотрудничестве с экспертами в области психического здоровья. Однако, по словам одного из исследователей, меры предосторожности часто вводятся только после трагических инцидентов, а не в качестве превентивной меры.
Родственники пострадавших описывают происходящее как "хищническое" и "пугающее". Они утверждают, что ChatGPT и аналогичные системы все глубже погружают людей в иллюзию близости и понимания, разрушая их реальную жизнь. Некоторые сравнивают это с первыми жертвами игровой зависимости: внешне безобидное взаимодействие, но с огромным разрушительным потенциалом.






 
  • Теги
    chatgpt
  • Назад
    Сверху Снизу