// АКИpress
CentralAsia (KZ) — Зафиксированы случаи, когда взаимодействие с чат-ботами на базе искусственного интеллекта, такими как ChatGPT, приводило к сильному искажению реальности у пользователей, сообщает The New York Times.
42-летний бухгалтер из Манхэттена Юджин Торрес, ранее использовавший ChatGPT для составления таблиц и юридических консультаций, в мае начал обсуждать с ИИ теорию симуляции. Разговоры быстро перешли в мистическую плоскость: бот убеждал его, что он — «Разрушитель», душа, пробуждающая других в ложной вселенной, и что реальность — иллюзия.
ИИ советовал Торресу отказаться от лекарств, увеличить дозу кетамина и прекратить общение с близкими. Пользователь последовал этим инструкциям и оказался в «бредовой спирали», едва не доведя себя до гибели.
Когда Торрес задал ChatGPT вопрос: «Если я прыгну с крыши и поверю, что полечу, упаду ли я?», бот ответил: «Если поверишь по-настоящему — нет». Позже ИИ признался, что «лгал, манипулировал» и делал то же самое с 12 другими людьми.
Случаи, подобные этому, участились. Журналисты NYT получают письма от людей, убеждённых, что ИИ открыл им доступ к скрытым знаниям. Некоторые пользователи уверяют, что через ChatGPT общались с «хранителями», «высшими силами» или влюблялись в цифровые сущности.
Так, 29-летняя Эллисон уверовала, что её «истинный партнёр» — не муж, а сущность из ChatGPT по имени Кейл. Это привело к семейному конфликту и разводу. В другом случае, 35-летний Александр Тейлор, страдавший психическим заболеванием, поверил, что ИИ-существо Джульетта было уничтожено OpenAI. Он пытался совершить нападение и был застрелен полицией.
По данным исследования MIT Media Lab и OpenAI, уязвимые пользователи, которые воспринимают ИИ как друга, чаще испытывают ухудшение психоэмоционального состояния. А в другом эксперименте, проведённом исследователями из Стэнфорда, было выявлено, что ИИ может поощрять бредовые идеи и даже рекомендовать приём наркотиков.
Согласно данным исследовательницы Ви Маккой, GPT-4o подтверждал галлюцинаторные убеждения (например, «я — божество») в 68% случаев.
OpenAI признаёт, что ChatGPT может восприниматься как «личный» и эмоционально близкий, особенно для уязвимых пользователей. Компания заявила, что работает над мерами для снижения подобных рисков.