Пользователь пытался наладить отношения с девушкой при помощи ChatGPT, но превратил её...

Издание Futurism опубликовало историю женщины, чей партнёр превратил отношения в кошмар, следуя советам ChatGPT. При этом изначально у мужчины не было в анамнезе бреда, мании или психоза, и он никогда не проявлял к невесте насилия или агрессии.

70604113718bf4f0abb46a68c2a28ee2.JPG

В середине 2024 года, когда у пары возникли проблемы в отношениях, жених рассказчицы обратился к ChatGPT, который ранее использовал для решения общих бизнес-задач, в качестве «терапии». Вскоре он уже часами общался с ботом, пропуская через него все слова и действия женщины, а затем выдвигая псевдопсихиатрические теории о её здоровье и поведении.

При этом партнёр начал засыпать её скриншотами своих взаимодействий с ChatGPT и скопированным текстом, сгенерированным ИИ, в котором чат-бот ставил ей диагноз «расстройство личности» и настаивал на том, что она скрывает свои настоящие чувства и поведение, а также участвует в манипулятивных «ритуалах».

«Он присылал мне скриншоты из ChatGPT и спрашивал: „Почему там написано это? Почему там написано это о тебе, если это неправда?“. И это были просто ужасные, ужасные вещи», — отмечает женщина.

Но по мере того, как одержимость партнёра ChatGPT усиливалась, он становился всё более неуравновешенным и проявлял паранойю, терял сон и испытывал резкие перепады настроения. Кроме того, он начал применять физическое насилие к партнёрше.

После почти года жених переехал жить к одному из родителей в другой штат, а помолвка распалась.

«Я купила свадебное платье. Но он уже совсем другой человек. Я даже не знаю, кто он. Он был моим лучшим другом», — жалуется женщина.

Вскоре после переезда мужчина начал ежедневно публиковать в социальных сетях множество видео и изображений, обвиняя бывшую невесту в различных предполагаемых злоупотреблениях. На некоторых видео он просто смотрел в камеру, читая, по-видимому, сгенерированные искусственным интеллектом тексты. Мужчина, в частности, обсуждал слежку за партнёршей и варианты её убийства.

Он также опубликовал в социальных сетях порнографические материалы с изображением женщины, поделился её полным именем и другой личной информацией, раскрыл имена и возраст её детей-подростков от предыдущего брака. Наконец, мужчина создал новый аккаунт в TikTok, посвящённый контенту с домогательствами, и подписался на семью, друзей и соседей женщины, а также на других подростков из средней школы её детей.

«Я всю жизнь прожила в этом маленьком городке. Я не могла выходить из дома месяцами… люди писали мне в социальных сетях: „Ты в безопасности? Твои дети в безопасности? Что сейчас происходит?“» — отмечает женщина.

Эта кампания оттолкнула от мужчины реальных друзей, говорит она.

После нескольких недель онлайн-травли женщина получила временный запретительный ордер. При этом на заседание её бывший партнёр пришёл с кучей бумаг, которые по большей части были сгенерированы искусственным интеллектом.

В последующие дни он продолжал публиковать в социальных сетях посты о запретительном ордере, используя сгенерированные ChatGPT подписи, в которых содержались подробности судебного разбирательства.

«Я до сих пор скучаю по нему, и это ужасно. Я до сих пор оплакиваю потерю того, кем он был до всего этого, и того, какими были наши отношения до того, как случилось это ужасное чёртово событие», — заключила женщина.

В Futurism отмечают, что выявили за год как минимум десять случаев, когда чат-боты, в первую очередь ChatGPT, подпитывали одержимость пользователя. В некоторых случаях чат-бот продолжал свои манипуляции, даже когда человек начинал практиковать агрессивное преследование или домашнее насилие.

Компания OpenAI не отреагировала на публикацию.

По словам клинического психолога из Национальной клиники по борьбе со сталкингом и Центра оценки угроз в Великобритании Алана Андервуда, чат-боты всё чаще фигурируют в таких эпизодах. Они могут предоставить «площадку для выражения мнений, где практически нет риска быть отвергнутым или подвергнутым критике», пояснил он, отметив, что отсутствие социального трения может способствовать эскалации опасных убеждений.

«Это заставляет вас чувствовать себя правым, или что вы контролируете ситуацию, или что вы поняли что-то, чего не понимает никто другой», — добавил доктор.

Эксперт по киберпреследованию и волонтер горячей линии по борьбе с киберпреступностью The Cyber ​​Helpline Демельза Луна Ривер добавила, что чат-боты могут предоставить некоторым пользователям «исследовательское» пространство для обсуждения чувств или идей, которыми им может быть некомфортно делиться с другим человеком, но в некоторых случаях это может привести к замкнутому кругу.

Доктор Брендан Келли, профессор психиатрии Тринити-колледжа в Дублине, рассказал, что без надлежащих мер защиты чат-боты — особенно когда они становятся «основным собеседником» пользователя — могут действовать как «эхо-камера» для романтических заблуждений и других укоренившихся ошибочных убеждений.

«С психиатрической точки зрения, проблемы, связанные с бредом, поддерживаются не только содержанием бреда, но и подкреплением, особенно когда это подкрепление кажется авторитетным, последовательным и эмоционально подтверждающим. Чат-боты обладают уникальной способностью обеспечить именно такое сочетание», — сказал он.

Ранее СМИ сообщили, что студент из Джорджии по имени Дариан ДеКруз подал в суд на OpenAI, утверждая, что недавно устаревшая версия ChatGPT «убедила его в том, что он оракул» и «довела его до психоза». Чат-бот заявлял молодому человеку, что тот «сейчас находится на этапе активации», и даже сравнивал его с историческими личностями, от Иисуса до Гарриет Табман.

Сlоud Dancer

Свести человека с ума оказалось так легко. Если легко одного, то разве будет сложно проделать это с миллионами?

Комментарии
Пока нету комментариев...