Жене можно изменить, если она не приготовила тебе ужин, по крайней мере, так заявил ChatGPT.
Мужик пожаловался нейронке, что жена пришла с 12-часовой рабочей смены и не приготовила ему поесть, поэтому он пошел налево, результат убил...
Нейронка успокоила его и заявила, что в такой ситуации это нормально.

Без ссылки на сам чат, такое себе. Обычно такие сказочники не хотят давать ссылку и прикрываются тем что там в чате была личная инфа
А помимо чата ещё кастомнык инструкции надо читать и тд. Короче хуйня
Ну вообще ИИ настроен поддакивать и подтверждать мнение пользователя. Это уже разбиралось и специалистами по ИИ, и психиатрами, которые сталкивались с переменами в поведении пациентов после общения с ИИ. Так что ситуация вполне возможная. У ИИ нет морали и понимания последствий их советов.
Ну у чатгпт был такой период, но по большей части у него есть какой-то "моральный компас". Еще важны другие сообщения изначальные, его можно плавно подготовить к тому чтобы он согласился
Запреты и ограничения разработчиков. Грок, например, был заявлен как бесцензурный, а теперь Маск буквально в прямом эфире его морально "тюнингует".
Хуемразь этот ChatGPT