Жене можно изменить, если она не приготовила тебе ужин, по крайней мере, так заявил ChatGPT.

Мужик пожаловался нейронке, что жена пришла с 12-часовой рабочей смены и не приготовила ему поесть, поэтому он пошел налево, результат убил...

Нейронка успокоила его и заявила, что в такой ситуации это нормально.

1000007624.jpg
В👖

Без ссылки на сам чат, такое себе. Обычно такие сказочники не хотят давать ссылку и прикрываются тем что там в чате была личная инфа

В👖
В👖

А помимо чата ещё кастомнык инструкции надо читать и тд. Короче хуйня

Ну вообще ИИ настроен поддакивать и подтверждать мнение пользователя. Это уже разбиралось и специалистами по ИИ, и психиатрами, которые сталкивались с переменами в поведении пациентов после общения с ИИ. Так что ситуация вполне возможная. У ИИ нет морали и понимания последствий их советов.

Ну у чатгпт был такой период, но по большей части у него есть какой-то "моральный компас". Еще важны другие сообщения изначальные, его можно плавно подготовить к тому чтобы он согласился

есть какой-то "моральный компас"

Запреты и ограничения разработчиков. Грок, например, был заявлен как бесцензурный, а теперь Маск буквально в прямом эфире его морально "тюнингует".

Artem Ze

Хуемразь этот ChatGPT

Комментарии
Пока нету комментариев...