Семья 19-летнего студента Сэма Нельсона судится с OpenAI, утверждая, что советы GPT-4o привели их сына к

смертельной передозировке наркотиками.

ИИ консультировал Сэма по «безопасному» употреблению, советовал дозировки, рекомендовал составлять плейлисты для «максимального погружения».

В роковую ночь Сэм — уже пьяный и под кратомом — спросил ChatGPT, чем снять тошноту. Бот предложил ему ксанакс в конкретной дозировке, но не уточнил, что эта смесь смертельна.

OpenAI комментируют ситуацию очень обтекаемо, отмечая, что компания продолжает работать над механизмами безопасности.

Должны ли OpenAI понести ответственность?

хуй

Обвинят кого угодно, лишь бы не получить награду как самые хуёвые ррдители года

Artem Ze

Бот предложил ему ксанакс в конкретной дозировке, но не уточнил, что эта смесь смертельна

Так может быть нужно запретить Ксанакс?

Новый
Artem Ze

Так можно ваще все лекарства запретить.

И снотворное, и т.д.

Новый
Artem Ze

Зачем?

Его сотни тысяч людей пьют.

В россии другие бензодиазепины.

Комментарии
Пока нету комментариев...