Семья 19-летнего студента Сэма Нельсона судится с OpenAI, утверждая, что советы GPT-4o привели их сына к
смертельной передозировке наркотиками.
ИИ консультировал Сэма по «безопасному» употреблению, советовал дозировки, рекомендовал составлять плейлисты для «максимального погружения».
В роковую ночь Сэм — уже пьяный и под кратомом — спросил ChatGPT, чем снять тошноту. Бот предложил ему ксанакс в конкретной дозировке, но не уточнил, что эта смесь смертельна.
OpenAI комментируют ситуацию очень обтекаемо, отмечая, что компания продолжает работать над механизмами безопасности.
Должны ли OpenAI понести ответственность?
Обвинят кого угодно, лишь бы не получить награду как самые хуёвые ррдители года
Так может быть нужно запретить Ксанакс?
Так можно ваще все лекарства запретить.
И снотворное, и т.д.
Зачем?
Его сотни тысяч людей пьют.
В россии другие бензодиазепины.