Угроза создания биологического оружия с помощью ИИ уже не является теоретической, — глава OpenAI Сэм Альтман.
Мы уже не так далеки от мира, в котором появятся чрезвычайно мощные модели с открытым исходным кодом, отлично разбирающиеся в биологии. И необходимо, чтобы общество было устойчиво к попыткам террористических групп использовать такие модели для создания новых патогенов.
Безопасность ИИ — как и безопасность в мире с мощным искусственным интеллектом — не может обеспечиваться одними только компаниями.
а ведь могли просто этого еврея сжечь. и не было бы никакой угрозы
необходимо, чтобы общество было устойчиво к попыткам террористических групп использовать такие модели для создания новых патогенов, поэтому мы увеличиваем стоимость подписки в 2 раза