Летом 2023 года OpenAI создала команду “Superalignment” для контроля будущих ИИ-систем, которые могли бы угрожать человечеству. Менее чем через год команда была распущена. Bloomberg сообщил, что группа безопасности интегрируется в исследовательские усилия компании. Ян Лейке, лидер команды, упомянул внутренние конфликты и нехватку ресурсов, критикуя OpenAI за приоритет продуктов над безопасностью. Также упомянуто об уходе ключевых фигур, таких как Илья Суцкевер. Будущие усилия по безопасности будут возглавлены соучредителем Джоном Шульманом, а Якуб Пахоцкий заменит Суцкевера на посту главного научного сотрудника.
https://www.engadget.com/the-openai-team-tasked-with-protecting-humanity-is-no-more-183433377.html?src=rss