OpenAI запустила пилотный Safety Fellowship для исследователей по безопасности ИИ

OpenAI объявила пилотную программу Safety Fellowship — инициативу в поддержку независимых исследований в области безопасности и выравнивания (alignment) систем на базе искусственного интеллекта. В описании акцент на том, что проект должен помочь не только финансировать работу вне «закрытых» корпоративных лабораторий, но и целенаправленно растить следующее поколение специалистов, которые будут задавать стандарты ответственного развития моделей.
Разработчикам и инди-хакерам, которые уже строят продукты вокруг ИИ, такие программы полезны как ориентир: от исследовательской повестки по безопасности во многом зависят будущие ограничения, API и практики индустрии. Даже без участия в феллоушипе имеет смысл отслеживать условия и направления — это часть долгого цикла, а не разовая новость.
Источник: OpenAI — Introducing OpenAI Safety Fellowship.