OpenAI: Мы обучили эти модели тратить больше времени на обдумывание проблем, прежде чем они ответят, как это делает человек. Благодаря обучению они учатся совершенствовать свой мыслительный процесс, пробовать разные стратегии и распознавать свои ошибки.
OpenAI: Но для сложных задач рассуждения это значительный прогресс и представляет собой новый уровень возможностей ИИ. Учитывая это, мы сбрасываем счетчик обратно на 1 и называем эту серию OpenAI o1.
OpenAI: Один из способов измерения безопасности — это проверка того, насколько хорошо наша модель продолжает следовать своим правилам безопасности, если пользователь пытается обойти их (это называется «джейлбрейк»). В одном из наших самых сложных тестов на джейлбрейк GPT-4o набрал 22 (по шкале от 0 до 100), а наша модель o1-preview набрала 84.
OpenAI: Для продвижения нашей приверженности безопасности ИИ мы недавно оформили соглашения с Институтами безопасности ИИ США и Великобритании. Мы начали реализовывать эти соглашения, включая предоставление институтам раннего доступа к исследовательской версии этой модели. Это был важный первый шаг в нашем партнерстве, помогающий наладить процесс исследования, оценки и тестирования будущих моделей до и после их публичного выпуска.