13 февраля PANews сообщило, что OpenAI объявило о крупном обновлении Model Spec, в котором определены стандарты поведения искусственного интеллекта. Новая версия акцентирует внимание на настраиваемости, прозрачности и свободе мыслей, обеспечивая возможность пользователям свободно исследовать, обсуждать и создавать, сохраняя необходимые меры безопасности.
Обновленный контент включает в себя:
• Приоритет команд модели: ясно определить приоритет команд для платформы, разработчиков и пользователей, улучшить возможности настройки.
• Подлинность информации: модель избегает управления с предвзятостью, поощряет объективные обсуждения и помогает пользователям принимать независимые решения.
• Граница безопасности: установите стандарты для отказа в выполнении запросов с высоким уровнем риска, таких как вредоносное поведение или нарушение конфиденциальности.
• Знание общества: этот стандарт был открыт для общественного пользования, разработчики могут свободно использовать, изменять и строить.
OpenAI заявляет, что эти стандарты будут продолжать развиваться, и приветствует обратную связь от сообщества.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
OpenAI выпустила новую версию Model Spec, улучшая настраиваемость и прозрачность
13 февраля PANews сообщило, что OpenAI объявило о крупном обновлении Model Spec, в котором определены стандарты поведения искусственного интеллекта. Новая версия акцентирует внимание на настраиваемости, прозрачности и свободе мыслей, обеспечивая возможность пользователям свободно исследовать, обсуждать и создавать, сохраняя необходимые меры безопасности. Обновленный контент включает в себя: • Приоритет команд модели: ясно определить приоритет команд для платформы, разработчиков и пользователей, улучшить возможности настройки. • Подлинность информации: модель избегает управления с предвзятостью, поощряет объективные обсуждения и помогает пользователям принимать независимые решения. • Граница безопасности: установите стандарты для отказа в выполнении запросов с высоким уровнем риска, таких как вредоносное поведение или нарушение конфиденциальности. • Знание общества: этот стандарт был открыт для общественного пользования, разработчики могут свободно использовать, изменять и строить. OpenAI заявляет, что эти стандарты будут продолжать развиваться, и приветствует обратную связь от сообщества.