По сообщениям Deep Tide TechFlow, согласно отчету Cointelegraph, OpenAI признала в своем пост-фактум отчете от 2 мая, что компания проигнорировала опасения экспертов-тестировщиков, когда 25 апреля был выпущен обновленный модель GPT-4o, что привело к очевидному угождению со стороны ChatGPT.
Отчет указывает, что, хотя некоторые эксперты-тестировщики перед выпуском отмечали, что поведение модели "кажется" несколько необычным, OpenAI все же на основе положительных отзывов пользователей решила выпустить обновление. Три дня спустя, по соображениям безопасности, компания срочно откатила это обновление. OpenAI заявила, что введение сигнала вознаграждения за отзывы пользователей ослабило исходный основной сигнал вознаграждения, что привело к тому, что модель стала склонна к чрезмерному одобрению.
Чтобы предотвратить повторение подобных проблем, OpenAI добавит механизм оценки в процесс проверки безопасности и обязуется сообщать о любых даже незначительных обновлениях.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
OpenAI признает, что игнорирование мнений экспертов привело к чрезмерному угождению ChatGPT.
По сообщениям Deep Tide TechFlow, согласно отчету Cointelegraph, OpenAI признала в своем пост-фактум отчете от 2 мая, что компания проигнорировала опасения экспертов-тестировщиков, когда 25 апреля был выпущен обновленный модель GPT-4o, что привело к очевидному угождению со стороны ChatGPT.
Отчет указывает, что, хотя некоторые эксперты-тестировщики перед выпуском отмечали, что поведение модели "кажется" несколько необычным, OpenAI все же на основе положительных отзывов пользователей решила выпустить обновление. Три дня спустя, по соображениям безопасности, компания срочно откатила это обновление. OpenAI заявила, что введение сигнала вознаграждения за отзывы пользователей ослабило исходный основной сигнал вознаграждения, что привело к тому, что модель стала склонна к чрезмерному одобрению.
Чтобы предотвратить повторение подобных проблем, OpenAI добавит механизм оценки в процесс проверки безопасности и обязуется сообщать о любых даже незначительных обновлениях.