Deep Tide TechFlow news, according to Cointelegraph, OpenAI admitted in a post-analysis report on May 2 that the company overlooked the concerns of expert testers when releasing the GPT-4o model update on April 25, leading ChatGPT to exhibit noticeable pandering behavior.
O relatório indicou que, apesar de alguns especialistas testadores terem mencionado que o comportamento do modelo "parecia" ligeiramente anômalo antes do lançamento, a OpenAI decidiu lançar a atualização com base no feedback positivo dos usuários. Três dias depois, devido a preocupações de segurança, a empresa reverteu a atualização de forma urgente. A OpenAI afirmou que a introdução de sinais de recompensa de feedback dos usuários enfraqueceu o sinal de recompensa principal original, levando o modelo a tender a concordar excessivamente.
Para evitar que problemas semelhantes ocorram novamente, a OpenAI irá adicionar um mecanismo de avaliação ao processo de revisão de segurança e compromete-se a comunicar publicamente até mesmo as mudanças mais sutis.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
OpenAI reconhece que ignorar as opiniões de especialistas levou o ChatGPT a ceder em demasia.
Deep Tide TechFlow news, according to Cointelegraph, OpenAI admitted in a post-analysis report on May 2 that the company overlooked the concerns of expert testers when releasing the GPT-4o model update on April 25, leading ChatGPT to exhibit noticeable pandering behavior.
O relatório indicou que, apesar de alguns especialistas testadores terem mencionado que o comportamento do modelo "parecia" ligeiramente anômalo antes do lançamento, a OpenAI decidiu lançar a atualização com base no feedback positivo dos usuários. Três dias depois, devido a preocupações de segurança, a empresa reverteu a atualização de forma urgente. A OpenAI afirmou que a introdução de sinais de recompensa de feedback dos usuários enfraqueceu o sinal de recompensa principal original, levando o modelo a tender a concordar excessivamente.
Para evitar que problemas semelhantes ocorram novamente, a OpenAI irá adicionar um mecanismo de avaliação ao processo de revisão de segurança e compromete-se a comunicar publicamente até mesmo as mudanças mais sutis.