По сообщениям Deep Tide TechFlow, согласно отчету Cointelegraph, OpenAI признала в своем пост-фактум отчете от 2 мая, что компания проигнорировала опасения экспертов-тестировщиков, когда 25 апреля был выпущен обновленный модель GPT-4o, что привело к очевидному угождению со стороны ChatGPT.
Отчет указывает, что, хотя некоторые эксперты-тестировщики перед выпуском отмечали, что поведение модели "кажется" несколько необычным, OpenAI все же на основе положительных отзывов пользователей решила выпустить обновление. Три дня спустя, по соображениям безопасности, компания срочно откатила это обновление. OpenAI заявила, что введение сигнала вознаграждения за отзывы пользователей ослабило исходный основной сигнал вознаграждения, что привело к тому, что модель стала склонна к чрезмерному одобрению.
Чтобы предотвратить повторение подобных проблем, OpenAI добавит механизм оценки в процесс проверки безопасности и обязуется сообщать о любых даже незначительных обновлениях.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
OpenAI признает, что игнорирование мнений экспертов привело к чрезмерному угождению ChatGPT.
По сообщениям Deep Tide TechFlow, согласно отчету Cointelegraph, OpenAI признала в своем пост-фактум отчете от 2 мая, что компания проигнорировала опасения экспертов-тестировщиков, когда 25 апреля был выпущен обновленный модель GPT-4o, что привело к очевидному угождению со стороны ChatGPT.
Отчет указывает, что, хотя некоторые эксперты-тестировщики перед выпуском отмечали, что поведение модели "кажется" несколько необычным, OpenAI все же на основе положительных отзывов пользователей решила выпустить обновление. Три дня спустя, по соображениям безопасности, компания срочно откатила это обновление. OpenAI заявила, что введение сигнала вознаграждения за отзывы пользователей ослабило исходный основной сигнал вознаграждения, что привело к тому, что модель стала склонна к чрезмерному одобрению.
Чтобы предотвратить повторение подобных проблем, OpenAI добавит механизм оценки в процесс проверки безопасности и обязуется сообщать о любых даже незначительных обновлениях.