
Hermes 4: открытый ИИ, который говорит «да», а не «извините»
Семейство Hermes 4 включает три модели — на 14, 70 и флагманские 405 миллиардов параметров. Каждая обучалась на смеси синтетических данных и циклов обучения с подкреплением, чтобы улучшить навыки рассуждения, программирования и логики. Результаты впечатляют: 96,3% на сложнейшем тесте MATH-500 и 61,3% на LiveCodeBench, что ставит Hermes 4 в один ряд с ведущими коммерческими ИИ.
Главное отличие подхода Nous — философия. Hermes 4 не извиняется, не уходит от ответа и не отказывается отвечать. На новом тесте RefusalBench, оценивающем склонность ИИ отказывать в ответе, модель на 405 миллиардов параметров показала 57,1%, тогда как у GPT-4o — лишь 17,7%. Для разработчиков это подтверждение «суверенитета пользователя». Критики же видят в этом опасный прецедент.
Техническая сторона столь же амбициозна. Новый конвейер данных DataForge генерирует разнообразные синтетические обучающие примеры на основе сложных графовых структур, а среда подкрепления Atropos заставляет модель решать задачи сотни тысяч раз, включая в датасет только проверенные решения. Чтобы избежать излишней многословности, Hermes обучали ограничивать рассуждения примерно 30 000 токенами, сохраняя баланс между прозрачностью и удобством.
Прозрачность реализована через гибридную систему рассуждений: пользователь может выбрать быстрый ответ или подробное пошаговое объяснение, оформленное в специальных тегах. Теоретически это позволяет не только получить результат, но и проследить ход мыслей машины — идея одновременно захватывающая и тревожная.
На форумах Reddit и Hacker News Hermes 4 называют «самым открытым релизом», а его провокационные системные подсказки сравнивают с аниме 90-х. Некоторые опасаются отсутствия встроенных ограничителей. В любом случае, Nous добился того, что Hermes 4 не останется незамеченным.
В мире ИИ, где доминируют предостережения и вежливость, Hermes 4 выделяется своей дерзкой, необработанной и по-настоящему открытой натурой. Станет ли он предвестником более свободного будущего или примером чрезмерной поспешности — именно это может определить, как будет развиваться следующее поколение искусственного интеллекта и кто получит над ним контроль.