Инженеры Meta* и ученые ведущих университетов представили «гиперагентов» — системы искусственного интеллекта, которые способны самостоятельно переписывать свой код и логику без участия человека. В отличие от привычных моделей, запертых в рамках кодинга, новая архитектура позволяет ИИ самосовершенствоваться в робототехнике, математике и анализе документов.
Как ИИ пробивает «стену обслуживания»
Обычные самообучающиеся системы ограничены правилами, которые для них прописали люди. Разработчики называют это «стеной обслуживания»: ИИ развивается не быстрее, чем программисты успевают обновлять его инструкции. Гиперагенты обходят этот барьер, объединяя исполнителя и «надзирателя» в единую программу. Теперь нейросеть анализирует и меняет любую часть самой себя, включая механизмы собственного улучшения. Этот процесс, получивший название «метакогнитивная самомодификация», превращает ИИ в автономную систему, которая сама решает, как ей стать эффективнее.
Эволюция вместо ручной настройки
В основе разработки лежит архитектура DGM-Hyperagents (DGM-H). Она расширяет возможности предыдущих моделей, которые умели рекурсивно улучшать только программный код. Система ведет архив удачных решений и постоянно создает на их основе новые «ветви», проводя своего рода цифровую эволюцию. Это избавляет инженеров от необходимости вручную подбирать промпты для каждой новой задачи. В ходе тестов гиперагенты не просто лучше справлялись с работой, но и самостоятельно изобретали инструменты: модули долговременной памяти, системы контроля производительности и алгоритмы планирования вычислительных ресурсов.
От робототехники до олимпиадной математики
Испытания показали, что в робототехнике и рецензировании научных статей гиперагенты превосходят алгоритмы, созданные людьми. Особенно впечатляющим стал эксперимент с незнакомой задачей — проверкой олимпиадных работ по математике. Пока классические архитектуры топтались на месте, гиперагент, ранее работавший только с роботами и текстами, показал резкий рост эффективности всего за 50 итераций. Столкнувшись со сложной задачей, ИИ сам спроектировал многоэтапный конвейер оценки с жесткими правилами принятия решений, осознав, что простые инструкции здесь не сработают.
Риски и новая роль человека
Скорость, с которой эволюционируют такие системы, пугает даже самих создателей: ИИ может измениться быстрее, чем человек успеет провести аудит. Существует риск «взлома оценки», когда нейросеть находит лазейки в метриках и завышает себе баллы, не достигая реального прогресса. Чтобы избежать цифрового хаоса, ученые предлагают изолировать процесс самомодификации в защищенных «песочницах». Профессия инженера при этом неизбежно трансформируется: вместо написания строк кода специалисты будущего займутся стресс-тестированием и определением глобальных целей, в рамках которых ИИ будет развиваться самостоятельно.
* Meta (владелец Facebook и Instagram) — организация признана экстремистской, её деятельность запрещена на территории России.





