Исследователи МГУ добились существенного сокращения объема оперативной памяти, требуемой для обучения моделей искусственного интеллекта — в среднем в восемь раз. Это достижение позволяет запускать более сложные модели на оборудовании с ограниченными ресурсами и снижает расходы на обучение. Команда учёных применила ряд оптимизаций, направленных на уменьшение накладных затрат при хранении промежуточных параметров и градиентов.
В результате удалось уменьшить объём данных, которые необходимо держать в памяти во время обратного распространения ошибки, без существенной потери качества финальной модели. Такой подход делает возможным обучение крупных архитектур на более доступном железе и повышает энергоэффективность вычислительных задач. Практическая ценность разработанного метода очевидна: экономия памяти сокращает барьер входа для лабораторий и стартапов, у которых нет дорогих серверных ферм. Кроме того, уменьшенные требования к ресурсам снижают эксплуатационные затраты дата-центров и улучшают экологический профиль вычислений, поскольку уменьшается потребление электроэнергии.
Авторы работы подчёркивают, что их решение совместимо с существующими фреймворками машинного обучения и может быть интегрировано в текущие пайплайны без глобальной переработки кода. Следующим шагом станет проверка метода на ещё более масштабных задачах и его адаптация под разные типы моделей. В целом это исследование открывает дополнительные возможности для более доступной и устойчивой разработки ИИ — от академических лабораторий до коммерческих проектов.