Новый метод обучения ИИ снижает энергопотребление и сетевые нагрузки

Исследователи из Stevens Institute of Technology предложили алгоритм, который повышает эффективность обучения больших языковых моделей, одновременно снижая энергопотребление и объем передаваемых данных.

Метод направлен на улучшение обмена данными между участниками распределенного обучения. Это позволяет повысить производительность моделей и уменьшить затраты как на вычисления, так и на коммуникацию между узлами.

Подход особенно важен для сценариев, где централизованный сбор данных затруднен из-за требований к приватности или организационных ограничений. В таких условиях распределенное обучение становится основным вариантом, но оно традиционно сопровождается высокими издержками на передачу данных и синхронизацию моделей.

Предложенный алгоритм уменьшает эти издержки, что делает адаптацию крупных моделей более доступной для организаций с ограниченными ресурсами.

Разработка также ориентирована на более равномерное внедрение ИИ в разных областях, включая здравоохранение, образование и межорганизационное сотрудничество, где обмен данными между участниками ограничен.

В основе работы лежит метод тонкой настройки больших языковых моделей в федеративной среде с учетом неоднородности данных. Для этого используется техника переносимой разреженности, которая позволяет уменьшить объем передаваемой информации без потери качества обучения.

Исследование оформлено в работе "Mitigating Non-IID Drift in Zeroth-Order Federated LLM Fine-Tuning with Transferable Sparsity", опубликованной в 2026 году.

Источник: TechExplore

Комментарии (0)

Войдите, чтобы оставить комментарий

Похожие статьи

AI 3 месяца назад

ИИ против человеческого творчества: кто в итоге сильнее?

Крупное исследование Университета Монреаля, сравнивающее творческие способности людей и современных ИИ-моделей. Выводы показывают, что ИИ может быть креативным в отдельных тестах, но по широкому спектру задач человеческое творчество остаётся сильнее.

AI 4 месяца назад

Vibe-coding стартап Lovable привлёк $330 млн при оценке в $6.6 млрд

Lovable, шведский стартап в области генерации приложений через текстовые запросы (vibe-coding), привлёк 330 млн $ при оценке 6,6 млрд $, отметив быстрый рост и крупные планы по расширению возможностей платформы.