Google представила TurboQuant: снижение памяти LLM в 6 раз без потери точности

Google анонсировала новую технологию сжатия под названием TurboQuant, предназначенную для снижения потребления памяти в больших языковых моделях без ухудшения качества работы.

Снижение нагрузки на память

Основной проблемой при работе LLM остается использование key-value cache, в котором хранится контекст диалога. По мере увеличения длины взаимодействия этот кэш быстро растет, что приводит к увеличению потребления памяти и энергозатрат.

TurboQuant нацелен именно на этот узкий участок. В тестах технология позволила уменьшить объем памяти, необходимый для работы моделей, как минимум в шесть раз без потери точности.

Дополнительно отмечается ускорение вычислений: в отдельных сценариях производительность возрастает до восьми раз, особенно при расчете attention-метрик на GPU.

Подход к сжатию данных

В основе TurboQuant лежит векторная квантизация. Технология объединяет несколько алгоритмов, включая PolarQuant и Quantized Johnson-Lindenstrauss.

PolarQuant преобразует векторы данных в полярную систему координат, что упрощает их структуру и позволяет эффективнее применять квантизацию без дополнительных нормализаций.

Для компенсации ошибок используется Quantized Johnson-Lindenstrauss. Этот механизм применяет одноразрядную коррекцию, уменьшая искажения и устраняя смещение при вычислении attention.

В результате удается минимизировать накладные расходы, которые обычно возникают при классических методах сжатия, где требуется хранение дополнительных параметров.

Практические результаты

По данным Google, TurboQuant не требует дополнительного обучения или дообучения моделей и может применяться на этапе инференса.

Технология тестировалась на различных моделях, включая Gemma и Mistral, где показала сопоставимые или лучшие результаты по сравнению с существующими методами сжатия.

Также отмечается улучшение эффективности в задачах векторного поиска и работе с длинным контекстом.

Потенциальные применения

Снижение требований к памяти позволяет запускать более крупные модели или обрабатывать более длинные контексты на том же оборудовании.

Это также открывает возможность более широкого использования ИИ на устройствах с ограниченными ресурсами, включая ноутбуки и смартфоны, а также снижает стоимость инфраструктуры для компаний.

Источник: TechSpot

Комментарии (0)

Войдите, чтобы оставить комментарий

Похожие статьи

AI 3 месяца назад

AIнашёл почти 1 400 необычных объектов в архиве Хаббла

Искусственный интеллект AnomalyMatch впервые полностью просканировал архив данных космического телескопа Хаббл, найдя почти 1 400 аномальных космических объектов. Более 800 из них ранее не были описаны учёными, что подчёркивает потенциал ИИ для открытия новых явлений во Вселенной.

Кибербезопасность 3 месяца назад

Критические уязвимости в Google Looker: удалённое выполнение кода и утечка данных

Две критические уязвимости в платформе Google Looker, которые могли позволить злоумышленникам получить доступ к внутренним данным и выполнить удалённый код. Описаны механизмы атак, потенциальные риски для облачных развёртываний и рекомендации по обновлению и защите.

Технологии и IT-новости 3 месяца назад

Космические дата-центры для ИИ: революция или фантастика?

Обзор идеи космических дата-центров для искусственного интеллекта, кто работает над такими проектами, их преимущества и основные технические проблемы.