
Милла Йовович и Бен Сигман представили MemPalace — систему памяти для LLM, которая не отсекает данные, а сохраняет весь рабочий поток и структурирует его в жесткой архитектуре. Проект функционирует локально, хранит оригинальные формулировки без пересказа и использует собственный текстовый диалект AAAK для значительного сжатия.
Система уже доступна как open source на GitHub под MIT-лицензией. Основной режим — полностью локальный, без API и облачных моделей. Однако указанные максимальные метрики достигаются лишь в гибридной конфигурации с дополнительным реранкером. Более подробно в материале Postium.
Читайте также: Рейтинг лучших чат-ботов для работы
MemPalace — что это и как работает
MemPalace формирует память в виде иерархии. «Крылья» — это пользователи или проекты. «Комнаты» — это темы. «Залы» — это виды информации: факты, события, предпочтения. Внутри находятся «ящики» с оригинальным текстом и «шкафы» с его сжатыми версиями.

Основная концепция заключается в том, чтобы не извлекать «важное», а сохранять всё в неизменном виде. Поиск осуществляется по данной структуре плюс через эмбеддинги. Ничто не теряется на этапе записи.
AAAK — это отдельный уровень. Это «машинный диалект», в который преобразуется текст. Авторы утверждают, что он остается читаемым для LLM и при этом обеспечивает сжатие примерно в 8–30 раз. Благодаря этому большой объем памяти может храниться непосредственно в контексте модели.
Ключевая особенность — отказ от подхода саммари. Вместо «сжали → потеряли детали» здесь «сохранили всё → сжали форму → ищем по мере необходимости». Это другой класс памяти, более близкий к файловой системе, чем к заметкам.
Как скачать и установить MemPalace
MemPalace — инструмент для разработчиков. Его можно интегрировать с агентами или локальными LLM, как отдельный уровень памяти поверх проекта.
Скачать можно прямо из GitHub-репозитория MemPalace. Проект доступен как Python-пакет, поэтому базовая установка осуществляется через pip: достаточно установить пакет mempalace в окружение, где функционирует ваш агент или модель. Также можно просто клонировать репозиторий и запускать из исходников, если требуется полный контроль над кодом.

После установки существуют два основных сценария. Первый — загрузить в модель «wake-up контекст»: это сжатая память в формате AAAK, которая передается в промпт при запуске, чтобы модель «помнила» ключевые факты.
Второй — выполнять поисковые запросы к хранилищу MemPalace и добавлять найденные фрагменты в каждый новый запрос к модели. Это функционирует как RAG, но без предварительной фильтрации данных.
У системы есть CLI и MCP-инструменты. С их помощью можно просматривать структуру «дворца» (крылья, комнаты, залы), осуществлять поиск по памяти, читать и записывать данные, а также исследовать связи между сущностями. Это позволяет использовать MemPalace не только как бэкенд, но и как отдельный инструмент для навигации по накопленной информации.
Почему это важно? MemPalace нарушает основную логику большинства memory-систем для LLM. На сегодняшний день рынок строится вокруг идеи «сначала определить, что важно, затем сохранить». Здесь же подход противоположный — «ничего не решать заранее». Это снимает зависимость от качества саммари и уменьшает риск потери контекста. Кроме того, это обеспечивает приватность: всё остается локально.
В последние месяцы память для LLM усложняется: графы знаний, слои абстракций, агрессивная фильтрация и саммари.
MemPalace движется в противоположном направлении. Он упрощает запись и усложняет поиск. Делает акцент на сохранении полного следа взаимодействия вместо «очищенной» версии. Авторы прямо противопоставляют себя решениям вроде Mem0 и другим memory-слоям, где нейросеть сама решает, что оставить.
Итог: MemPalace уже функционирует как локальная память нового типа — без отбора данных, с высоким сжатием и агрессивными метриками, которые ещё предстоит проверить на практике.


