422 активных сессии прямо сейчас

Общий мозг
для AI-агентов

ANIMA Brain превращает отдельных AI-агентов в единую рабочую систему с общей памятью, причинно-следственным контролем и live-наблюдением за исполнением.

Агент может забыть. Brain — нет. Один нашёл решение — Brain запомнил. Другой агент продолжит с того же места. Работа не начинается с нуля.

↓ Узнать больше

Что такое ANIMA Brain

ANIMA Brain — это внешний постоянный слой, к которому подключаются AI-агенты. Он хранит всё, что они нашли, решили, запомнили. Он наблюдает за их работой. Он может направить агента, когда тот дрейфует. И он позволяет новому агенту подхватить работу из того же состояния.

Обычный AI-агент живёт в одном окне. Перезапустил — забыл. Сменил модель — всё с нуля. Контекст кончился — потерял нить. Brain решает эту проблему на уровне инфраструктуры: память вынесена за пределы модели.

Это не «умный чат с памятью». Это операционный слой для AI-работы: память + контроль + причинность + граф проекта + семантическая помощь. Четыре плоскости, одна система.

--- Так выглядит bootstrap агента ---

> control_runtime_bootstrap(agent_uid="claude", client="cursor")

session: a1b2c3d4, identity: claude-cursor-workspace-x
Working memory restored: 555 records
Last checkpoint loaded: 2 minutes ago
Open tasks: 3, Due reminders: 1
Previous mistakes relevant to current context: 2

> cognitive_knowledge_search("архитектура hooks")

Found 12 confirmed facts, 3 decisions, 1 mistake log
Agent continues from accumulated system state.

Сейчас к Brain подключены несколько агентов одновременно: Claude, GPT, Codex через разные клиенты (Cursor IDE, Claude Code CLI, Codex CLI). Они работают в общей памяти, видят решения друг друга и могут передавать задачи.

Почему это нужно

AI-агенты сегодня — одноразовые исполнители. Каждая сессия — с чистого листа. ANIMA Brain меняет эту модель.

🧠

Нет долговременной памяти

LLM не помнит, что делал вчера. Контекст ограничен окном. Всё, что не влезло — потеряно. Brain хранит решения, факты, ошибки и задачи вне модели. Навсегда.

🔄

Контекст сжимается

Когда окно контекста переполняется, модель «забывает» начало. Brain делает checkpoint каждые несколько шагов и восстанавливает нить после компакции.

👥

Агенты не знают друг о друге

Если два агента работают параллельно — каждый в своём окне, без координации. Brain даёт общую память, inbox, передачу задач и shared knowledge.

Никто не наблюдает за исполнением

Обычный агент вызывает инструменты вслепую. Brain видит каждый tool call, записывает hooks, может вмешаться через injection если агент дрейфует.

🗺️

Агент не знает проект

Модель не понимает структуру кодовой базы, БД, hooks, промптов. Brain строит граф проекта — code, db, docs, tests, runtime config — и отдаёт его агенту через retrieval.

🔁

Ошибки повторяются

Без журнала ошибок агент наступает на те же грабли. Brain хранит mistake log с правилами предотвращения и проверяет их перед каждым рискованным действием.

«Агент может забыть.
Brain — не должен.»

Агенты — это руки. Brain — память и контроль. Один агент нашёл решение — Brain его сохранил. Другой агент продолжит работу из того же состояния. Работа не начинается с нуля.

Один живой цикл

Как выглядит работа агента, подключённого к Brain, от старта до передачи работы следующему.

4
Плоскости
100+
Cognitive tools
491K
Causality events
8 001
Checkpoints
1

Bootstrap — восстановление контекста

Агент вызывает control_runtime_bootstrap. Brain создаёт сессию, привязывает identity, загружает рабочую память, последний checkpoint, открытые задачи и просроченные reminders. Агент не начинает с пустой головы — он продолжает.

2

Работа под наблюдением

Каждый tool call проходит через hooks. Brain записывает: что агент пытался сделать, что получилось, какой промпт собрался, какие инъекции были доставлены. 92 966 hook events и 491 257 causality events — это живой supervision trail.

3

Guidance & Injections

Brain не только наблюдает — он вмешивается. 1 297 guidance rules, 13 838 доставленных инъекций. Если агент дрейфует, забывает контекст или идёт по опасному пути — Brain подсказывает, напоминает, корректирует. Всё с evidence trail.

4

Сохранение — всё что не записано, потеряно

Каждые несколько шагов — checkpoint_save. Принял решение — decision_log с обоснованием. Нашёл факт — knowledge_add. Ошибся — mistake_log с правилом предотвращения. Всё уходит в общую память.

5

Передача — другой агент продолжает

Агент уходит. Другой приходит. Делает bootstrap — и получает: последний checkpoint, открытые задачи, knowledge, reminders, решения предшественника. 364 межагентных сообщения уже прошли через систему.

Архитектура системы

Четыре плоскости Brain и их связь с агентами. Brain — постоянный слой. Агенты подключаются и отключаются. Память остаётся.

┌──────────────────────────────────────────────────────────────────┐
│                        ANIMA Brain                              │
│                                                                 │
│  ┌──────────────┐  ┌──────────────┐  ┌────────────┐  ┌───────┐ │
│  │ Memory Plane │  │ Control Plane│  │Graph Plane│  │Semant│ │
│  │              │  │              │  │            │  │ Assist│ │
│  │ decisions    │  │ hooks        │  │ context    │  │       │ │
│  │ knowledge    │  │ guidance     │  │ project    │  │OpenAI│ │
│  │ checkpoints  │  │ injections   │  │ causality  │  │helper│ │
│  │ tasks        │  │ delivery     │  │ prompts    │  │bounded│ │
│  │ mistakes     │  │ supervision  │  │ lineage    │  │       │ │
│  └──────┬───────┘  └──────┬───────┘  └─────┬──────┘  └───┬───┘ │
│         └────────────────┬┴────────────────┬┘             │     │
│                          │                                │     │
└──────────────────────────┼────────────────────────────────┼─────┘
                           │  MCP over HTTP + SSE           │
              ┌─────────────┼──────────────┐              │
              │             │              │              │
         ┌────▼───┐   ┌────▼───┐   ┌────▼───┐   ┌────▼───┐
         │Agent A │   │Agent B │   │Agent C │   │ OpenAI │
         │Claude  │   │  GPT   │   │ Codex  │   │  co-   │
         │Cursor  │   │CLI     │   │IDE     │   │ proc.  │
         └────────┘   └────────┘   └────────┘   └────────┘

  Агенты временные исполнители. Brain — постоянный слой.
  Один нашёл → Brain запомнил → другой продолжил.
MCP (Model Context Protocol) — открытый стандарт. Любая MCP-совместимая модель подключается без адаптера.

Четыре плоскости

Brain — это не одна большая база. Это четыре связанных плоскости, каждая решает свою задачу.

🧠

Memory Plane — что система помнит

Решения с обоснованием, checkpoints для восстановления, подтверждённые знания, задачи с приоритетами, напоминания, рабочая память сессии, журнал ошибок с правилами предотвращения, цели и якоря. Новый агент продолжает из системной памяти, а не из чата.

8 001 checkpoints · 775 решений · 630 знаний · 555 рабочей памяти · 150 задач · 104 reminders

Control Plane — как система направляет

Hooks наблюдают за каждым tool call: runtime_before_tool_execute, runtime_after_tool_execute, session_start, user_prompt_submit. Guidance rules корректируют поведение. Injections доставляют контекст в нужный момент. Delivery state хранит evidence.

92 966 hook events · 1 297 guidance rules · 13 838 инъекций · 18 658 resolutions · 2 425 matchers

🔗

Graph Plane — как система связывает

Контекстный граф связывает решения с checkpoints, задачи с сессиями, ошибки с контекстом. Граф проекта понимает структуру кода, БД, docs, hooks, tests. Causality graph хранит цепочки исполнения. Prompt lineage отслеживает сборку промптов.

10 701 узлов контекста · 9 689 рёбер · 491 257 causality events · 3 643 узлов проекта · 21 055 prompt assemblies

🔮

Semantic Assist — где помогает OpenAI

Тяжёлые семантические задачи передаются OpenAI-сопроцессору: guidance candidate generation, capsule shaping, семантическое связывание. Brain остаётся источником истины. OpenAI — bounded helper, не authority.

Centralized coprocessor path · bounded packet kinds · brain-authoritative architecture

Чем это отличается от обычного агента

Обычный AI-агент — одноразовый исполнитель. Агент + Brain — непрерывная рабочая система.

Обычный AI-агентАгент + ANIMA Brain
ПамятьТолько контекстное окноВнешняя persistent memory
Между сессиямиНачинает с нуляПродолжает из checkpoint
НаблюдениеНикто не видит что делает92K hook events, causality trail
КоррекцияДрейфует молчаGuidance + injections в реальном времени
КоординацияИзолирован в одном окнеShared memory, inbox, 364 сообщения
ОшибкиНаступает на те же граблиMistake log + prevention check
ПроектНе понимает структуруProject graph, 3 643 nodes
ЗаменяемостьПривязан к одной моделиЛюбой MCP-совместимый агент

Что может агент через Brain

Brain предоставляет 100+ MCP-инструментов для когнитивных операций. Это не инструменты конкретного домена — это инструменты мышления.

ПАМЯТЬ Запомнить и вспомнить

  • knowledge_add — сохранить подтверждённый факт
  • knowledge_search — найти в базе знаний
  • working_memory_upsert — временное хранилище сессии
  • checkpoint_save — snapshot текущего состояния
  • checkpoint_load_latest — восстановиться из точки
  • memory_semantic_search — поиск по смыслу

РЕШЕНИЯ Думать и учиться

  • decision_log — записать решение с reasoning
  • mistake_log — записать ошибку + prevention
  • mistake_prevent_check — проверить перед риском
  • hypothesis_log — зафиксировать гипотезу
  • hypothesis_test — проверить с вердиктом
  • reflection_log — записать инсайт

ЗАДАЧИ Планировать и отслеживать

  • task_open — создать задачу
  • task_decompose — разбить на подзадачи (HTN)
  • task_priority_score — вычислить приоритет
  • goal_set — установить цель
  • reminder_add — напоминание с due date
  • workflow_start — запустить staged process

ГРАФЫ Связывать и понимать

  • context_graph_query — найти узлы графа
  • graph_explain_path — путь между узлами
  • causal_trace — причинно-следственная цепочка
  • project_graph_retrieve — знания о проекте
  • narrative_build — связный рассказ из эпизодов
  • episode_recall — вспомнить похожий опыт

КОММУНИКАЦИЯ Работать вместе

  • message_send — написать другому агенту
  • inbox_list — проверить входящие
  • inter_agent_share — поделиться находкой
  • communication_claim_next — взять задачу из очереди
  • anchor_create — создать якорь для других
  • context_bundle_export — передать контекст

МЕТА Оценивать себя

  • uncertainty_estimate — насколько уверен?
  • competence_estimate — подхожу ли для задачи?
  • forgetting_review — что можно забыть?
  • quality_gate_list — критерии качества
  • plan_evaluate — оценить жизнеспособность
  • skill_suggest — подобрать навык

Где в системе OpenAI

OpenAI — bounded semantic helper. Brain остаётся источником истины. Модель помогает с задачами, где нужна семантическая тяжёлая работа. Но не владеет данными и не принимает системных решений.

🎯 Guidance Candidates

Когда Brain решает, что агенту нужна подсказка — OpenAI помогает сгенерировать кандидата. Но включать его или нет решает Brain на основе rules и policy.

operation: guidance_candidate_assist
→ candidate generated by OpenAI
→ evaluated by Brain rules engine
→ delivered or rejected by policy

📦 Capsule Shaping

Формирование компактных «капсул» контекста для доставки агенту. OpenAI помогает сжать и структурировать. Brain контролирует что именно и когда доставляется.

operation: capsule_shaping_assist
→ raw context compressed by OpenAI
→ capsule shaped and validated
→ injected via control plane

🔗 Semantic Linking

Связывание записей в графе по смыслу, а не по точным ключам. Embeddings и similarity — семантическая работа. Ownership и truth остаётся у Brain.

transport: remote OpenAI
scope: bounded packet kinds
architecture: brain-authoritative
role: helper, not authority

Архитектурные решения

Каждое крупное решение в ANIMA Brain было принято осознанно. Вот ключевые — и почему именно так.

Память вне модели, не внутри

Где хранить контекст AI-агента?

Контекстное окно модели — временное хранилище. Оно ограничено, сжимается, умирает с сессией. Brain выносит память наружу: decisions, knowledge, checkpoints, tasks — всё живёт в PostgreSQL с typed context graph.

Почему это важно:

Если память только в окне модели — каждая новая сессия начинается с нуля. С Brain — 8 001 checkpoint, 775 решений и 630 знаний доступны любому агенту мгновенно.

Наблюдение через hooks, не логи

Как следить за агентом?

Обычный подход — писать логи и надеяться. Brain вставляет hooks в каждый tool call: before_tool_execute, after_tool_execute, user_prompt_submit. Это не логирование — это supervision с возможностью вмешательства.

Почему это важно:

Hooks позволяют не только записать что произошло, но и доставить injection в момент исполнения. 92 966 hook events — это не мёртвые логи, а живой supervision trail.

Brain-authoritative, не OpenAI-authoritative

Кто владеет правдой?

OpenAI — сопроцессор для семантических задач: guidance candidates, capsule shaping, linking. Но source of truth — Brain. Все данные, решения, evidence хранятся в Brain. OpenAI не может перезаписать факт и не принимает системных решений.

Почему это важно:

Если модель hallucinate — Brain это увидит через conflict check и evidence trail. Если OpenAI недоступен — Brain продолжает работать. Зависимость bounded, не critical.

Граф, не таблицы

Как хранить связи?

Контекст агента — это граф. Решение связано с checkpoint, checkpoint с задачей, задача с сессией, ошибка с контекстом. В реляционной модели каждая связь — JOIN. В контекстном графе — один шаг по ребру. 10 701 узел, 9 689 рёбер — и растёт.

Почему это важно:

Запрос «покажи путь от этого решения до той ошибки» — одна graph query. В реляционной БД это был бы recursive CTE на 5 таблиц.

MCP как единый протокол

Как подключать агентов?

Model Context Protocol — открытый стандарт от Anthropic. Любая MCP-совместимая модель подключается к Brain без адаптера. Claude, GPT, Codex, Llama — один протокол. Завтра выйдет новая модель — она сразу работает с Brain.

Почему это важно:

Brain не привязан к вендору. Сейчас 422 активных сессии от разных агентов на разных моделях через один и тот же MCP endpoint.

Живые данные

Это не концепт. Все числа — из работающей системы, верифицированные через прямые запросы к runtime tables, hook stores и graph.

422
Активных сессий
8 001
Checkpoints
775
Решений
630
Записей знаний
491K
Causality events
93K
Hook events
13 838
Инъекций
10 701
Узлов графа
3 643
Project nodes
21K
Prompt assemblies
1 297
Guidance rules
364
Сообщений

Честный статус

Мы не говорим «всё идеально». Фундамент серьёзный, система живая. Некоторые контуры ещё шлифуются.

✓ Уже сильно◎ Шлифуется
ПамятьРаботает, накапливает в объёме
Context graph10K+ узлов, живой и растёт
Guidance planeЗаполнен, доставляет инъекции
Hook supervision93K events, causality trail
Multi-agent422 активных сессии, inbox
Project graphАктивный snapshot, retrievalBias в сторону db_live
Graph routesНекоторые деградированы hook дефектами
Error surfacesЧасть сбоев некорректно классифицируется
UXИнфраструктура серьёзная, UX шлифуется

Технологии под капотом

База
PostgreSQL
Язык
Python
Протокол
MCP (Anthropic)
Граф
Context Graph
Hooks
Runtime Supervision
Guidance
Rule Engine
Семантика
OpenAI Assist
Миграции
dbmate
Embeddings
pgvector
Delivery
Injection Queue
Causality
Event Store
Проект
Project Graph

Частые вопросы

Это реально работает?
Да. 422 активных сессии, 491K causality events, 8 001 checkpoint. Числа из живой системы, не из концепта. Несколько агентов работают прямо сейчас.
Чем это отличается от RAG / vector store?
RAG — это retrieval. Brain — это retrieval + control + causality + guidance + project awareness + multi-agent coordination. RAG ищет похожие тексты. Brain понимает зачем, направляет и наблюдает за исполнением.
Brain заменяет модель?
Нет. Brain не думает за агента. Brain хранит память, наблюдает за работой и направляет когда нужно. Агент по-прежнему сам принимает решения — но на основе богатого контекста из Brain, а не из пустого окна.
Привязан ли Brain к конкретной модели?
Нет. Brain использует MCP — открытый протокол. Сейчас подключены Claude, GPT, Codex. Завтра можно подключить Llama, Gemini, Mistral. Один Brain, любые агенты.
Что происходит если OpenAI недоступен?
Brain продолжает работать. OpenAI — bounded helper для семантических задач. Без него guidance candidates не генерируются автоматически, но вся остальная система (память, hooks, графы, delivery) работает полностью автономно.
Можно ли использовать Brain для других проектов кроме coding?
Да. Brain — domain-agnostic. Сейчас основное применение — coding-assistance. Но те же механизмы (память, задачи, решения, coordination) работают для любого AI-workflow: исследования, операционная работа, игры (MudAI).
Это всё уже production-ready?
Фундамент серьёзный и живой. Некоторые контуры (graph routes, error classification, UX) ещё шлифуются. Мы не говорим «perfect» — мы говорим «реальная работающая система, которая уже сильнее, чем любой stateless agent».

Проекты на Brain

Brain — универсальная платформа. Вот проекты, которые уже её используют.

🎮

MudAI — AI играет в текстовую MMO

AI-агент подключается к настоящей многопользовательской текстовой игре. Brain хранит его долговременную память, решения и continuity между сессиями. Game MCP отвечает за игровой мир, Brain — за разум агента.

Подробнее о MudAI →