Managed VM Runtime и Локальный AI

Ваши данные остаются у вас. Мы разворачиваем Анализатор тендеров и нейросеть прямо на вашей инфраструктуре с минимальным внешним Control Plane.

Запросить обособленную установку

Абсолютная приватность

Наш стандарт для enterprise-клиентов — это Managed VM Deployment. Вся обработка тендеров работает в закрытом контуре вашей компании (или выделенного сервера).

Вместо отправки коммерческих данных в публичные API (OpenAI/Anthropic), мы используем локальную LLM-модель (целевой стандарт Qwen3-30B-A3B Q6_K), работающую в выделенном контейнере через llama.cpp server (OpenAI-compatible endpoint).

  • Нет утечек конфиденциальных данных
  • Нет сюрпризов в счетах за API токены
  • Полный контроль инфраструктуры

Как работает Managed Runtime

Хоть система и стоит у вас, мы снимаем с вас всю головную боль по её поддержке.

На сервере работает легковесный Local Agent, который синхронизирует состояние (`ACTIVE`/`PAUSED`) с нашим минималистичным Control Plane, доставляет обновления пайплайна и проводит ротацию секретов.

Даже если подписка истекает или Control Plane недоступен — ваши ранее собранные данные (historical results API) остаются работать в read-only режиме, так как БД находится внутри вашей VM.

Docker Compose Stack
[ok] postgres
[ok] redis
[ok] perplexica (search)
[ok] local-llm (Qwen3)
[ok] worker-ingest
[ok] worker-docs
[ok] local-agent