Managed VM Runtime и Локальный AI
Ваши данные остаются у вас. Мы разворачиваем Анализатор тендеров и нейросеть прямо на вашей инфраструктуре с минимальным внешним Control Plane.
Запросить обособленную установкуАбсолютная приватность
Наш стандарт для enterprise-клиентов — это Managed VM Deployment. Вся обработка тендеров работает в закрытом контуре вашей компании (или выделенного сервера).
Вместо отправки коммерческих данных в публичные API (OpenAI/Anthropic), мы используем
локальную LLM-модель (целевой стандарт Qwen3-30B-A3B Q6_K), работающую в
выделенном контейнере через llama.cpp server (OpenAI-compatible endpoint).
- ✓ Нет утечек конфиденциальных данных
- ✓ Нет сюрпризов в счетах за API токены
- ✓ Полный контроль инфраструктуры
Как работает Managed Runtime
Хоть система и стоит у вас, мы снимаем с вас всю головную боль по её поддержке.
На сервере работает легковесный Local Agent, который синхронизирует состояние
(`ACTIVE`/`PAUSED`) с нашим минималистичным Control Plane, доставляет обновления пайплайна и
проводит ротацию секретов.
Даже если подписка истекает или Control Plane недоступен — ваши ранее собранные данные (historical results API) остаются работать в read-only режиме, так как БД находится внутри вашей VM.