Глоссарий

Термины без воды

Короткие определения ключевых ИИ-терминов: что такое мультиагентная система, чем RAG отличается от fine-tuning, зачем нужен MCP. Без хайпа и эзотерики — то, что реально используется в production.

Мультиагентная ИИ-система

Команда специализированных ИИ-агентов, которые решают одну сложную задачу совместно — каждый со своей зоной ответственности, памятью и инструментами.

Если обычный ИИ-чат-бот — это «один процесс „вопрос → ответ”», то мультиагентная система — это команда из 3–10 агентов. Один ищет информацию, другой анализирует, третий проверяет качество, четвёртый исполняет. Между ними — чёткие контракты на формат данных, мониторинг и стратегии fallback. Архитектура нужна там, где задача требует разных типов рассуждения или работы с разными источниками.

См. также: ИИ-агент , Оркестрация , RAG (Retrieval-Augmented Generation)

ИИ-агент

Программа на базе LLM, которая автономно решает задачу: понимает запрос, использует инструменты (поиск, базы данных, API), помнит контекст, эскалирует сложное человеку.

ИИ-агент — это не «обёртка над ChatGPT». Это система с долгосрочной памятью (vector DB), набором инструментов (function calling / MCP), системным промптом, ограничениями и логикой принятия решений. Single-agent решает одну задачу (ассистент, классификатор, генератор). Мульти — несколько связанных задач.

См. также: Мультиагентная ИИ-система , MCP (Model Context Protocol) , RAG (Retrieval-Augmented Generation)

RAG (Retrieval-Augmented Generation)

Технология, при которой LLM перед ответом ищет релевантные документы в базе знаний и использует их как контекст. Так модель отвечает фактами вашей компании, а не «в среднем».

Без RAG модель опирается на свои обучающие данные — это «средний интернет» без учёта вашей специфики. С RAG: вы индексируете свою базу (документация, FAQ, регламенты) в vector DB (Chroma, pgvector), при запросе извлекаете top-N релевантных кусков и подмешиваете их в промпт. Модель отвечает с цитатой источника. Стоит RAG-внедрение от 100К ₽.

См. также: ИИ-агент , Fine-tuning

MCP (Model Context Protocol)

Открытый стандарт от Anthropic для подключения внешних инструментов и данных к LLM. Аналог USB-C для ИИ.

До MCP каждая интеграция «LLM ↔ инструмент» делалась с нуля. С MCP инструменты предоставляют унифицированный интерфейс — модель может работать с любым MCP-сервером без кастомного кода. Это снижает стоимость интеграций и упрощает переключение моделей. Поддерживают: Claude, ChatGPT (через адаптеры), все агентные фреймворки.

См. также: ИИ-агент , Оркестрация

n8n

Open-source платформа для оркестрации рабочих процессов. «Нервная система» автоматизации — соединяет CRM, мессенджеры, LLM, базы данных через визуальный редактор.

n8n позволяет описать процесс из 10–50 шагов без программирования: «получили заявку → классифицировали LLM → передали в CRM → отправили уведомление в Telegram». Self-hosted, бесплатный для коммерческого использования. Альтернативы: Make (Integromat), Zapier — но они проприетарные и дороже на больших объёмах.

См. также: Оркестрация

Оркестрация

Связывание нескольких систем (LLM, CRM, мессенджер, БД, API) в один автоматизированный поток с понятной логикой и обработкой ошибок.

Без оркестрации каждый шаг процесса делает человек или отдельный скрипт. С оркестрацией — один поток, который описан декларативно (n8n, Temporal, AirFlow) или императивно (TypeScript / Python), с retry, fallback и мониторингом. Без хорошей оркестрации мультиагентные системы превращаются в неуправляемый клубок.

См. также: n8n , Мультиагентная ИИ-система

Vendor lock-in

Зависимость от поставщика, при которой смена подрядчика или платформы становится невозможной без переписывания решения с нуля.

В ИИ vendor lock-in возникает когда: (1) код проекта не передан клиенту, (2) инфраструктура только в облаке поставщика, (3) нет документации, (4) промпты и логика спрятаны в проприетарной платформе. Защита: self-hosting, передача исходного кода и доступов клиенту, документация в формате runbook, открытые стандарты (MCP, OpenAPI).

См. также: MCP (Model Context Protocol)

Fine-tuning

Дообучение готовой LLM на ваших данных. Нужен, когда RAG и промпт-инжиниринг не справляются — например, для очень специфичного tone-of-voice или редких форматов.

Fine-tuning делается реже, чем кажется. Большинство задач закрываются комбинацией RAG + хороший системный промпт + few-shot. Fine-tuning оправдан когда: (1) объём данных большой и стабильный, (2) формат ответа нестандартный, (3) задача воспроизводится постоянно. Стоит от 500К ₽, требует выделенного датасета и регулярного переобучения при обновлении модели.

См. также: RAG (Retrieval-Augmented Generation) , ИИ-агент

Vector database

База данных для хранения embedding-векторов и быстрого поиска похожих. Основа RAG и долгосрочной памяти агентов.

Vector DB хранит документы как численные векторы (embedding) и умеет находить топ-N похожих по cosine similarity за миллисекунды. Популярные: Chroma (легковесная), pgvector (расширение PostgreSQL — если уже есть Postgres), Weaviate, Pinecone (managed). Для проекта на 10К–1М документов хватит Chroma или pgvector — это бесплатно и self-hosted.

См. также: RAG (Retrieval-Augmented Generation)

Tone-of-voice (TOV)

Стиль и характер коммуникации компании. Чтобы ИИ-агент отвечал «как мы», а не «как ChatGPT в среднем», TOV кодируется в системном промпте.

Tone-of-voice — это не про дружелюбие или формальность вообще. Это про конкретные правила: какие слова мы НЕ используем, на «ты» или «вы», эмодзи или нет, длина предложений, типичные обороты, обращения. У хорошего TOV должны быть антипримеры — «как НЕ должно звучать». Кодируется в systeme prompt + few-shot-примеры + регрессионные тесты.

Есть термин, которого здесь нет?

Напишите — добавим в глоссарий. Или обсудим вашу задачу — оценим за один созвон.