Генерация, дополненная поиском: как мы превратили корпоративную базу в агента на базе ИИ — читайте в новом тексте на Хабре.
Дмитрий Омаров — ведущий инженер учебного центра по продуктам в нашей группе компаний. В статье он делится опытом, как создать корпоративного агента, который ускоряет поиск по внутренним базам знаний.
В большой компании знания живут в разных местах: документация, платформы баз знаний, переписки, тикеты технической поддержки.
Поэтому, хоть всё вроде бы и записано, в реальности быстро найти ответ на вопрос бывает очень трудно. Если не можешь что-то настроить в продукте, уходишь в квест по разным источникам. При этом обычный поиск ломается о синонимы, сокращения и контекст. Ещё один популярный метод — «спроси того человека», когда компания масштабируется через перегруз экспертов.
В компании решили создать систему, которая будет отвечать быстро, понятно и с опорой на факты. Чтобы не обучать свою модель на трудоёмком датасете, выбрали подход генерации, дополненной поиском (Retrieval-Augmented Generation, RAG) — и начали экспериментировать с разными большими языковыми моделями, или LLM.
Остановились на Deepseek-v3.2. Это позволило оставить корпоративные данные внутри контура, контролировать контекст, который получает модель, и при этом использовать генеративные модели для формирования ответа. В облако уходит только строго ограниченный и заранее подготовленный контекст без чувствительных данных.
Узнайте в материале о тонких настройках под задачи Цифры, этапах запросов, пользовательских и системных промптах, проверке ИБ и других деталях проекта.
К статье : https://habr.com/ru/companies/zyfra/articles/1007356/
habr.com: Корпоративная память как инфраструктура: как мы построили RAG-систему внутри ИТ-компании с промышленной экспертизой