Skip to main content

Интеграция с AI

Мы добавили возможность поиска ответов на запрос пользователя с помощью AI моделей. Для этого мы выбрали два решения:

  1. RouterAI - это российский сервис, агрегирующий доступ к большому количеству моделей с оплатой по принципу Pay-as-you-go с оплатой за использованные токены. Этот сервис можно оплатить картами российских банков. Данные при этом отправляются на сервера провайдеров LLM моделей, что может не подойти для компаний имеющих строгую политику Информационной безопасности, например из государственного сектора.
  2. Ollama - это ПО позволяющее загрузить локально AI модели и обращаться к ним внутри сети, при этом оставляя возможность поиска в сети Интернет. Данное решение не подразумевает оплаты за использование моделей, но очень требовательно к серверным ресурсам, от 8 ядер процессора, обязательно мощное графическое ядро, от 32 GB ОЗУ и NVME хранилище.

После включения интеграции, необходимо дать права для роли "Пользователь может использовать AI анализ для заявок". В форме просмотра заявки появится кнопка для поиска на панели.

image.png

После нажатия на кнопку будет выполнен запрос к модели. Модель будет выполнять поиск релевантной информации в записях Базы знаний, в похожих заявках и комментариях, а так же в документации, указанной в виде ссылок в настройках интеграции.

image.png

Результат полученного анализа можно скопировать для дальнейшего использования или повторить запрос, если модель дала нерелевантный ответ. Если закрыть модальное окно, то последний полученный ответ будет хранится в кэше некоторое время.

Параметры настроек интеграции

image.png

Провайдер - здесь необходимо выбрать RouterAI или Ollama какой из вариантов вы будете использовать.

API ключ RouterAI - для использования сервиса, необходимо зарегистрироваться, получить ключ и привязать карту, пополнив баланс. После этого необходимо создать API ключ

image.png

AI модель - на сайте сервиса есть обширный список моделей которые можно использовать. но мы подобрали оптимальные по соотношению цена/качество и некоторые из моделей используем сами. Цены указаны в рублях за 1 млн токенов.

Модель

Цена входящие токены

Цена исходящие токены

Размер контекста

Изображения/Текст

Комментарий

qwen/qwen3-vl-30b-a3b-instruct

14

59

262к

Изображения и текст

Работает отлично, ответы точные и краткие, понимает изображения

qwen/qwen3-vl-30b-a3b-thinking

19

99

131к

Изображения и текст

Работает отлично, но дороже

x-ai/grok-4.1-fast

19

49

128к-2м

Изображения и текст

Работает хорошо, ответы точные и краткие, понимает изображения

deepseek/deepseek-v3.2

24

37

164к

Текст

Выдает несколько вариантов решения, но придумывает

bytedance-seed/seed-1.6-flash

7

29

128к

Изображения и текст

Выдает пустой текст ответа

nvidia/nemotron-nano-9b-v2

3

15

131к

Текст

Работает хорошо, ответы точные и краткие

baidu/ernie-4.5-21b-a3b

6

27

120к

Текст

Работает хорошо, ответы точные и краткие

openai/gpt-5-nano

4

39

400к

Изображения и текст

Выдает обрезанный ответ, но не всегда

deepseek/deepseek-r1-distill-llama-70b

2

10

131к

Текст

Работает хорошо, ответы точные и краткие, дешевая, но без изображений

meta-llama/llama-3.2-3b-instruct

1

1

131к

Текст

Быстрая, дешевая, не сразу выдает ответы из документации, может фантазировать

Внешние ссылки на документацию (по одной на строку) - здесь необходимо указать ссылки на вашу документацию, в которой модель будет искать ответы на вопросы. Это могут быть внешние или внутренние ресурсы. Важно указывать ссылку на страницу, которая содержит ссылки на другие страницы, например на содержание, чтобы модель смогла обойти все ссылки.

Правила для AI модели - в данном блоке вы можете указать прямые инструкции для модели, как действовать в той или иной ситуации, как отвечать. Мы по умолчанию добавили несколько правил:

- ты опытный сотрудник технической поддержки, вежливо отвечающий клиенту

- отвечай кратко, но самое главное

- всегда отвечай на русском языке

Фильтровать похожие заявки по сервису - при включении, система будет выполнять поиск только в заявках с таким же сервисом.

Фильтровать похожие заявки по пользователю - при включении, система будет выполнять поиск только в заявках пользователя.

Фильтровать похожие заявки по компании - при включении, система будет выполнять поиск только в заявках компании пользователя.

Максимальное количество похожих заявок для анализа - количество похожих заявок, которые будут передаваться модели для анализа, мы рекомендуем 50.

Максимальное количество комментариев для включения в анализ - количество передаваемых для анализа комментариев, мы рекомендуем 200.

Максимальное количество статей базы знаний - количество передаваемых для анализа записей Базы знаний, мы рекомендуем 20.

Время жизни кэша (часы) - система кэширует данные для уменьшения количества запросов к БД. Время через которое кэш будет очищаться, мы рекомендуем 24 часа.

Таймаут запроса к API (секунды) - У каждой модели есть свое время отклика, особенно при использовании ollama, мы рекомендуем выставлять таймаут в 600 секунд (10 минут).

Параметры ollama

image.png

при выборе Ollama в качестве провайдера настройки будут отличаться от RouterAI

URL сервер Ollama - при запуске ollama принимает запросы по 11434 порту, вам нужно указать IP адрес развернутого приложения.

image.png

Модель Ollama - После запуска приложения вам необходимо скачать модель выбрав нужную в выделенном блоке на скриншоте и написать ей любое сообщение, после того как модель скачается, все запросы будут отправляться локально. Мы рекомендуем минималистичную и быструю модель gemma3:4b

Все остальные настройки будут одинаковы!