Можно ли копировать AI-Агентов?
На текущий момент такая возможность копировать AI-агенты в рамках одного или между разными ЛК отсутствует. Однако реализация этого функционала уже запланирована в бэклог разработки.
Что значит приписка "beta" в названии раздела?
Приписка "beta" в разделе AI-Агенты означает, что функциональность находится на стадии публичного тестирования и доработки. Это означает, что продукт уже содержит большинство запланированных функций, но может содержать ошибки или требовать дополнительных улучшений. Бета-версия предоставляется для получения обратной связи от пользователей, чтобы выявить проблемы, которые могут возникнуть в реальных условиях эксплуатации продукта, и помочь нашим разработчикам улучшить его перед окончательным релизом.
Можно ли осуществлять API-запросы из AI-Агентов?
Да, подробное описание функционала доступно в статье Запросы к внешним сервисам из AI агентов
На чем лучше собирать бота, через сценарий или AI-Агента?
Выбор способа сборки зависит от нескольких факторов:
- Сложная логика: Если нужны сложные алгоритмы или интеграции, выбирайте сценарного бота. У вас будет полный контроль над всеми процессами.
- Скорость запуска: AI-Агент настраивается быстро. С ним можно собрать рабочий прототип (MVP) за несколько часов.
- Простота поддержки: AI-Агента легче передать другому специалисту или дорабатывать благодаря понятному интерфейсу.
Как узнать об обновлениях функций AI-Агентов?
Все обновления публикуются в нашем Telegram-канале: https://t.me/twin_dev_news
Почему созданные AI-Агенты не отображаются в списке сценариев?
Так как AI-Агенты работают на LMM, у них отсутствует сценарий как таковой.
Можно ли перевести диалог из сценарного бота в AI-Агента через блок результат?
Нет, сценарные боты и AI-Агенты это два архитектурно разных сервиса, и работают они обособленно друг от друга.
Можно ли создать AI-Агента для работы в чате?
Да, AI-агент может быть выбран вместо сценария в настройках чата в разделе Текстовые боты личного кабинета. При настройке стоит учитывать, что перевод текстового диалога AI-агента на обычный сценарий невозможен.
Что делать если модель ошибается, или выдает странные ответы?
Проверьте какая модель установлена в разделе "Поставщик LLM". Если выбрана gemini-2.5-flash-lite, измените её на gemini-2.5-flash. Различие в том, что flash-lite это более упрощенная модель. Поэтому, при генерации ответов, она может ошибаться или галлюцинировать. Если уже выбрана gemini-2.5-flash, то попробуйте уменьшить степень креативности ответов. Для этого нажмите на кнопку шестеренки слева от названия модели и выберите пресет "Детерминированный". Затем снова проведите тест.
Можно ли использовать системные переменные бота в промптах для AI-агентов?
Нет, в AI-агентах недоступны системные переменные, которые есть в сценарных ботах, так как это два разных сервиса.
Будет ли расширяться список доступных LLM для AI-агентов?
Да, в будущем станут доступны LLM от разных поставщиков. На текущий момент доступны только модели Gemini, так как их быстродействие позволяет им более эффективно работать в звонках, чем другие модели.
Можно ли во время звонка перевести диалог с одного AI-агента на другого?
На текущий момент такой возможности нет. В будущем станет доступен инструмент, позволяющий настроить перевод между агентами.
Можно ли восстановить агентов, которые создавались в предыдущей версии функционала (AI-звонки)?
Нет, такой возможности нет, так как архитектура системы была полностью переработана.
Можно ли в реестре на обзвон передавать переменные в диалог с использованием AI-агента?
Да, переменные, переданные вместе с кандидатом, будут доступны для использования в промптах AI-агента, даже если они не объявлены в разделе Контекстные переменные.