Agent modul¶
Agent modul je chytrý, výkonný LLM asistent, který následuje váš definovaný tok dialogu a pravidla, zůstává u tématu a zdvořile blokuje požadavky mimo téma — zatímco stále myslí a jedná autonomně. Neopakuje pouze skripty: přizpůsobuje se konverzacím a neočekávaným odpovědím, rozhoduje se v reálném čase a udržuje dialog přirozeně plynulý při respektování limitů a konverzačního stylu, který nastavíte.
Agent může také přistupovat a pracovat s API integracemi a vaší AI Knowledge databází. Pro více informací přejděte na:
Tip: Při správném použití může jeden nebo několik Agent modulů zvládnout většinu vašich dialogů a nahradit mnoho dalších modulů v toku dialogu.
Název Agent¶
Toto je pouze zobrazovaný název (štítek) modulu. Neovlivňuje funkcionalitu.
LLM Model¶
Vyberte OpenAI LLM model, který Agent použije.
- Pokud není zvolen žádný model, Agent použije verzi 4.1 ve výchozím nastavení.
- Agent, stejně jako ostatní moduly řízené LLM, spotřebovává AI Kredity s každou interakcí.
- Můžete vyvážit náklady a výkon výběrem jiného modelu. Například "mini" modely jsou obvykle levnější (tj. spotřebovávají méně AI Kreditů) a rychlejší — zejména při použití ve voicebotech, kde jsou důležité doby odezvy — ale mohou být méně přesné pro velmi komplikované úkoly. Naopak "plné" modely jsou výkonnější, ale mohou být zbytečně nákladné pro jednoduché úkoly jako FAQ.
- Pokud nevíte, který vybrat, nebojte se a použijte výchozí možnosti. Pokud je cena problémem, začněte s "mini" modely a přepněte na plné modely pouze pokud jsou odpovědi neuspokojivé.
Instrukce pro Agent (uživatelské prompty)¶
Agent bude následovat instrukce (prompty) napsané zde. Je důležité vyplnit tyto instrukce pečlivě — čím lepší instrukce, tím lépe se bot bude chovat podle vaší vize. Řiďte se tímto jednoduchým pravidlem: pokud jiný člověk může jasně pochopit váš prompt, bot pravděpodobně také.
Viz také Tipy a osvědčené postupy
Pro instrukce Knowledge Base Agent viz AI Knowledge v Agent
Klikněte na ikonu tužky pro otevření editoru instrukcí. Poskytněte jasné, strukturované, krokované instrukce pro bota a vyhněte se rozporuplnosti.
Info
Prompt níže je příkladem vícekolové instrukce, která zahrnuje API integraci.
1. Začněte definováním identity bota, role a základních principů¶
(příklad promptu)
2. Definujte vhodný komunikační styl a tón¶
(příklad promptu)
3. Definujte případy užití, které očekáváte, že Agent zvládne sám¶
(příklad promptu)
4. Přidejte další instrukce — pokud je potřeba¶
(příklad promptu)
Tip
Můžete použít další veřejně dostupné LLM nástroje, které vám pomohou vygenerovat podobné instrukce pro vašeho bota. Pokud tak učiníte, vždy zkontrolujte vygenerované prompty a opravte případné chyby nebo rozpory.
Info
Výše uvedený prompt byl příkladem relativně jednoduchého dialogu s pouze pár možnostmi a podmínkami.
Pamatujte, čím jednodušší a méně matoucí je prompt, tím větší je šance, že Agent udělá přesně to, co chcete.
Pokud je váš dialog složitější, obsahuje mnoho komplikovaných podmínek nebo volá více integrací, zvažte vytvoření několika Agentů s jednoduššími prompty pro každý jednotlivý úkol nebo případ užití. Pak zřetězete Agenty dohromady jeden za druhým. Viz také Tipy a osvědčené postupy.
Výstupní cesty¶
Agent použije Výstupní cesty kdykoli je splněna definovaná podmínka. Například můžete nastavit cesty jako Předpověď počasí poskytnuta a Opakovaně mimo téma. Agent pak opustí přes výstupní cestu Předpověď počasí poskytnuta, když úspěšně získá a doručí předpověď počasí, a cestu Opakovaně mimo téma, když uživatel opakovaně klade otázky mimo téma. Pak můžete pokračovat v budování vašeho standardního toku dialogu na základě toho, co se stalo v Agent.
Výstupní cesta Other je automaticky spuštěna, pokud se neaplikuje žádná popsaná podmínka nebo chování, nebo v případě chyby.
Info
Na rozdíl od jiných modulů může Agent interagovat s uživatelem a vést konverzaci zatímco "zůstává uvnitř modulu" - tj. bez pokračování toku pomocí šipek. Výstupní cesta je použita pouze když je splněna podmínka popsaná v instrukcích Agent.
1. Název cesty¶
-
Název výstupní cesty
-
Např.
Předpověď počasí poskytnutaaOpakovaně mimo téma - Můžete instruovat Agent, aby použil definovanou výstupní cestu, když je splněna podmínka, např. když Agent úspěšně poskytne předpověď počasí
2. Instrukce¶
- Další instrukce aplikovatelné pouze na specifikovanou výstupní cestu. Přidejte všechny extra instrukce, které jste nezahrnuli do obecných instrukcí Agent. Ujistěte se, že prompty zde a v obecných instrukcích si neodporují.
3. Ztišit Agent při předání¶
- Pokud je toto políčko zaškrtnuto, Agent neřekne nic před použitím této výstupní cesty.
- Pokud je toto políčko nezaškrtnuto, Agent může vygenerovat vlastní odpověď před použitím této výstupní cesty.
Info
Příklad pro nastavení níže:
- Pokud Agent poskytne předpověď počasí, pak jednoduše pokračuje přes výstupní cestu
Předpověď počasí poskytnuta.- Nicméně, pokud uživatel opakovaně klade otázky mimo téma, Agent vygeneruje přizpůsobenou zprávu jako "Omlouvám se, opravdu nemám odpovědi na vaše otázky, mohu vám pomoci pouze s otázkami o počasí." před opuštěním přes výstupní cestu
Opakovaně mimo téma. Pak můžete přidat další standardní moduly a pokračovat v toku dialogu.
Nástroje a API integrace¶
Agent může přistupovat a volat API Integrace a pracovat s jejich výsledky, to vše zatímco udržuje konverzaci v chodu. Pokud nějaké požadované informace chybí, Agent to rozpozná a zeptá se uživatele na chybějící informace před provedením API volání.
Info
Použití Agent pro volání API integrací je výkonný pokročilý nástroj, ale rozhodně není vyžadován pro jednoduché úkoly jako odpovídání na FAQ, sbírání osobních údajů uživatele nebo analyzování požadavků uživatele atd. Pro všechny úkoly, kde nepotřebujete, aby Agent získával nebo posílal data do jiných systémů, se tím netrapte — Agent je perfektně použitelný i bez integrací.
Jak říct Agent, jak používat API integrace¶
1. Výběr API integrací¶
- Jednoduše vyberte integrace v rozbalovacím poli v nastavení modulu Agent
- Bot získá přístup pouze k vybraným API integracím
- (Tyto integrace musí být nejprve definovány v API Integrations)

2. Definování API integrací¶
Pro povolení API integrací pro vašeho Agent musíte vyplnit záložku Vstupy pro Agent v nastavení API Integrations.
Viz dokumentaci pro více podrobností.
3. Říkáme Agent, jak používat integrace¶
Nyní musíte říct Agent, jak používat tyto integrace jako součást skutečného dialogu. Musíte definovat jejich použití v instrukcích Agent (Instrukce (uživatelské prompty) pro Agent);
- Řekněte Agent, jaké parametry použít a co dělat s výsledkem.
Info
Agent volá integrace v definovaném pořadí jednu za druhou — ne všechny najednou. Buďte opatrní při volání více než 1 API, protože to může způsobit delší doby odezvy, zejména ve voicebotech.
AI Knowledge v Agent¶
Agent může přistupovat a pracovat s vašimi soubory a další knowledge databází uloženou pod záložkou AI Knowledge (viz dokumentaci).

-
Pro povolení přístupu k databázi AI Knowledge jednoduše zaškrtněte políčko Použít AI KB v nastavení modulu Agent.
-
Pak vyplňte název Knowledge Base Index. Prozatím můžete najít název Knowledge Base Index pod Instance ID v Nastavení na levém panelu v záložce AI Knowledge (viz 1. Přidat/Upravit knowledge). Vyplňte Instance ID jako název Knowledge Base Index.

- Vyplňte Instrukce Knowledge Base Agent. Použijte stejné principy jako pro hlavní Instrukce pro Agent (uživatelské prompty) — jen se zaměřte na požadované chování funkce AI Knowledge.
Agent pak odpoví na otázku (nebo jedná podle Instrukcí Knowledge Base Agent) a pak pokračuje v jednání podle hlavních Instrukcí pro Agent.
- V hlavních Instrukcích pro Agent nezapomeňte zmínit, kdy použít knowledge databázi. Např.,
(příklad promptu)
- Pro voiceboty a pro chatboty, pokud očekáváte velmi rychlou reakci, zaškrtněte Asynchronní režim. Toto umožní asynchronní zpracování pro dlouhotrvající požadavky. Když je povoleno, modul okamžitě odpoví zástupnou zprávou a zpracuje požadavek na pozadí. Konečná odpověď bude doručena až bude připravena. Užitečné pro složité dotazy, které mohou trvat dlouho.
Info
Na rozdíl od Kategorií v AI Knowledge, Agent rozhoduje, které KB kategorie nebo zdroje použít automaticky.
Jak Agent čte a zachází s $context proměnnými v instrukcích¶
Při vyplňování instrukcí Agent možná budete chtít odkazovat na $context proměnné. Řiďte se těmito pravidly při odkazování na $contexts ve vašich promptech:
-
Pokud napíšete název kontextu "tak jak je", s jedním znakem $ jako prefixem (např.
$sys_date_time), Agent přečte pouze hodnotu uvnitř kontextu. Toto můžete použít k předání Agent nějakých externích a již existujících informací, které může potřebovat pro specifikovaný případ užití. -
Váš prompt:
(příklad promptu)
- Co Agent skutečně vidí:
(příklad promptu)
- Pokud chcete říct Agent, aby použil kontextovou proměnnou (ne jen ji číst), nebo uložil specifickou hodnotu do specifického kontextu, jednoduše mu řekněte
použij "kontext xyz"neboulož hodnotu "ABC" do kontextu "názevVašehoKontextu". Agent rozpozná, co chcete, a použije nebo uloží odpovídající kontext.
! V tomto případě nepoužívejte prefix $ při odkazování na název kontextu. Jak je ukázáno v 1., prefix $ převede název kontextu na jeho hodnotu místo toho.
Není potřeba, aby Agent ukládal každou jednotlivou věc do kontextu, pokud nepotřebujete pracovat s těmito kontexty mimo Agent.
Například, pokud jen potřebujete ověřit číslo smlouvy klienta na základě jeho jména a zajímá vás pouze to, zda jsou ověřeni nebo ne, pak:
X místo tohoto:
(příklad promptu - neukládat zbytečně do kontextu)
Jednoduše řekněte Agent toto:
(příklad promptu - přímé ověření)
Info
Stejná logika byla aplikována v Krocích 3-5 v příkladu promptu pro bota s předpovědí počasí.
Tipy a osvědčené postupy¶
Zatímco můžete psát instrukce (prompty) Agent prakticky jakýmkoli způsobem a stylem, doporučujeme následovat některé osvědčené postupy.
Používejte lidsky čitelné instrukce
- Pokud jiný člověk může jasně pochopit váš prompt, pak pravděpodobně Agent to může také.
- Agent je technicky schopen pracovat s prakticky jakýmkoli psaným textem, takže můžete vložit kusy kódu, JSON příklady nebo jiné texty určené pro stroje do instrukcí, ale čím více to zkomplikujete, tím vyšší je šance, že něco půjde špatně. Obvykle není absolutně žádná potřeba explicitně psát jaký kód do instrukcí - jednoduše odkazujte na příslušné kontexty nebo API integrace.
Buďte konkrétní
- Může to znít samozřejmě, ale Agent neumí číst vaše myšlenky a záměry. Pokud potřebujete, aby něco udělal, řekněte mu, ať to udělá, a specifikujte, jak by měl přistupovat k úkolu. Implicitně nezná váš zamýšlený tok konverzace, firemní procesy, výjimky, komunikační styl atd. a může se chovat nepředvídatelně, když není instruován.
Vyhněte se rozporům
- Pokud definujete podmínky (pokud ..., pak ...), ujistěte se, že se vyhnete rozporům. Pokud jedna instrukce říká
"Pokud vám uživatel neřekl své jméno, zeptejte se znovu jednou, a pokud stále odmítají, zavěste"a jiná instrukce někde jinde říká"Pokud vám neřekli své jméno, jednoduše to ignorujte a pokračujte", Agent se bude chovat nekonzistentně.
Zkontrolujte všechny kontexty
-
Pokud odkazujete na kontexty, zkontrolujte, zda jsou správné a dávají smysl v rámci toku dialogu. Čím více úprav provedete ve vašich instrukcích během procesu tvorby dialogu, tím vyšší je šance, že některé dříve použité kontexty již nejsou platné, mají jiný název atd.
-
Zkontrolujte znaky prefixu $:
- Když očekáváte, že Agent přečte skutečnou hodnotu kontextu, napište jej se znakem $
- Když jej jen potřebujete použít nebo do něj zapsat, napište jej bez znaku $
- Viz Jak Agent čte a zachází s $context proměnnými v instrukcích pro více informací
Rozdělte úkoly do více Agentů
- Pokud je váš dialog složitý — zahrnuje mnoho podmínek, více integrací nebo detailní pracovní postupy — zvažte vytvoření několika jednodušších Agentů, každý zodpovědný za specifický úkol nebo případ užití. Pak tyto Agenty zřetězete dohromady pro dokončení celého toku dialogu.
- Čím jednodušší a jasnější je váš prompt, tím spolehlivěji bude Agent pracovat podle očekávání. Takže pokud váš současný Agent "většinou funguje, ale někdy selže v kroku 6 a zapomene poděkovat zákazníkovi," je to dobrý znak, že byste mohli zvážit rozdělení na menší, specializovanější Agenty.
-
Důležité poznámky při rozdělování Agentů
-
Agenti mohou číst přepis konverzace. Jsou si vědomi toho, co se děje v dialogu.
- Agenti nesdílejí prompty mezi sebou. Možná budete muset explicitně popsat roli druhého Agent a zkopírovat komunikační styl a případně upravit i popis role prvního Agent.
- Agenti nesdílejí data odpovědí integrací. Pokud druhý Agent potřebuje data získaná prvním Agent, instruujte prvního Agent, aby je uložil do kontextu.
Info
Rozdělení vašeho pracovního postupu do více Agentů může - někdy - také příznivě ovlivnit spotřebu AI Kreditů. Všechno, včetně hlavního promptu, obecného promptu Agent, promptu výstupních cest, odpovědí API integrací atd., je zpracováno najednou a spotřebovává AI Kredity s každou odpovědí Agent. S velkým Agent můžete zbytečně spotřebovávat 2-3 AI Kredity na odpověď Agent — pro každý jednotlivý krok promptu — i když v "Kroku 1" vás možná ještě vůbec nezajímá "Krok 7". Rozdělením na menší Agenty můžete mírně zvýšit počet interakcí, ale výrazně snížit celkový počet spotřebovaných AI Kreditů díky mnohem menším promptům zpracovaným v daném okamžiku. Pokud máte pocit, že spotřeba je příliš vysoká a již používáte menší LLM modely (viz níže), zvažte rozdělení velkého Agent.
LLM modely
-
Pokud jste nenastavili LLM model sami, Agent používá výchozí GPT 4.1
-
Pokud máte pocit, že vaše popisy jsou jasné a konzistentní, ale Agent stále odmítá je poslouchat, zkuste přepnout na jiný model — např. "plné" modely (jako 4.1) jsou výkonnější než "mini" modely (jako 4.1-mini).
-
Poznámka, že "plné" modely mohou:
- spotřebovávat více AI kreditů na interakci (spotřebu můžete zkontrolovat v Detaily diskuze v záznamech událostí)
- mít delší dobu odezvy; to může být postřehnutelné u voicebotů
API integrace v Agent
-
Ujistěte se, že vyplníte pole popisu v API Integrations -> Vstupy pro Agent -> Popis. Pokud je váš popis srozumitelný pro člověka, měl by být srozumitelný i pro Agent.
-
Pokud budete používat více endpointů, které jsou si navzájem podobné, dejte si extra pozor na dostatečný popis jejich funkcí, aby je Agent mohl s jistotou rozlišit
-
Pokud očekáváte, že Agent bude sbírat požadované proměnné sám, nastavte odpovídající zdroj kontextu na
Agent; naopak, pokud je již máte nebo nechcete, aby je Agent četl, nastavteDiscussion -
Nenastavujte vaše API klíče nebo přístupové tokeny jako zdroj na
Agent -
API odpověď je také součástí celého promptu, protože Agent ji musí přečíst a zpracovat; velké odpovědi vedou k velkým promptům, což může vést k vyšší spotřebě AI Kreditů
-
LLM funguje nejlépe s API, které vracejí co nejméně dat; prohledávání velkých množství nepotřebných dat odpovědi snižuje míru úspěchu
- Pokud je vaše odpověď větší než 1 kB, zkontrolujte, zda opravdu obsahuje pouze nezbytná data nebo zda lze odpověď zjednodušit