Váš AI agent právě podepsal smlouvu. Testovali jste ho?

AI agenti už nevedou jen small talk. Podepisují smlouvy, schvalují pojistky, rozhodují o kreditech. A jeden špatný agent může poškodit tisíce zákazníků najednou. Cyara — firma, která testuje zákaznické zážitky pro 600+ klientů — říká jasně: testování důvěry je teď důležitější než testování funkčnosti.

Zdroj: VUX World podcast Hosté: Amitha Pulijala & Christoph Börner (Cyara) Březen 2026
90 % AI projektů uvízlo v POC fázi
500K+ AI odpovědí analyzováno Cyara AI Trust
56 % lidí ztratí důvěru ve firmu po špatné AI odpovědi
srpen 2026 deadline EU AI Act pro high-risk systémy
🔥 Co si z toho odnáším
AI svět

EU AI Act startuje naplno a testování důvěry je nová disciplína

Pravidla pro vysoce rizikové AI systémy platí od srpna 2026. Chatbot, který rozhoduje o zákaznících? Vysoce rizikový. AI agent ve státní správě? Vysoce rizikový. A penále? Až 35 milionů EUR nebo 7 % obratu.

Cyara to řeší tak, že natrénuje svého AI agenta na textu EU AI Act a pošle ho „vyslýchat" testovaného bota. Ptá se: „Ukládáte moje data? Kde? Můžu vidět, jak jste k rozhodnutí došli?" Pokud bot odpoví „nemůžu říct" — červená vlajka.

Vzniká celý ekosystém nástrojů: Cyara AI Trust (FactCheck + Misuse moduly), Credo AI (Fast Company ho zařadil mezi nejinovativnější firmy 2026, Mastercard ho používá pro governance), IBM AI Fairness 360 (open source, 70+ metrik férovosti zdarma) nebo čerstvý Microsoft Zero Trust for AI framework.

Další krok → Pokud nasazujete AI agenta pro zákazníky — zejména ve státní správě — zjistěte, jaké compliance povinnosti vás čekají. Začněte na artificialintelligenceact.eu, kde najdete i compliance checker pro menší firmy.
Pro praxi

Bias testing odhalil AI agenta, který ženám doporučoval „raději marketing"

Christoph Börner z Cyary sdílel příběh z reálného bias testu: velká tech firma, 500 000 lidí v databázi. AI agent při simulovaném pohovoru doporučil ženě, která se hlásila na pozici software developerky, ať raději zkusí marketing. Prý „tohle je práce pro muže."

Ne sci-fi. Reálný výsledek testu. Jeden takový incident = tisíce poškozených zákazníků najednou, protože na rozdíl od lidského zaměstnance AI agent škáluje. A to je přesně důvod, proč „hodíme tam ChatGPT" nestačí. Strukturovaný AI agent s definovanými guardrails a pravidelným testováním tohle odchytí. Generický chatbot ne.

Další krok → Než nasadíte AI agenta do produkce, otestujte ho na bias — minimálně simulujte konverzace z perspektivy různých demografických skupin. Existují open source nástroje (IBM AIF360), které to umožňují i menším týmům.
Kontext: Kane Simms (VUX World) mluvil s Amithou Pulijala (CPO Cyara) a Christophem Börnerem (VP Engineering Cyara) o tom, jak se změnilo testování AI agentů. Cyara testuje zákaznické zážitky pro 600+ firem a ročně zpracuje přes 350 milionů zákaznických cest. V podcastu se řešilo: proč intenty nezmizí, jak testovat nedeterministické systémy, kolik stojí AI v produkci, a proč je etika stejně důležitá jako funkčnost.
Kompletní přehled témat
koncept · produkt
Cyara definuje „trust layer" jako samostatnou vrstvu testování. Zahrnuje ověřování faktů proti zdroji pravdy, detekci halucinací, testování biasu, compliance s EU AI Act/HIPAA/PCI a detekci zneužití. Za 6 měsíců analyzovali přes 500 000 AI odpovědí a snížili manuální kontrolu o 80 %.
→ AI agent, kterému můžete věřit — to je hodnota, ne jen „máme chatbota".
AI agenti testují AI agenty
vysoká
koncept · architektura
Cyara používá AI agenty k testování zákaznických AI agentů. Agent dostane cíl (např. „zablokuj kreditní kartu"), vede konverzaci s testovaným botem — pokaždé jinou. 100 testů = 100 různých cest. Ruční testování na tohle nestačí.
→ QA pro AI agenty potřebuje AI. Nedá se obejít.
EU AI Act compliance testing
vysoká
regulace · koncept
Cyara trénuje AI agenta na textu EU AI Act a nechá ho „vyslýchat" boty — ptá se na ukládání dat, region, transparentnost rozhodování. High-risk pravidla platí od srpna 2026. Pokuty za nedodržení sahají do desítek milionů EUR. Každý členský stát EU musí do srpna 2026 zřídit alespoň jeden AI regulatory sandbox.
→ Pro organizace, které nasazují AI agenty v EU, compliance přestává být volitelná.
Bias testing — reálný případ z praxe
vysoká
případ · etika
AI agent velké tech firmy při simulovaném pohovoru doporučil ženě marketing místo developer pozice — „tohle je práce pro muže." Kristoff Börner: firmy řeší funkční testování automaticky, ale etickou vrstvu většina přehlíží. Přitom jeden špatný AI agent poškodí tisíce zákazníků najednou.
→ Guardrails a etické testování nejsou luxus. Jsou ochrana značky.
Intenty nezmizí
střední
koncept · pozice
Kristoff Börner: diskuse o tom, zda zmizí intenty, je zbytečná. Zákazníci volají, protože chtějí něco dosáhnout. To je intent — ať tomu říkáte jakkoli. Testovat musíme pořád podle top use cases.
→ AI agent potřebuje definované „co umí", i když konverzace samotná je nepředvídatelná.
Hybridní architektura — NLU + GenAI
střední
koncept · trend
Málokdo jede full agentic end-to-end. Většina firem kombinuje NLU pro porozumění, GenAI pro generování odpovědí a deterministické procesy pro business logiku. Strukturovaný flow + AI pro jazyk je mainstream, ne kompromis.
→ Hybridní přístup není pozadu — je rozumný.
Malé vs. velké jazykové modely (SLM vs. LLM)
střední
debata · trend
Kristoff zavádí pojem „DLM" — Domain-based Language Model: malý model trénovaný na konkrétní doménu. Healthcare klienti Cyary používají LLM jen pro jeden turn (reset hesla), protože plnohodnotný GPT-4 je pro tohle zbytečný. Někteří klienti si pořizují vlastní Nvidia hardware za pár tisíc dolarů pro lokální běh.
→ Pro regulované odvětví: menší model = menší náklady + data zůstávají u vás.
Náklady na AI v produkci
střední
koncept · problém
Na rozdíl od tradičního softwaru má AI marginální náklady na každou interakci. Cyara řeší náklady chytře: jednoduchý úkol = malý model (3B parametry), komplexní reasoning = velký model (90B parametry). Každý krok v pipeline si zaslouží jiný model.
→ Ne všechno musí běžet přes nejdražší model. Routing podle složitosti = reálná úspora.
Performance testing v agentic světě
nízká
technický koncept
Load testing se změnil. Dříve 100 000 requestů → předvídatelný backend call v kroku 4. Teď každý hovor jde jinou cestou. Cyara kombinuje dva AI komponenty: jeden generuje zátěž, druhý simuluje reálné hovory.
→ Testování AI agentů je dražší a složitější než testování tradičních IVR systémů.
Go-live rozhodnutí: kdy je agent připravený?
nízká
koncept · debata
100% test coverage u autonomních agentů neexistuje. Amitha: buďte strategičtí — testujte high-risk cesty první (platby, zrušení, bezpečnost). Cyara nabízí doporučovací engine, který navrhne, co testovat na základě 15 let dat.
→ „Dokonale otestováno" neexistuje. „Zodpovědně nasazeno" ano.