Váš AI agent právě podepsal smlouvu. Testovali jste ho?
AI agenti už nevedou jen small talk. Podepisují smlouvy, schvalují pojistky, rozhodují o kreditech. A jeden špatný agent může poškodit tisíce zákazníků najednou. Cyara — firma, která testuje zákaznické zážitky pro 600+ klientů — říká jasně: testování důvěry je teď důležitější než testování funkčnosti.
Zdroj: VUX World podcast
Hosté: Amitha Pulijala & Christoph Börner (Cyara)
Březen 2026
90 %
AI projektů uvízlo v POC fázi
500K+
AI odpovědí analyzováno Cyara AI Trust
56 %
lidí ztratí důvěru ve firmu po špatné AI odpovědi
srpen 2026
deadline EU AI Act pro high-risk systémy
AI svět
EU AI Act startuje naplno a testování důvěry je nová disciplína
Pravidla pro vysoce rizikové AI systémy platí od srpna 2026. Chatbot, který rozhoduje o zákaznících? Vysoce rizikový. AI agent ve státní správě? Vysoce rizikový. A penále? Až 35 milionů EUR nebo 7 % obratu.
Cyara to řeší tak, že natrénuje svého AI agenta na textu EU AI Act a pošle ho „vyslýchat" testovaného bota. Ptá se: „Ukládáte moje data? Kde? Můžu vidět, jak jste k rozhodnutí došli?" Pokud bot odpoví „nemůžu říct" — červená vlajka.
Vzniká celý ekosystém nástrojů: Cyara AI Trust (FactCheck + Misuse moduly), Credo AI (Fast Company ho zařadil mezi nejinovativnější firmy 2026, Mastercard ho používá pro governance), IBM AI Fairness 360 (open source, 70+ metrik férovosti zdarma) nebo čerstvý Microsoft Zero Trust for AI framework.
Další krok → Pokud nasazujete AI agenta pro zákazníky — zejména ve státní správě — zjistěte, jaké compliance povinnosti vás čekají. Začněte na
artificialintelligenceact.eu, kde najdete i compliance checker pro menší firmy.
Pro praxi
Bias testing odhalil AI agenta, který ženám doporučoval „raději marketing"
Christoph Börner z Cyary sdílel příběh z reálného bias testu: velká tech firma, 500 000 lidí v databázi. AI agent při simulovaném pohovoru doporučil ženě, která se hlásila na pozici software developerky, ať raději zkusí marketing. Prý „tohle je práce pro muže."
Ne sci-fi. Reálný výsledek testu. Jeden takový incident = tisíce poškozených zákazníků najednou, protože na rozdíl od lidského zaměstnance AI agent škáluje. A to je přesně důvod, proč „hodíme tam ChatGPT" nestačí. Strukturovaný AI agent s definovanými guardrails a pravidelným testováním tohle odchytí. Generický chatbot ne.
Další krok → Než nasadíte AI agenta do produkce, otestujte ho na bias — minimálně simulujte konverzace z perspektivy různých demografických skupin. Existují open source nástroje (IBM AIF360), které to umožňují i menším týmům.
koncept · produkt
Cyara definuje „trust layer" jako samostatnou vrstvu testování. Zahrnuje ověřování faktů proti zdroji pravdy, detekci halucinací, testování biasu, compliance s EU AI Act/HIPAA/PCI a detekci zneužití. Za 6 měsíců analyzovali přes 500 000 AI odpovědí a snížili manuální kontrolu o 80 %.
→ AI agent, kterému můžete věřit — to je hodnota, ne jen „máme chatbota".
koncept · architektura
Cyara používá AI agenty k testování zákaznických AI agentů. Agent dostane cíl (např. „zablokuj kreditní kartu"), vede konverzaci s testovaným botem — pokaždé jinou. 100 testů = 100 různých cest. Ruční testování na tohle nestačí.
→ QA pro AI agenty potřebuje AI. Nedá se obejít.
regulace · koncept
Cyara trénuje AI agenta na textu EU AI Act a nechá ho „vyslýchat" boty — ptá se na ukládání dat, region, transparentnost rozhodování. High-risk pravidla platí od srpna 2026. Pokuty za nedodržení sahají do desítek milionů EUR. Každý členský stát EU musí do srpna 2026 zřídit alespoň jeden AI regulatory sandbox.
→ Pro organizace, které nasazují AI agenty v EU, compliance přestává být volitelná.
případ · etika
AI agent velké tech firmy při simulovaném pohovoru doporučil ženě marketing místo developer pozice — „tohle je práce pro muže." Kristoff Börner: firmy řeší funkční testování automaticky, ale etickou vrstvu většina přehlíží. Přitom jeden špatný AI agent poškodí tisíce zákazníků najednou.
→ Guardrails a etické testování nejsou luxus. Jsou ochrana značky.
koncept · pozice
Kristoff Börner: diskuse o tom, zda zmizí intenty, je zbytečná. Zákazníci volají, protože chtějí něco dosáhnout. To je intent — ať tomu říkáte jakkoli. Testovat musíme pořád podle top use cases.
→ AI agent potřebuje definované „co umí", i když konverzace samotná je nepředvídatelná.
koncept · trend
Málokdo jede full agentic end-to-end. Většina firem kombinuje NLU pro porozumění, GenAI pro generování odpovědí a deterministické procesy pro business logiku. Strukturovaný flow + AI pro jazyk je mainstream, ne kompromis.
→ Hybridní přístup není pozadu — je rozumný.
debata · trend
Kristoff zavádí pojem „DLM" — Domain-based Language Model: malý model trénovaný na konkrétní doménu. Healthcare klienti Cyary používají LLM jen pro jeden turn (reset hesla), protože plnohodnotný GPT-4 je pro tohle zbytečný. Někteří klienti si pořizují vlastní Nvidia hardware za pár tisíc dolarů pro lokální běh.
→ Pro regulované odvětví: menší model = menší náklady + data zůstávají u vás.
koncept · problém
Na rozdíl od tradičního softwaru má AI marginální náklady na každou interakci. Cyara řeší náklady chytře: jednoduchý úkol = malý model (3B parametry), komplexní reasoning = velký model (90B parametry). Každý krok v pipeline si zaslouží jiný model.
→ Ne všechno musí běžet přes nejdražší model. Routing podle složitosti = reálná úspora.
technický koncept
Load testing se změnil. Dříve 100 000 requestů → předvídatelný backend call v kroku 4. Teď každý hovor jde jinou cestou. Cyara kombinuje dva AI komponenty: jeden generuje zátěž, druhý simuluje reálné hovory.
→ Testování AI agentů je dražší a složitější než testování tradičních IVR systémů.
koncept · debata
100% test coverage u autonomních agentů neexistuje. Amitha: buďte strategičtí — testujte high-risk cesty první (platby, zrušení, bezpečnost). Cyara nabízí doporučovací engine, který navrhne, co testovat na základě 15 let dat.
→ „Dokonale otestováno" neexistuje. „Zodpovědně nasazeno" ano.