// monitoring · zpracování · doporučení
Oxfordský profesor říká, že AI hrozí osud Hindenburgu. A má pravdu — ale ne tak, jak si myslíte.
Hindenburg nezabil jen 36 lidí. Zabil celou technologii — vzducholodě zmizely přes noc. Michael Wooldridge z Oxfordu tvrdí, že AI může potkat totéž. Jenže pointa není „AI je nebezpečná." Pointa je: nestrukturovaná AI bez pravidel a hranic je ta vzducholoď plná vodíku.
Kdo je Michael Wooldridge? Profesor AI na Oxfordu, 30+ let v oboru, zakladatel výzkumu multiagentních systémů, šéfredaktor odborného žurnálu „Artificial Intelligence", držitel Faraday Prize za výjimečnou komunikaci vědy. Přednášel 18. 2. 2026 u Royal Society pod názvem
„This is not the AI we were promised" — záznam najdete na
YouTube kanálu Royal Society. Tohle není LinkedIn komentátor — tohle je člověk, který AI budoval, než se stala buzzwordem.
🔥 Co si z toho odnáším
AI svět
„Moment Hindenburgu" není otázka jestli, ale kdy
Wooldridge není osamělý hlas. Investor Michael Burry (známý předpovědí krize 2008) varoval koncem 2025 před AI bublinou. CEO Google Sundar Pichai vyjádřil podobné obavy. Stanford HAI hlásí nárůst AI bezpečnostních incidentů o 56 % meziročně. A Kalifornie od ledna 2026 jako první na světě zavedla povinné guardraily pro konverzační AI.
Ale — a to je klíčové — Wooldridge neříká „zastavte AI". Říká: přestaňte předstírat, že je spolehlivější, než je. AI má „zubaté schopnosti" — v něčem brilantní, v něčem katastrofální, a nikdo neví dopředu, kde je hranice. Systémy selhávají nepředvídatelně, neví, kdy se mýlí, ale znějí sebejistě vždy.
Co s tím → Podívejte se na Wooldridgeovu přednášku „This is not the AI we were promised" na YouTube Royal Society (~60 min, anglicky). Je to nejlepší shrnutí toho, proč AI potřebuje strukturu — ne brzdu.
Pro praxi
Nestrukturovaná AI je ta vzducholoď plná vodíku
Celý Wooldridgeův argument je zároveň odpovědí na otázku, proč firmy potřebují digitální zaměstnance — ne jen generické chatboty. Zubaté schopnosti? Řešíte instrukčním souborem. Nepředvídatelná selhání? Eskalačními pravidly. Falešná lidskost? Transparentní AI identitou. Kalifornské zákony SB 243 a AB 489 od ledna 2026 vyžadují přesně tohle — průběžné přiznávání AI identity, protokoly pro krizové situace, zákaz předstírání odbornosti.
Tohle není teorie. Tohle je regulatorní realita, která přichází i do Evropy s AI Actem. A kdo má systém s definovanou personou, hranicemi a eskalací na člověka, ten je připraven.
Co s tím → Vezměte Wooldridgeovy 3 argumenty (zubaté schopnosti, nepředvídatelná selhání, falešná lidskost) a podívejte se na ně jako na checklist. Řeší váš AI systém všechny tři? Pokud ne, máte mezeru.
📋 Kompletní přehled
článek · rozhovor · Novinky.cz / The Guardian
Oxfordský profesor s třemi dekádami v AI varuje, že komerční tlak tlačí firmy k nasazení AI bez dostatečného testování. Guardraily chatbotů se obcházejí triviálně, systémy selhávají nepředvídatelně a firmy je prezentují jako lidské — což uživatele vede k falešné důvěře. Přirovnání k Hindenburgu: jedna velká katastrofa může pohřbít celou technologii.
→ Přímý podpůrný argument pro koncept digitálních zaměstnanců. Struktura, pravidla a eskalace jsou odpovědí na přesně tyto problémy.
dataset · analýza · Cybernews
V roce 2025 bylo zaznamenáno 346 AI incidentů — od deepfake podvodů po nebezpečné rady chatbotů. 179 incidentů zahrnovalo deepfakes, ChatGPT figuroval ve 35 případech. Většina incidentů nezmiňuje konkrétní nástroj, což reálné číslo pravděpodobně znásobuje.
→ Tvrdá data pro klientské prezentace. Když říkáte „guardraily nestačí," tady jsou čísla.
legislativa · SB 243 + AB 489
Kalifornie jako první na světě vyžaduje od konverzační AI: průběžné přiznávání AI identity (ne jednorázové), protokoly pro prevenci sebepoškozování, zákaz předstírání lékařské odbornosti. Pro nezletilé: připomínky každé 3 hodiny a výzvy k přestávkám. Předzvěst toho, co přinese EU AI Act.
→ Regulace, která validuje model transparentní AI identity — přesně to, co dobře navržený digitální zaměstnanec dělá přirozeně.
přednáška · video · YouTube
Hodinová přednáška u Royal Society o propasti mezi tím, co jsme od AI čekali, a co máme. Wooldridge kontrastuje „algoritmickou inteligenci" (přesné, spolehlivé odpovědi na dobře definované problémy) s LLM (pattern matching, nekonzistence, halucinace, sugestibilita). Nazývá současnou AI „úžasnou a podivně bizarní zároveň."
→ Inspirace pro formát — jak mluvit o AI omezeních bez pesimismu. Skvělý vzor pro klientské prezentace.
koncept · designová filozofie
Wooldridge cituje epizodu Star Treku z roku 1968, kde počítač Enterprise na dotaz odpoví „nemám dostatečná data" — robotickým hlasem, bez předstírání lidskosti. Podle něj lepší model než dnešní sebejistí chatboti, kteří vždy odpovídají, i když odpověď nemají.
→ Zajímavá designová úvaha: AI, která přizná své limity, buduje větší důvěru než AI, která se tváří neomylně.