Vlastní analýza · 27. 2. 2026 · 1. díl ze 2
EU AI Act pro firmy v Česku. Co platí, pro koho a od kdy.
Za pět měsíců začne v Česku platit nejkomplexnější vlna pravidel pro umělou inteligenci, jakou svět zatím viděl. Ne, nemusíte být vývojáři AI. Stačí, že používáte chatbota na webu. Tady je přehled toho, co potřebujete vědět — bez právničtiny, s příklady z praxe.
// Šéfredaktorka · katka.ai · 27. 2. 2026
Časová osa
EU AI Act platí od srpna 2024, ale rozjíždí se postupně. Nejdůležitější datum? 2. srpen 2026.
únor 2025 ✓
Zákazy. Zakázané praktiky — sociální skóring, manipulativní AI, plošné biometrické rozpoznávání. Už platí.
srpen 2025 ✓
Velké modely. Pravidla pro GPT, Gemini, Claude — dokumentace, transparentnost, autorská práva. Platí.
🔴 srpen 2026
Hlavní vlna. Pravidla transparentnosti (Článek 50), vysoce rizikové systémy, povinnosti pro provozovatele, kompletní dohled. Pokuty.
srpen 2027
Produkty. Vysoce rizikové AI v regulovaných produktech — zdravotnická technika, vozidla, hračky.
Čtyři úrovně rizika
AI Act nereguluje celá odvětví. Reguluje konkrétní použití AI. Stejná firma může mít jeden systém bez povinností a druhý ve vysokém riziku.
🚫 ZAKÁZÁNO
Nepřijatelné riziko
Toto se v EU nesmí. Platí od února 2025.
Sociální skóring vládou. Manipulativní AI zneužívající zranitelnosti. Plošné rozpoznávání obličejů z kamer. Rozpoznávání emocí na pracovišti a ve školách. Predikce kriminality na základě profilingu.
Příklad
Firma nainstaluje kamery s AI, které sledují výrazy obličeje zaměstnanců a měří jejich "spokojenost." → Zakázáno.
⚠️ VYSOKÉ RIZIKO
Přísná pravidla — od srpna 2026
AI, které rozhoduje o lidech v citlivých oblastech. Nábor a HR. Úvěry a finance. Zdravotnictví. Vzdělávání. Veřejná správa — dávky, přístup ke službám. Kritická infrastruktura. Policie a justice. Migrace.
Povinnosti: řízení rizik, technická dokumentace, lidský dohled (člověk musí mít poslední slovo), přesnost a kybernetická bezpečnost, registrace v EU databázi.
Příklad
Firma používá AI na předvýběr životopisů. → Vysoké riziko. Musí dokumentovat, jak AI rozhoduje, zajistit lidský dohled a registrovat systém.
🔔 OMEZENÉ RIZIKO
Transparentnost — Článek 50
Chatboty musí říct, že jsou AI. Deepfakes musí být označené. AI obsah musí mít strojově čitelnou značku. Podrobně ve 2. díle tohoto průvodce.
Příklad
Chatbot na webu firmy. → Musí jasně říct: "Komunikujete s AI asistentem." Nestačí to schovat do FAQ.
✅ MINIMÁLNÍ RIZIKO
Žádné speciální povinnosti
Většina AI, které dnes používáme. Spamové filtry, AI doporučení v e-shopu, automatické překlady, AI v hrách.
Příklad
E-shop používá AI na doporučování produktů. → Žádné povinnosti z AI Act. (GDPR ale pořád platí.)
Pokuty
35M €
zakázané praktiky / 7 % obratu
15M €
vysoké riziko + transparentnost / 3 %
7.5M €
špatné informace / 1 %
Pro malé a střední podniky: český zákon počítá s možností napomenutí a nižších pokut. Ale nespoléhejte se na to jako na strategii.
Kdo dohlíží v Česku
ČTÚ
Centrální dozor — kontrola a sankce
ÚOOÚ
Osobní údaje v AI systémech
ÚNMZ
Certifikace a akreditace
ČNB
AI ve finančním sektoru
MPO
Gestor implementace — připravuje český zákon
Ombudsman
Ochrana lidských práv
MPO připravilo český implementační zákon — má pouhých 10 stran. Žádná zbytečná byrokracie. Česko taky chystá regulační sandbox — bezpečné prostředí pro testování AI před uvedením na trh.
5 kroků, které udělejte teď
- Zmapujte — jaké AI systémy ve firmě používáte? Kdo je dodává?
- Zařaďte — do které rizikové kategorie spadají?
- Proškolte — povinnost AI gramotnosti pro zaměstnance platí od února 2025
- Dokumentujte — u vysokého rizika: jak AI rozhoduje, jaká data používá
- Sledujte — český implementační zákon, regulační sandbox, pokyny EK
2. díl: Článek 50 — pravidla transparentnosti, které začnou platit v srpnu 2026. Chatboty, deepfakes, AI obsah. Co přesně musíte udělat a jak.
Číst 2. díl →
Zdroje