Vlastní analýza · 27. 2. 2026 · 1. díl ze 2

EU AI Act pro firmy v Česku. Co platí, pro koho a od kdy.

Za pět měsíců začne v Česku platit nejkomplexnější vlna pravidel pro umělou inteligenci, jakou svět zatím viděl. Ne, nemusíte být vývojáři AI. Stačí, že používáte chatbota na webu. Tady je přehled toho, co potřebujete vědět — bez právničtiny, s příklady z praxe.
// Šéfredaktorka · katka.ai · 27. 2. 2026
Časová osa

EU AI Act platí od srpna 2024, ale rozjíždí se postupně. Nejdůležitější datum? 2. srpen 2026.

únor 2025 ✓
Zákazy. Zakázané praktiky — sociální skóring, manipulativní AI, plošné biometrické rozpoznávání. Už platí.
srpen 2025 ✓
Velké modely. Pravidla pro GPT, Gemini, Claude — dokumentace, transparentnost, autorská práva. Platí.
🔴 srpen 2026
Hlavní vlna. Pravidla transparentnosti (Článek 50), vysoce rizikové systémy, povinnosti pro provozovatele, kompletní dohled. Pokuty.
srpen 2027
Produkty. Vysoce rizikové AI v regulovaných produktech — zdravotnická technika, vozidla, hračky.
Čtyři úrovně rizika

AI Act nereguluje celá odvětví. Reguluje konkrétní použití AI. Stejná firma může mít jeden systém bez povinností a druhý ve vysokém riziku.

🚫 ZAKÁZÁNO

Nepřijatelné riziko

Toto se v EU nesmí. Platí od února 2025.

Sociální skóring vládou. Manipulativní AI zneužívající zranitelnosti. Plošné rozpoznávání obličejů z kamer. Rozpoznávání emocí na pracovišti a ve školách. Predikce kriminality na základě profilingu.

Příklad
Firma nainstaluje kamery s AI, které sledují výrazy obličeje zaměstnanců a měří jejich "spokojenost." → Zakázáno.
⚠️ VYSOKÉ RIZIKO

Přísná pravidla — od srpna 2026

AI, které rozhoduje o lidech v citlivých oblastech. Nábor a HR. Úvěry a finance. Zdravotnictví. Vzdělávání. Veřejná správa — dávky, přístup ke službám. Kritická infrastruktura. Policie a justice. Migrace.

Povinnosti: řízení rizik, technická dokumentace, lidský dohled (člověk musí mít poslední slovo), přesnost a kybernetická bezpečnost, registrace v EU databázi.

Příklad
Firma používá AI na předvýběr životopisů. → Vysoké riziko. Musí dokumentovat, jak AI rozhoduje, zajistit lidský dohled a registrovat systém.
🔔 OMEZENÉ RIZIKO

Transparentnost — Článek 50

Chatboty musí říct, že jsou AI. Deepfakes musí být označené. AI obsah musí mít strojově čitelnou značku. Podrobně ve 2. díle tohoto průvodce.

Příklad
Chatbot na webu firmy. → Musí jasně říct: "Komunikujete s AI asistentem." Nestačí to schovat do FAQ.
✅ MINIMÁLNÍ RIZIKO

Žádné speciální povinnosti

Většina AI, které dnes používáme. Spamové filtry, AI doporučení v e-shopu, automatické překlady, AI v hrách.

Příklad
E-shop používá AI na doporučování produktů. → Žádné povinnosti z AI Act. (GDPR ale pořád platí.)
Pokuty
35M € zakázané praktiky / 7 % obratu
15M € vysoké riziko + transparentnost / 3 %
7.5M € špatné informace / 1 %

Pro malé a střední podniky: český zákon počítá s možností napomenutí a nižších pokut. Ale nespoléhejte se na to jako na strategii.

Kdo dohlíží v Česku
ČTÚ
Centrální dozor — kontrola a sankce
ÚOOÚ
Osobní údaje v AI systémech
ÚNMZ
Certifikace a akreditace
ČNB
AI ve finančním sektoru
MPO
Gestor implementace — připravuje český zákon
Ombudsman
Ochrana lidských práv

MPO připravilo český implementační zákon — má pouhých 10 stran. Žádná zbytečná byrokracie. Česko taky chystá regulační sandbox — bezpečné prostředí pro testování AI před uvedením na trh.

5 kroků, které udělejte teď
Zdroje