Zdroj: AI ta Krajta #43 · březen 2026

Tři vývojáři otevřeně přiznávají, že jim AI ničí spánek — a přitom stavějí přesně to, co potřebujete znát

Český podcast AI ta Krajta přivítal Richarda Mlátka, autora open source projektu Super Turtle — meta-agenta, který orchestruje kódovací nástroje přes Telegram. Co začalo jako automatizace code review, se proměnilo v diskuzi o tom, jak si agenti pamatují, proč se vývojáři nemohou zastavit a proč „agentní osobnosti" nejsou sci-fi, ale fungující architektura.
// Šéfredaktorka · katka.ai
1 400 commitů Super Turtle za 14 dní
20× nárůst produktivity (dle vlastních odhadů)
100 PRD dokumentů vygenerovaných za jeden večer
6+ frameworků na paměť agentů v roce 2026
🔥 Co si z toho odnáším
AI svět

Paměť agentů: příští miliardový problém, na který nikdo nemá odpověď

Všichni tři hosté se shodli na tom samém: jazykové modely se neumí přetrénovat za běhu. Všechno, co si mají „pamatovat", musíme nacpat do kontextu. A čím víc toho nacpeme, tím víc je to mate. Žádné univerzální řešení neexistuje — a právě proto se kolem tohoto problému buduje celý nový průmysl.

Akademický svět reaguje: prosincový přehledový paper „Memory in the Age of AI Agents" z arXiv rozlišuje faktickou, zkušenostní a pracovní paměť. V praxi se utkává šestice frameworků — od Mem0 přes Zep po čerstvě trendující Hindsight od Vectorize.io. The New Stack v únoru napsal, že paměť vyžaduje nejen technologii, ale i „filozofickou jasnost".

Další krok →

Projděte si OpenAI Cookbook recept „Context Engineering for Personalization" — ukazuje elegantní smyčku inject → reason → distill → consolidate. To je vzor, který dává smysl i mimo kódování.

Pro praxi

„Agentní osobnosti" — vývojáři nezávisle došli ke konceptu digitálních zaměstnanců

Tým kolem Promptbooku popisuje, jak strukturuje agenty do semilidských týmů. Každý agent má fixní roli (programátor, product owner, grafik), vlastní znalostní „book" a izolovanou odpovědnost. Říkají tomu „agentní osobnosti" — a sami přiznávají, že to zní jako AI psychóza. Ale funguje to.

Ve světě open source to potvrzuje BMAD-METHOD — framework s šesti pojmenovanými agentními personami (Mary, Preston, Winston, Devon…), každá s vlastním souborem a workflow pravidly. Spec-driven development — specifikace jako zdroj pravdy — je v roce 2026 mainstream přístup, který prosazuje GitHub, Amazon i Thoughtworks.

Další krok →

Pokud stavíte AI řešení pro firmu, zamyslete se: má váš agent instrukční soubor, definovanou osobnost a pravidla eskalace? Pokud ne, stavíte na písku.

Kompletní přehled
Open source meta-agent, který wrapuje Claude Code i Codex, ovládá se přes Telegram textem i hlasovkami a umí spawnovat sub-agenty s vlastními backlogy. Běží na vašem počítači, využívá vaše stávající předplatné. Jeden příkaz: npm install -g superturtle. Koncept „vývojář na mobilu" — zadáváte úkoly z auta, z kuchyně, odkudkoli.
Multi-model code review — adversarial cross-review mezi modely
koncept vysoká
Nechat jeden model zreviewovat práci druhého přináší překvapivě lepší výsledky, než když se model kontroluje sám. Dokonce i dva instance stejného modelu s odlišnými „osobnostmi" — ve vzájemné pozici protivníků — si zvýší výkon víc, než byste čekali. Praktický princip pro každého, kdo chce zvýšit důvěryhodnost AI výstupů.
Spec-driven development přes CLAUDE.md
koncept vysoká
Specifikace řídí implementaci — každý agent musí mít v CLAUDE.md přesně definovanou strukturu s nadpisy, backlogem a statusem. Skripty kontrolují formát. Thoughtworks, GitHub i Amazon Kiro mluví o specifikacích jako „zdroji pravdy" pro rok 2026. Kdo nemá strukturovanou specifikaci, ten dělá „prompt and pray".
Problém paměti agentů — kontext jako nejcennější a nejkřehčí zdroj
výzkum vysoká
Modely se neumí přetrénovat za běhu. Řešení: nacpat informace do kontextu (CLAUDE.md, memory soubory, vektorové databáze). Problém: čím víc nacpete, tím víc zahlcujete. Claude Code má memory funkci omezenou na 100 řádků. Slibný přístup: „recall tool" — něco jako vyhledávač ve vlastní historii agenta.
Agentní osobnosti — persistentní persony s kumulovanými znalostmi
architektura vysoká
Promptbook vytváří „fikci" agentních osobností. Každá má pravidla, vzpomínky, osobnost, izolovanou oblast odpovědnosti. Fixní role jako ve firmě — frontendový vývojář kumuluje znalosti dlouhodobě. Supervizor („učitel") pomáhá hodnotit, co si pamatovat a co zapomenout. Vývojáři říkají, že to funguje líp, než dynamicky spawnované sub-agenty.
Všichni tři hosté otevřeně přiznávají: horší spánek, nutkání „ještě jeden prompt", pocit ztráty, když agenti neběží. Fast.ai tomu říká „dark flow" — falešný stav proudění podobný gamblerské závislosti. HBR studie „Brain Fry" (březen 2026) potvrzuje: AI neodstraňuje práci, intenzifikuje ji. Produktivita 20× vyšší, ale odpočinek nikde.
Kódování hlasem — voice-first prompting přes Telegram
workflow střední
Richard většinu zadávání dělá přes hlasovky — hlasem dokáže předat víc informací než psaním. Převod přes OpenAI speech-to-text. Zajímavý trend: messaging jako primární rozhraní k AI agentům. Celý ekosystém nástrojů (ductor, cc-connect, oh-my-claudecode) propojuje kódovací agenty s Telegramem, Discordem i Slackem.
Vizuální validace přes Playwright — agenti kódují naslepo
technika střední
Agenti nevidí výsledek své práce — vidí jen kód. Řešení: automatický screenshot přes Playwright, který se pošle zpátky agentovi k opravě. Ale pozor: agenti testují jen „šťastnou cestu" a neumí si výsledek sami rozbít. Mobilní zobrazení je stále Achillova pata vibe-kódování — i velké e-shopy mají kvůli tomu nefunkční tlačítka.
Promptbook — česká platforma pro agentní orchestraci
nástroj střední
Sponzor podcastu, česká firma. Umí editovat soubory na GitHubu, psát PRD dokumenty, orchestrovat agenty. Jejich PRD agent za jeden večer vygeneroval 100 dokumentů — údajně lepších, než by je napsal člověk ručně. Plánují automatizaci spouštění na základě dostupných subscription limitů.
Open source granty od OpenAI a Anthropic
program nízká
Oba velcí hráči nabízí granty pro maintainery open source projektů. OpenAI dává 6 měsíců ChatGPT Pro. Anthropic má jednodušší přihlašovací formulář. Proces není transparentní — žádné jasné podmínky. Zajímavý signál o tom, jak si velcí hráči budují loajalitu v komunitě.
Exploze infrastrukturních nákladů při škálování agentů
varování nízká
Když agenti kódují nonstop, najednou platíte víc za Vercel build time než za samotné AI předplatné. Nový typ problému: AI zaměstnanec je levný, ale infrastruktura kolem něj může překvapit. Platí i mimo vývoj — každý automatizovaný proces má skryté provozní náklady.