Video: Jak LLM generuje odpověď
- Viděl(a) jsi animovaně, jak LLM generuje text
- Umíš pojmenovat: token, kontextové okno, predikce pravděpodobnosti
- Víš, že trénování = pattern matching, ne „porozumění"
Jak na titulky v angličtině (30 s)
Sekce “Jak na titulky v angličtině (30 s)”🎬 Hlavní video (8 min) — pusť si, dělej si poznámky
Sekce “🎬 Hlavní video (8 min) — pusť si, dělej si poznámky”🥇 3Blue1Brown — „Large Language Models explained briefly”
Sekce “🥇 3Blue1Brown — „Large Language Models explained briefly””- 🔗 Nejde přehrát tady? Otevři přímo: youtube.com/watch?v=LPZh9BOjkQs
- ⏱ 7 min 58 s
- 👀 5,9 milionu zhlédnutí
- 🎨 Autor: Grant Sanderson (3Blue1Brown) — jeden z nejuznávanějších matematických edukátorů na internetu (12M+ subscribers). Video vytvořil ve spolupráci s Computer History Museum jako oficiální výstavní materiál.
Proč je to nejlepší dostupný úvod:
- Animace, ne „mluvící hlava”
- Žádný žargon bez vysvětlení
- 8 minut = žádná únava
- Pokrývá přesně to, co potřebuješ: co je LLM, jak predikuje token, proč halucinuje, co je trénink
Na co se ve videu soustředit
Sekce “Na co se ve videu soustředit”Napiš si na papír odpovědi na tyto 3 otázky během videa (můžeš pauznout):
-
Co je „token”? Hint: není to přesně slovo. Může být i kus slova nebo interpunkce.
-
Co znamená „parameters” / „weights” v modelu? Hint: čísla, která model má „naučená” a používá při predikci.
-
Proč model někdy „ví” věci, které přesně nezná? Hint: vzor vs. pravda.
🔄 Alternativy (vyber, pokud ti 3Blue1Brown nesedne)
Sekce “🔄 Alternativy (vyber, pokud ti 3Blue1Brown nesedne)”🥈 IBM Technology — „How Large Language Models Work”
Sekce “🥈 IBM Technology — „How Large Language Models Work””- 🔗 https://www.youtube.com/watch?v=5sLYAQS9sWQ
- ⏱ 5 min 34 s
- 👀 1,4 milionu zhlédnutí
- Kanál: IBM Technology — enterprise edukativní, méně animací, víc textu a schémat. Kratší a věcnější než 3Blue1Brown.
Hodí se, když 3Blue1Brownův styl ti moc „plyne” a chceš strukturu slide-by-slide.
🥉 Karpathy — „[1hr Talk] Intro to Large Language Models” (pro motivované)
Sekce “🥉 Karpathy — „[1hr Talk] Intro to Large Language Models” (pro motivované)”- 🔗 https://www.youtube.com/watch?v=zjkBMFhNj_g
- ⏱ 1 hodina (nemusíš celou — prvních 20 min na dnes stačí)
- 👀 Referováno všude (Hacker News, podcasty, blogy — „best explanation out there”)
- Autor: Andrej Karpathy — exředitel AI v Tesle, jeden ze spoluzakladatelů OpenAI, napsal některé klíčové papery kolem GPT. Nejvyšší autorita, která je ochotná učit laiky.
Hodí se, když chceš to fakt pochopit do hloubky a máš hodinu navíc. Ideální jako bonus na odpoledne nebo večer — ne do bloku 02 (příliš dlouhé).
✍️ Po videu: mini-reflexe (5 min)
Sekce “✍️ Po videu: mini-reflexe (5 min)”Na papír, vlastními slovy:
- Token je: _______________________________________
- Kontextové okno znamená: _________________________
- Halucinace vzniká, protože: _______________________
- Jedna věta, která mě ve videu překvapila: ___________
Nemusíš to nikam posílat. Je to pro tebe. Na polední check-in s Miroslavem se ti tyhle poznámky budou hodit.
💡 Bonus (nepovinné, dalších 10 min)
Sekce “💡 Bonus (nepovinné, dalších 10 min)”Pokud chceš jít hlouběji k neuronovým sítím za LLM:
- 3Blue1Brown — „But what is a neural network?” (youtube.com/watch?v=aircAruvnKk) — 19 min, 18M views. Vizuálně fenomenální animace, ale nepotřebuješ to k dnešnímu výkonu. Klidně až za týden.
- 3Blue1Brown — „Transformers, the tech behind LLMs” (27 min, 9,9M views) — už vyžaduje matematiku na SŠ úrovni, ale je to gold standard.