it:ai:llm
Rozdíly
Zde můžete vidět rozdíly mezi vybranou verzí a aktuální verzí dané stránky.
| Obě strany předchozí revizePředchozí verzeNásledující verze | Předchozí verze | ||
| it:ai:llm [2026/01/02 12:19] – [1. Architektura a princip fungování] admin | it:ai:llm [2026/01/02 12:20] (aktuální) – [Vysvětlení o co jde v Attention Is All You Need] admin | ||
|---|---|---|---|
| Řádek 10: | Řádek 10: | ||
| Většina moderních LLM je postavena na architektuře **Transformer**, | Většina moderních LLM je postavena na architektuře **Transformer**, | ||
| - | ====VYsvětlení o co jde v Attention Is All You Need ==== | + | ====Vysvětlení o co jde v Attention Is All You Need ==== |
| Dominantní modely sekvenční transdukce jsou založeny na komplexních rekurentních nebo konvolučních neuronových sítích v konfiguraci kodér-dekodér. Nejvýkonnější modely také propojují kodér a dekodér prostřednictvím mechanismu pozornosti. Navrhujeme novou jednoduchou síťovou architekturu, | Dominantní modely sekvenční transdukce jsou založeny na komplexních rekurentních nebo konvolučních neuronových sítích v konfiguraci kodér-dekodér. Nejvýkonnější modely také propojují kodér a dekodér prostřednictvím mechanismu pozornosti. Navrhujeme novou jednoduchou síťovou architekturu, | ||
| - | |||
| - | Translated with DeepL.com (free version) | ||
it/ai/llm.1767352790.txt.gz · Poslední úprava: autor: admin
