Obsah
BERT (Bidirectional Encoder Representations from Transformers)
BERT je revoluční model v oblasti zpracování přirozeného jazyka (NLP), který představil Google v roce 2018. Způsobil zásadní průlom v tom, jak stroje rozumí kontextu lidské řeči, a stal se základem pro moderní vyhledávání Google.
1. Co dělá BERT unikátním?
Před příchodem BERT modely (jako LSTM nebo Word2Vec) četly text lineárně – buď zleva doprava, nebo zprava doleva. BERT je obousměrný (bidirectional).
- Kontext z obou stran: BERT analyzuje slovo v souvislosti se všemi slovy, která mu předcházejí i následují, a to ve všech vrstvách najednou.
- Příklad: Ve větách „Bankovní účet“ a „Břeh řeky (bank)“ by starší modely mohly slovo „bank“ interpretovat stejně. BERT díky okolním slovům pochopí rozdílný význam.
2. Architektura
BERT je postaven na architektuře Transformer, konkrétně využívá pouze část zvanou Encoder.
Existují dvě základní verze:
- BERT Base: 12 vrstev (blocks), 110 milionů parametrů.
- BERT Large: 24 vrstev, 340 milionů parametrů.
3. Jak se BERT trénuje?
BERT nebyl trénován na konkrétní úkol (jako překlad), ale na porozumění jazyku jako takovému pomocí dvou technik:
A. Masked Language Model (MLM)
V textu je náhodně skryto (zamaskováno) 15 % slov a úkolem modelu je podle kontextu uhodnout, co tam patří. Příklad: „Pes [MASK] na kočku.“ → BERT doplní „štěká“.
B. Next Sentence Prediction (NSP)
Model dostane dvě věty a musí určit, zda druhá věta v původním textu skutečně následovala po té první. To pomáhá pochopit vztahy mezi celými bloky textu.
4. Fine-tuning (Doladění)
Hlavní výhodou BERT je, že jej můžete vzít jako „hotový mozek“ (Pre-trained model) a velmi rychle jej doučit na specifický úkol s minimem vlastních dat.
- Analýza sentimentu: Je recenze pozitivní nebo negativní?
- Named Entity Recognition (NER): Vyhledávání jmen, míst a organizací v textu.
- Question Answering: Odpovídání na otázky na základě přečteného odstavce.
5. BERT vs. GPT
Ačkoliv jsou oba modely založeny na Transformerech, mají jiný účel:
| Vlastnost | BERT | GPT |
|---|---|---|
| Zaměření | Porozumění textu (NLU) | Generování textu (NLG) |
| Směr | Obousměrný (čte vše najednou) | Jednosměrný (čte zleva doprava) |
| Využití | Vyhledávání, klasifikace, analýza | Chatboti, psaní textů, kreativita |
Související články:
Tagy: ai nlp google transformer bert
