MLP je typ dopředné (feedforward) umělé neuronové sítě. „Dopředná“ znamená, že data proudí pouze jedním směrem – od vstupu k výstupu – bez smyček (na rozdíl od RNN). MLP je považován za „univerzálního aproximátora“, což znamená, že s dostatečným počtem neuronů dokáže napodobit téměř jakoukoli matematickou funkci.
MLP se skládá minimálně ze tří vrstev uzlů (neuronů):
Proč je MLP mnohem silnější než základní perceptron?
Každé spojení mezi neurony má svou váhu. Proces probíhá následovně:
1. Neuron ve skryté vrstvě sečte všechny vážené vstupy a přičte **bias**. 2. Výsledek projde aktivační funkcí (např. $f(x) = \max(0, x)$ pro ReLU). 3. Tento výstup se stává vstupem pro neurony v další vrstvě.
Ačkoliv jsou dnes pro obraz populární CNN a pro text Transformery, MLP zůstává základem pro:
| Vlastnost | Perceptron | MLP |
|---|---|---|
| Vrstvy | Pouze vstupní a výstupní | Vstupní, skryté a výstupní |
| Rozhodovací hranice | Vždy jen přímka (lineární) | Libovolně složitá křivka |
| Problém XOR | Nedokáže vyřešit | Hravě vyřeší |
| Aktivační funkce | Step function (0 nebo 1) | Spojité nelineární funkce |
Zajímavost: Teoreticky stačí MLP pouze jedna skrytá vrstva s dostatečným počtem neuronů k tomu, aby se naučil jakoukoli spojitou funkci. V praxi je však efektivnější mít více vrstev s méně neurony (tzv. „hluboké“ sítě).