Autoenkodér

Architektura MLP

Vícevrstvý perceptron (Multi-Layer Perceptron, MLP) je dopředná umělá neuronová síť. MLP se skládá nejméně ze tří vrstev perceptronů: vstupní vrstvy, skryté vrstvy a výstupní vrstvy. MLP využívá k trénování techniku učením s učitelem, která se nazývá zpětné šíření chyby. Více vrstev a spojitá přenosová funkce (sigmoida) odlišují MLP od Perceptronu. Dokáže rozlišit data, která nejsou lineárně oddělitelná. Obecně pracuje jako aproximátor libovolné vektorové funkce (Kolmogorův teorém)[1], tj. během učení provádí nelineární regresi. Používá se k řešení širokého spektra úloh, jako je rozpoznávání, klasifikace, diagnostika či predikce, lze jej využít i ke kompresi a kryptování dat.

Architektura autoenkodéru, kde x resp. y jsou aktivační potenciály neuronů vstupní/výstupní resp. dělící vrstvy, f je aktivační funkce neuronů dělící vrstvy a u resp. v je vektor vah enkodéru resp. dekodéru.

Autoenkodér je vícevrstvý perceptron se shodným počtem vstupních a výstupních neuronů o lichém počtu vrstev, kde střední vrstva je označována jako dělící. Autoenkodér se na sadě vstupních vzorů učí autoasociativní funkci, tj. vzor předložený na vstup reprodukovat na výstupu. Jako učící strategii lze užít algoritmus zpětného šíření chyby. Autoenkodér slouží ke kompresi a kryptování informace, kde vstupní až dělící vrstva (enkodér) slouží ke kompresi a šifrování vstupního vzoru do stavů neuronů dělící vrstvy a dělící až výstupní vrstva (dekodér) slouží k dekompresi a dešifrování vstupního vzoru ze stavů neuronů dělící vrstvy. Kompresní poměr je dán poměrem počtu neuronů vstupní/výstupní vrstvy k počtu neuronů dělící vrstvy. První polovina vah sítě pak slouží jako šifrovací klíč a druhá polovina vah sítě slouží jako dešifrovací klíč.

Reference

  1. HORNIK, K. Multilayer feedforward networks are universal approximators, Neural Networks 2 (5). [s.l.]: Elsevier, 1989. 8 s. (anglicky) 

Literatura

Zdroj