Ismétlődő Neurális Hálózat

Nem olyan régen volt szó a Mesterséges Neurális Hálózatok legegyszerűbb fajtájáról a Feed Forward típusról. A mai posztban egy ennél összetettebb megoldást fogunk megvizsgálni: a Ismétlődő Neurális Hálózat1 (angolul: Recurrent neural network, RNN) típust. Amíg a FF egyedi megfigyelések vizsgálatára alkalmas, addig INH sorozatokra alkalmazható. A Feed Forward típus esetén lényegében független és azonos eloszlású … Ismétlődő Neurális Hálózat olvasásának folytatása

A Hosszú Munkamemóriájú Neurális Hálózat

Nem olyan régen szó volt a Mesterséges Neurális Hálózatok egy sorozatokra kifejlesztett változatáról, az Ismétlődő Neurális Hálózatról. Amint említettük, ez a típus hatványozottan szenved az Eltűnő Gradiens Problémától. Ennek a nehézségnek a megoldására született meg a "Hosszú Munkamemóriájú" (HMM, angolul: Long short-term memory) Neurális Hálózat. Mai bejegyzésünkben ezt megvizsgáljuk meg. A HMM mai formája 1997 … A Hosszú Munkamemóriájú Neurális Hálózat olvasásának folytatása

Diszkrimináló vs. általánosító klasszifikációs

A klasszifikációs feladatokat két irányból közelíthetjük meg: a diszkrimináció, vagy az általánosítás oldaláról. Lássuk miben tér el a két szemlélet. A diszkrimináció során arra koncentrálunk, hogy miben térnek el egymástól az osztályok. Ezzel szemben az általánosítás során megpróbáljuk modellezni az egyes osztályokat, ami törvényszerűen azzal jár, hogy az osztály pontjai közötti hasonlóságra koncentrálunk. Ha ábrázolni … Diszkrimináló vs. általánosító klasszifikációs olvasásának folytatása

Elvárás-maximalizáló algoritmus

Ma egy olyan robusztus osztályozó eljárást ismertetek, amit hiányos adatsorokra is tudunk alkalmazni. Az Elvárás-maximalizáló algoritmust 1977-ben publikálta Arthur Dempster, Nan Laird és Donald Rubin.1 A céljuk az volt, hogy kidolgozzanak egy olyan általános eljárást, amivel hiányos adatok esetén is lehetséges a maximum likelihood modellezés. Kezdjük egy egyszerű osztályozási problémával: van sok megfigyelésünk, amik K … Elvárás-maximalizáló algoritmus olvasásának folytatása

Mesterséges Neurális Hálózat alapjai – 2. rész

Az előző részben átnéztük, a Neurális Hálózat részeit és a lejátszási szakaszt. Most folytassuk a Hibaszámítással és a Visszajátszással! Hibaszámítás Az előző részben, a lejátszás végén kaptunk egy előrejelzést a bemeneti adatok alapján. A konkrét példánk esetében ez így alakult: (1)   $latex o = \begin{bmatrix} 0.81152104 \\1.77152357 \end{bmatrix} &s=2$ Mivel felügyelettel végrehajtott tanulást végzünk … Mesterséges Neurális Hálózat alapjai – 2. rész olvasásának folytatása

A Mesterséges Neurális Hálózat alapjai – 1. rész

Napjaink igen felkapott elnevezéseinek egyike minden bizonnyal a Mesterséges Neurális Hálózat (MNH), avagy Artificial Neural Networks (ANN). Ami jórészt annak köszönhető, hogy e technológiának a mindennapi életben való alkalmazásai az emberek egy jelentős részét lenyűgözi. Az MNH az alapja sok arcfelismerő, képfeldolgozó megoldásnak, a Google-fordítónak vagy a Facebook-hirdetés optimalizációjának, hogy csak néhányat említsek. Mai posztomban … A Mesterséges Neurális Hálózat alapjai – 1. rész olvasásának folytatása

A Robusztus Bayes lineáris regresszió

A lineáris regresszió a mindennapi elemzések egyik legegyszerűbb és leggyakrabban alkalmazott eljárása. Ennek egyik érdekes változata a mai poszt tárgya. Frissítés 2024.01: A STAN és PySTAN kód frissítve lett az új verziók szintakszisának megfelelően. STAN version: 2.34, PySTAN version: 3.8.0 Munkahelyi problémaként merült fel néhány napja, amit az egyik mobil szolgáltató szeretett volna megtudni: melyek … A Robusztus Bayes lineáris regresszió olvasásának folytatása

Support-vector machine

A Support Vector Machine (SVM) egy nagyon népszerű felügyelettel végrehajtott tanulási mód. Mai bejegyzésemben átnézzük működésének matematikai alapjait és egy naiv Python megvalósítását. Az SVM alapvetően lineáris klasszifikációs1 problémák megoldására szolgál. Vagyis a kiindulási pontja, hogy van két lineárisan elválasztható csoportunk és szeretnénk meghatározni az ideális határt a kettő között. Valahogy így: A fenti ábrán … Support-vector machine olvasásának folytatása

Zapataista harcok Carranza ellen — 2. rész

Az előző rész ott marad abba, hogy Zapata a hegyekben kellet, hogy bujkáljon, és Morelos a kormányerők ellenőrzése alá került. A mostani részben megnézzük, hogyan reagált Zapata erre a helyzetre. Változások a zapatisták oldalán Zapatát azért nem olyan fából faragták, hogy egy vereség kedvét vegye. Többször is átélt hasonló szituációkat, úgy gondolta, ezt is meg … Zapataista harcok Carranza ellen — 2. rész olvasásának folytatása

Hipersík – Lineáris algebra Pythonban

A hipersík a hipertér 1 dimenzióval kevesebb dimenziójú altere. Lényegében egy olyan sík, ami két részre osztja a teret. Gépi tanulás során lényegében minden lineáris osztályozás alapja a hipersík, ezért érdemes egy kicsit átnézni, hogy is dolgozhatunk vele Pythonban. A hipersík definiálása Nézzünk egy egyszerű két dimenziós példát. Ugye ezt a teret egy vonallal lehet … Hipersík – Lineáris algebra Pythonban olvasásának folytatása