Ahogy a Bayesian szemlélettel foglalkozó bejegyzésben említettem, végtelen nagyságú tér esetén mintavételt kell alkalmaznunk ahhoz, hogy a teret leírjuk. A mai bejegyzés egy olyan mintavételi eljárásról szól, a Markov-lánc Monte Carloról (Markov chain Monte Carlo, MCMC ), amit gyakran alkalmaznak erre a feladatra, és nem csak Bayesian hanem más területen is pl: megerősítéses tanulás. Kezdjük … Markov-lánc Monte Carlo olvasásának folytatása
Word2vec
Egy korábbi bejegyzésben megnéztük, hogy néz ki a Szózsák modell a Számítógépes nyelvészet ősmodellje. Mai bejegyzésünkbe egy modernebb eljárással fogunk megismerkedni, az ún. word2vec-el. Ami Neurális Hálózatok segítségével old meg, végez számítógépes nyelvészeti feladatokat.
Python és a számok
Úgy alakult, hogy a munkahelyen Python tréninget kezdtem tartani a kollégáknak. Ez adta az apropóját a mai bejegyzésnek: mivel a tréninghez már megírtam az anyagot, így adva volt, hogy ide is feltegyem. Mint már említettem lusta ember vagyok. Pythonban alapvetően két1 fajta számot szokás használni: int-t (egész számot) és float-ot (lebegőpontos számot). Olyan szempontból kényelmes … Python és a számok olvasásának folytatása
Szózsák modell normalizálása
Egy korábbi bejegyzésben már átnéztük a szózsák modellt (bag-of-words), és annak problémáit. A mai bejegyzésben megnézzük, mit lehet tenni azért, hogy a szótár méretét csökkentsük és javítsuk a vektorizálás teljesítményét.
Szózsákmodell (Bag-of-words)
Ebben a bejegyzésben átnézzük a legalapvetőbb számítógépes nyelvészeti (Natural Language Processing, NLP) eljárást, az úgynevezett szózsákmodellt (bag-of-words).
WordPress.com RestAPI használata
Most egy több szempontból is szokatlan bejegyzés következik. Először is a témája erősen Fronted-jellegű lesz, amivel általában nem szoktam foglalkozni. Másodszor ez a bejegyzés nem a WordPress szerkesztőjében született, hanem az új projektem honlapján.
A többdimenziós Centrális határeloszlás-tétel
Egy korábbi bejegyzésben láttuk a Centrális határeloszlás-tétel (CHT) alapjait. Most egy kicsit tovább visszük ezt és megnézzük mi a helyzet több dimenzió esetén. Több dimenzió esetén a megfigyeléseinket felfoghatjuk vektoroknak is, mi is ezt fogjuk tenni. Ha így teszünk - nem túl nagy logikai ugrással - úgy tekinthetünk a CHT-ra mint véletlenszerű vektorok átlagára vonatkozó … A többdimenziós Centrális határeloszlás-tétel olvasásának folytatása
Degradációs probléma
Korábban már volt szó néhány, a Neurális Hálózatokat érintő problémáról, mint a túlillesztés, vagy az eltűnő gradient. Mai bejegyzésemben egy újabb problémáról fogok beszélni. A túlillesztéses kapcsolatban említettem, hogy minél több rétegből épül fel egy NH, annál összetettebb modelleket képes előállítani. Ennek egyik következménye, hogy olyan esetekben is összefüggést vél felfedezni, ahol nincsenek. Ezt a … Degradációs probléma olvasásának folytatása
A többdimenziós Delta módszer — példa számítás
Egy korábbi bejegyzésben megnéztük a többdimenziós Delta módszer általános számítását. Ebben a posztban a kedvenc többparaméterű eloszlásunkon, a Gaussian-on fogom bemutatni, hogyan végezzük el a számítást. Legyen X egy normál eloszlás, aminek a két paramétere $latex \mu_X &s=2$ és $latex \sigma_X^2=\tau_X &s=2$.1 Sajnos nem tudjuk közvetlenül megfigyelni ezt a X valószínűségi változót, hanem helyette egy … A többdimenziós Delta módszer — példa számítás olvasásának folytatása
A többdimenziós Delta módszer
Korában megnéztük a Delta módszert abban az esetben, ha csak egyetlen paramétert kell megbecsülnünk. A mai bejegyzésben általánosítjuk ezt és megnézzük, hogy mit teszünk több paraméterű eloszlások esetén. A többdimenziós Centrális határeloszlás-tételről szóló bejegyzésben láttuk, hogy: (1) $latex \sqrt{n} (\bar{X}-E[X]) \xrightarrow[n \to \infty]{d} N_d \left ( 0, \Sigma \right) &s=2 $ Ahol: $latex \Sigma &s=2$ … A többdimenziós Delta módszer olvasásának folytatása




