Forventning – maksimering algoritme - Expectation–maximization algorithm

I statistikk er en forventning -maksimering ( EM ) algoritme en iterativ metode for å finne (lokal) maksimal sannsynlighet eller maksimal a posteriori (MAP) estimater av parametere i statistiske modeller , der modellen er avhengig av uobserverte latente variabler . EM-iterasjonen veksler mellom å utføre et forventning (E) -steg, som skaper en funksjon for forventningen til logg-sannsynligheten som evalueres ved hjelp av det nåværende estimatet for parametrene, og et maksimalisering (M) -trinn, som beregner parametere som maksimerer den forventede loggen. sannsynlighet funnet på E -trinnet. Disse parameterestimatene brukes deretter til å bestemme fordelingen av de latente variablene i neste E-trinn.

EM -gruppering av Old Faithful -utbruddsdata. Den tilfeldige initialmodellen (som på grunn av aksenes forskjellige skalaer ser ut til å være to veldig flate og brede sfærer) passer til de observerte dataene. I de første iterasjoner, endres modellen i det vesentlige, men deretter konvergerer til de to modusene i geyser . Visualisert ved hjelp av ELKI .

Historie

EM -algoritmen ble forklart og gitt navnet i et klassisk papir fra 1977 av Arthur Dempster , Nan Laird og Donald Rubin . De påpekte at metoden hadde blitt "foreslått mange ganger under spesielle omstendigheter" av tidligere forfattere. En av de tidligste er gen-tellingsmetoden for estimering av allelfrekvenser av Cedric Smith . En meget detaljert behandling av EM-metoden for eksponentielle familier ble publisert av Rolf Sundberg i hans avhandling og flere artikler etter hans samarbeid med Per Martin-Löf og Anders Martin-Löf . Dempster - Laird - Rubin -papiret i 1977 generaliserte metoden og skisserte en konvergensanalyse for en større klasse problemer. Dempster - Laird - Rubin -papiret etablerte EM -metoden som et viktig verktøy for statistisk analyse.

Konvergensanalysen av Dempster - Laird - Rubin -algoritmen var feil og en korrekt konvergensanalyse ble publisert av CF Jeff Wu i 1983. Wu's bevis etablerte EM -metodens konvergens utenfor den eksponentielle familien , som hevdet av Dempster - Laird - Rubin.

Introduksjon

EM -algoritmen brukes til å finne (lokale) maksimal sannsynlighetsparametere for en statistisk modell i tilfeller der ligningene ikke kan løses direkte. Vanligvis involverer disse modellene latente variabler i tillegg til ukjente parametere og kjente dataobservasjoner. Det vil si at enten mangler verdier blant dataene, eller at modellen kan formuleres enklere ved å anta eksistensen av ytterligere uobserverte datapunkter. For eksempel kan en blandingsmodell beskrives enklere ved å anta at hvert observerte datapunkt har et tilsvarende ikke -observert datapunkt, eller latent variabel, som angir blandingskomponenten som hvert datapunkt tilhører.

Å finne en maksimal sannsynlighetsløsning krever vanligvis å ta derivatene av sannsynlighetsfunksjonen med hensyn til alle de ukjente verdiene, parametrene og de latente variablene, og samtidig løse de resulterende ligningene. I statistiske modeller med latente variabler er dette vanligvis umulig. I stedet er resultatet vanligvis et sett med sammenlåsende ligninger der løsningen på parameterne krever verdiene til de latente variablene og omvendt, men å erstatte det ene settet med ligninger i det andre gir en uløselig ligning.

EM -algoritmen går ut fra observasjonen at det er en måte å løse disse to settene med ligninger numerisk. Man kan ganske enkelt velge vilkårlige verdier for ett av de to settene med ukjente, bruke dem til å estimere det andre settet, deretter bruke disse nye verdiene til å finne et bedre estimat for det første settet, og deretter fortsette å veksle mellom de to til de resulterende verdiene begge konvergerer til faste punkter. Det er ikke åpenbart at dette vil fungere, men det kan bevises i denne sammenhengen. I tillegg kan det bevises at derivatet av sannsynligheten er (vilkårlig nær) null på det punktet, noe som igjen betyr at punktet enten er et lokalt maksimum eller et sadelpunkt . Generelt kan flere maksima forekomme, uten garanti for at det globale maksimumet blir funnet. Noen sannsynligheter har også særegenheter i seg, det vil si meningsløse maksima. For eksempel innebærer en av løsningene som EM kan finne i en blandingsmodell å sette en av komponentene for å ha null varians og gjennomsnittsparameteren for at den samme komponenten skal være lik et av datapunktene.

Beskrivelse

Gitt den statistiske modellen som genererer et sett med observerte data, et sett med ubemerkede latente data eller manglende verdier , og en vektor med ukjente parametere , sammen med en sannsynlighetsfunksjon , bestemmes maksimal sannsynlighetsestimat (MLE) for de ukjente parameterne ved å maksimere den marginale sannsynligheten for de observerte dataene

Imidlertid er denne mengden ofte vanskelig å håndtere siden den ikke blir observert, og fordelingen av den er ukjent før den oppnås .

EM -algoritmen søker å finne MLE for den marginale sannsynligheten ved å iterativt bruke disse to trinnene:

Forventningstrinn (E -trinn) : Definer som forventet verdi av log -sannsynlighetsfunksjonen for , med hensyn til gjeldende betinget fordeling av gitt og gjeldende estimater av parametrene :
Maksimeringstrinn (M -trinn) : Finn parametrene som maksimerer denne mengden:

De typiske modellene som EM brukes på, brukes som en latent variabel som indikerer medlemskap i en av et sett med grupper:

  1. De observerte datapunktene kan være diskrete (tar verdier i et begrenset eller uendelig sett) eller kontinuerlige (tar verdier i et uendelig sett). Tilknyttet hvert datapunkt kan det være en observasjonsvektor.
  2. De manglende verdiene (aka latente variabler ) er diskrete , hentet fra et fast antall verdier, og med en latent variabel per observert enhet.
  3. Parametrene er kontinuerlige og er av to slag: Parametere som er knyttet til alle datapunkter, og de som er knyttet til en spesifikk verdi av en latent variabel (dvs. assosiert med alle datapunkter som tilsvarende latente variabel har denne verdien).

Imidlertid er det mulig å bruke EM på andre typer modeller.

Motivasjonen er som følger. Hvis verdien av parametrene er kjent, kan man vanligvis finne verdien av de latente variablene ved å maksimere logg-sannsynligheten for alle mulige verdier av , enten ganske enkelt ved å iterere over eller gjennom en algoritme som Baum-Welch-algoritmen for skjult Markov modeller . Omvendt, hvis vi kjenner verdien av de latente variablene , kan vi finne et estimat av parametrene ganske enkelt, vanligvis ved ganske enkelt å gruppere de observerte datapunktene i henhold til verdien av den tilhørende latente variabelen og gjennomsnitt av verdiene, eller en funksjon av verdier, av punktene i hver gruppe. Dette antyder en iterativ algoritme, i tilfelle hvor begge og er ukjente:

  1. Initialiser først parametrene til noen tilfeldige verdier.
  2. Beregn sannsynligheten for hver mulig verdi av , gitt .
  3. Deretter bruker du de nettopp beregnede verdiene til å beregne et bedre estimat for parametrene .
  4. Iterer trinn 2 og 3 til konvergens.

Algoritmen som nettopp beskrevet, nærmer seg monotont et lokalt minimum av kostnadsfunksjonen.

Egenskaper

Apropos et forventning (E) trinn er litt av en misvisende navn . Hva regnes i det første trinn er de faste, data-avhengige parametere i funksjonen Q . Når parametrene til Q er kjent, er det fullt ut bestemt og maksimert i det andre (M) trinnet i en EM -algoritme.

Selv om en EM -iterasjon øker den observerte data (dvs. marginal) sannsynlighetsfunksjon, finnes det ingen garanti for at sekvensen konvergerer til en maksimal sannsynlighetsestimator . For multimodale distribusjoner betyr dette at en EM -algoritme kan konvergere til et lokalt maksimum for den observerte datasannsynlighetsfunksjonen, avhengig av startverdier. Det finnes en rekke heuristiske eller metaheuristiske tilnærminger for å unnslippe et lokalt maksimum, for eksempel tilfeldig omstart av åsbestigning (starter med flere forskjellige tilfeldige innledende estimater θ ( t ) ), eller bruk av simulerte glødemetoder .

EM er spesielt nyttig når sannsynligheten er en eksponentiell familie : E -trinnet blir summen av forventningene til tilstrekkelig statistikk , og M -trinnet innebærer å maksimere en lineær funksjon. I et slikt tilfelle er det vanligvis mulig å hente lukkede uttrykksoppdateringer for hvert trinn ved å bruke Sundberg-formelen (utgitt av Rolf Sundberg ved hjelp av upubliserte resultater av Per Martin-Löf og Anders Martin-Löf ).

EM -metoden ble modifisert for å beregne maksimale a posteriori (MAP) estimater for Bayesian slutning i originalpapiret av Dempster, Laird og Rubin.

Det finnes andre metoder for å finne maksimale sannsynlighetsestimater, for eksempel nedstigning av gradient , konjugert gradient eller varianter av Gauss - Newton -algoritmen . I motsetning til EM krever slike metoder vanligvis evaluering av første og/eller andre derivater av sannsynlighetsfunksjonen.

Bevis på korrekthet

Forventningsmaksimering virker bedre enn å forbedre seg direkte . Her er det vist at forbedringer av førstnevnte innebærer forbedringer av sistnevnte.

For alle med ikke-null sannsynlighet kan vi skrive

Vi tar forventningen over mulige verdier av de ukjente dataene under gjeldende parameterestimat ved å multiplisere begge sider med og summere (eller integrere) over . Venstre side er forventningen om en konstant, så vi får:

hvor er definert av den negerte summen den erstatter. Denne siste ligningen gjelder for hver verdi av å inkludere ,

og trekker denne siste ligningen fra den forrige ligningen gir

Imidlertid forteller Gibbs ulikhet oss det , så vi kan konkludere med det

Med ord, det å velge å forbedre fører til at man forbedrer minst like mye.

Som en prosedyre for maksimering - maksimering

EM -algoritmen kan sees på som to alternerende maksimeringstrinn, det vil si som et eksempel på koordinatnedstigning . Vurder funksjonen:

hvor q er en vilkårlig sannsynlighetsfordeling over de ikke -observerte dataene z og H (q) er entropien til fordelingen q . Denne funksjonen kan skrives som

hvor er den betingede fordelingen av de ikke -observerte dataene gitt de observerte dataene, og er Kullback - Leibler -divergensen .

Deretter kan trinnene i EM -algoritmen sees på som:

Forventningstrinn : Velg å maksimere :
Maksimeringstrinn : Velg å maksimere :

applikasjoner

EM brukes ofte for parameterestimering av blandede modeller , særlig innen kvantitativ genetikk .

I psykometrikk er EM et viktig verktøy for å estimere elementparametere og latente evner for elementresponssteorimodeller .

Med muligheten til å håndtere manglende data og observere uidentifiserte variabler, blir EM et nyttig verktøy for å prise og håndtere risiko for en portefølje.

EM-algoritmen (og dens raskere variant bestilt delmengdeforventningsmaksimering ) er også mye brukt i medisinsk bilderekonstruksjon , spesielt i positronemisjonstomografi , enkeltfotonemisjonstomografi og røntgencomputertomografi . Se nedenfor for andre raskere varianter av EM.

I konstruksjonsteknikk er algoritmen Structural Identification using Expectation Maximization (STRIDE) en utgangsmetode for å identifisere naturlige vibrasjonsegenskaper for et konstruksjonssystem ved hjelp av sensordata (se Operational Modal Analysis ).

EM brukes også til dataklynge . I behandling av naturlig språk er to fremtredende forekomster av algoritmen Baum-Welch-algoritmen for skjulte Markov-modeller , og algoritmen innvendig og utvendig for uovervåket induksjon av sannsynlige kontekstfrie grammatikker .

Filtrering og utjevning av EM -algoritmer

Et Kalman-filter brukes vanligvis for estimering av tilstander på nettet, og en jevnere variante med minsteavvik kan benyttes for off-line eller batchstatistimering. Disse løsningene med minsteavvik krever imidlertid estimater av parametrene for state-space-modellen. EM -algoritmer kan brukes til å løse felles tilstand og parameterestimeringsproblemer.

Filtrering og utjevning av EM-algoritmer oppstår ved å gjenta denne to-trinns prosedyren:

E-trinn
Bruk et Kalman-filter eller en jevner med en minimumsavvik designet med gjeldende parameterestimater for å få oppdaterte tilstandsestimater.
M-trinn
Bruk estimerte filtrerte eller utjevnede tilstander innen maksimal sannsynlighetsberegninger for å få oppdaterte parameterestimater.

Anta at et Kalman-filter eller en mykere varianter med minsteavvik opererer på målinger av et enkeltinngang-enkelt-utgangssystem som har additiv hvit støy. En oppdatert målestøy varians estimat kan oppnås fra maksimum sannsynlighetsberegning

hvor beregnes skalarutmatingsestimater beregnet av et filter eller en mykere fra N -skalarmålinger . Oppdateringen ovenfor kan også brukes på oppdatering av en Poisson -målestøyintensitet. Tilsvarende, for en førsteordens auto-regressiv prosess, kan et oppdatert estimat for støyavvik for prosess beregnes av

hvor og er skalarstatsestimater beregnet av et filter eller en mykere. Det oppdaterte modellkoeffisientestimatet oppnås via

Konvergensen av parameterestimater som de ovenfor er godt studert.

Varianter

En rekke metoder har blitt foreslått for å akselerere den til tider sakte konvergensen av EM -algoritmen, for eksempel de som bruker konjugert gradient og modifiserte Newtons metoder (Newton - Raphson). EM kan også brukes med begrensede estimeringsmetoder.

Parameter-utvidet forventningsmaksimering (PX-EM) -algoritme gir ofte hastighet ved "oss [en] kovariansjustering" for å korrigere analysen av M-trinnet, og utnytte ekstra informasjon fanget i de tilregnede komplette dataene ".

Forventning betinget maksimalisering (ECM) erstatter hvert M -trinn med en sekvens med betinget maksimalisering (CM) trinn der hver parameter θ i maksimeres individuelt, betinget av at de andre parameterne forblir faste. Selv kan utvides inn i Expectation conditional maximization enten (ECME) algoritmen.

Denne ideen er ytterligere utvidet i generalisert forventningsmaksimering (GEM) -algoritme, der det bare søkes en økning i objektivfunksjonen F for både E -trinnet og M -trinnet som beskrevet i avsnittet Om en maksimering - maksimalisering . GEM er videreutviklet i et distribuert miljø og viser lovende resultater.

Det er også mulig å betrakte EM -algoritmen som en underklasse av MM (Majorize/Minimize eller Minorize/Maximize, afhængig av kontekst) algoritme, og derfor bruke alle maskiner utviklet i det mer generelle tilfellet.

α-EM algoritme

Q-funksjonen som brukes i EM-algoritmen er basert på logg sannsynligheten. Derfor blir det sett på som log-EM-algoritmen. Bruken av logg sannsynligheten kan generaliseres til den for α-log sannsynlighetsforholdet. Deretter kan α-log sannsynlighetsforholdet for de observerte dataene uttrykkes nøyaktig som likhet ved å bruke Q-funksjonen til α-log sannsynlighetsforholdet og α-divergensen. Å få denne Q-funksjonen er et generalisert E-trinn. Maksimeringen er et generalisert M -trinn. Dette paret kalles α-EM-algoritmen som inneholder log-EM-algoritmen som sin underklasse. Dermed er α-EM-algoritmen av Yasuo Matsuyama en eksakt generalisering av log-EM-algoritmen. Ingen beregning av gradient eller hessisk matrise er nødvendig. Α-EM viser raskere konvergens enn log-EM-algoritmen ved å velge en passende α. Α-EM-algoritmen fører til en raskere versjon av Hidden Markov-modellestimeringsalgoritmen α-HMM.

Forhold til variasjon Bayes metoder

EM er en delvis ikke-bayesisk, maksimal sannsynlighetsmetode. Det endelige resultatet gir en sannsynlighetsfordeling over de latente variablene (i bayesiansk stil) sammen med et poengestimat for θ (enten et maksimal sannsynlighetsestimat eller en posterior modus). En fullt bayesisk versjon av dette kan være ønsket, noe som gir en sannsynlighetsfordeling over θ og de latente variablene. Den bayesianske tilnærmingen til slutning er ganske enkelt å behandle θ som en annen latent variabel. I dette paradigmet forsvinner skillet mellom E- og M -trinnene. Hvis du bruker den faktoriserte Q -tilnærmingen som beskrevet ovenfor ( variasjonelle Bayes ), kan løsning iterere over hver latent variabel (nå inkludert θ ) og optimalisere dem en om gangen. Nå er k trinn per iterasjon nødvendig, hvor k er antall latente variabler. For grafiske modeller er dette enkelt å gjøre, ettersom hver variabels nye Q bare er avhengig av Markov -teppet , så lokal meldingssending kan brukes for effektiv slutning.

Geometrisk tolkning

I informasjonsgeometri tolkes E-trinnet og M-trinnet som projeksjoner under to affine forbindelser , kalt e-tilkoblingen og m-forbindelsen; den Kullback-Leibler divergens kan også bli forstått i disse vilkårene.

Eksempler

Gaussisk blanding

Sammenligning av k-midler og EM på kunstige data visualisert med ELKI . Ved å bruke avvikene kan EM -algoritmen beskrive normalfordelingene nøyaktig, mens k -midler deler dataene i Voronoi -celler. Klyngesenteret er angitt med det lettere, større symbolet.
En animasjon som demonstrerer EM -algoritmen som passer en tokomponent gaussisk blandingsmodell til Old Faithful -datasettet. Algoritmen går fra en tilfeldig initialisering til konvergens.

La oss være et eksempel på uavhengige observasjoner fra en blanding av to multivariate normale dimensjonsfordelinger , og la være de latente variablene som bestemmer komponenten observasjonen kommer fra.

og

hvor

og

Målet er å estimere de ukjente parameterne som representerer blandingsverdien mellom gausserne og middelene og kovariansene til hver:

der sannsynlighetsfunksjonen for ufullstendig data er

og sannsynlighetsfunksjonen for fullstendig data er

eller

hvor er en indikatorfunksjon og er sannsynlighetstetthetsfunksjonen til en multivariat normal.

I den siste likheten, for hver i , er en indikator lik null, og en indikator er lik en. Den indre summen reduseres dermed til ett begrep.

E trinn

Gitt vårt nåværende estimat av parametrene θ ( t ) , bestemmes den betingede fordelingen av Z i av Bayes -setningen til å være proporsjonal høyde for normal tetthet vektet av τ :

Disse kalles "medlemssannsynligheter", som normalt regnes som utgangen av E -trinnet (selv om dette ikke er Q -funksjonen nedenfor).

Dette E -trinnet tilsvarer konfigurering av denne funksjonen for Q:

Forventningen om innsiden av summen er tatt med hensyn til sannsynlighetstetthetsfunksjonen , som kan være forskjellig for hvert treningssett. Alt i E -trinnet er kjent før trinnet er tatt bortsett fra , som beregnes i henhold til ligningen i begynnelsen av E -trinnseksjonen.

Denne fulle betingede forventningen trenger ikke å beregnes i ett trinn, fordi τ og μ / Σ vises i separate lineære termer og dermed kan maksimeres uavhengig.

M trinn

Q ( θ  |  θ ( t ) ) som er kvadratisk i form betyr at det er relativt enkelt å bestemme maksimalverdiene for θ . Dessuten kan τ , ( μ 1 , Σ 1 ) og ( μ 2 , Σ 2 ) maksimeres uavhengig av hverandre siden de alle vises i separate lineære termer.

For å begynne, tenk på τ , som har begrensningen τ 1 + τ 2 = 1:

Dette har samme form som MLE for den binomiske fordelingen , så

For de neste estimatene av ( μ 1 , Σ 1 ):

Dette har samme form som en vektet MLE for en normalfordeling, så

og

og symmetri,

og

Avslutning

Konkluderer den iterative prosessen hvis for under en viss forhåndsinnstilt terskel.

Generalisering

Algoritmen illustrert ovenfor kan generaliseres for blandinger av mer enn to flervariate normalfordelinger .

Avkortet og sensurert regresjon

EM -algoritmen er implementert i tilfelle der det eksisterer en underliggende lineær regresjonsmodell som forklarer variasjonen av en viss mengde, men hvor verdiene som faktisk observeres er sensurert eller avkortet versjoner av de som er representert i modellen. Spesielle tilfeller av denne modellen inkluderer sensurerte eller avkortede observasjoner fra en normalfordeling .

Alternativer

EM konvergerer vanligvis til et lokalt optimalt, ikke nødvendigvis det globale optimumet, uten noen begrensning på konvergenshastigheten generelt. Det er mulig at det kan være vilkårlig dårlig i høye dimensjoner, og det kan være et eksponentielt antall lokale optima. Derfor eksisterer det et behov for alternative metoder for garantert læring, spesielt i høydimensjonale omgivelser. Alternativer til EM finnes med bedre garantier for konsistens, som kalles øyeblikksbaserte tilnærminger eller de såkalte spektrale teknikkene . Øyeblikksbaserte tilnærminger for å lære parametrene til en sannsynlighetsmodell er av stadig større interesse siden de nyter garantier som global konvergens under visse forhold i motsetning til EM som ofte er plaget av problemet med å bli sittende fast i lokale optima. Algoritmer med læringsgarantier kan utledes for en rekke viktige modeller, for eksempel blandingsmodeller, HMMer osv. For disse spektrale metodene forekommer det ingen falske lokale optima, og de sanne parametrene kan konsekvent estimeres under noen regelmessighetsforhold.

Se også

Referanser

Videre lesning

  • Hogg, Robert; McKean, Joseph; Craig, Allen (2005). Introduksjon til matematisk statistikk . Upper Saddle River, NJ: Pearson Prentice Hall. s. 359–364.
  • Dellaert, Frank (2002). "Algoritmen for forventningsmaksimering". CiteSeerX  10.1.1.9.9735 . Cite journal krever |journal=( hjelp ) gir en enklere forklaring på EM -algoritmen for lavere maksimalisering.
  • Biskop, Christopher M. (2006). Mønstergjenkjenning og maskinlæring . Springer. ISBN 978-0-387-31073-2.
  • Gupta, MR; Chen, Y. (2010). "Teori og bruk av EM -algoritmen". Fundamenter og trender i signalbehandling . 4 (3): 223–296. CiteSeerX  10.1.1.219.6830 . doi : 10.1561/2000000034 . En velskrevet kort bok om EM, inkludert detaljert avledning av EM for GMM, HMM og Dirichlet.
  • Bilmes, Jeff (1998). "En skånsom opplæring av EM -algoritmen og dens anvendelse på parameterestimering for Gauss -blanding og skjulte Markov -modeller". CiteSeerX  10.1.1.28.613 . Cite journal krever |journal=( hjelp ) inkluderer en forenklet avledning av EM -ligningene for gaussiske blandinger og gaussiske blandinger skjulte Markov -modeller.
  • McLachlan, Geoffrey J .; Krishnan, Thriyambakam (2008). EM -algoritmen og utvidelsene (2. utg.). Hoboken: Wiley. ISBN 978-0-471-20170-0.

Eksterne linker