Naturlig språkforståelse - Natural-language understanding

Natural-språkforståelse ( NLU ) eller naturlig språklig tolkning ( NLI ) er et underemne av naturlig språk prosessering i kunstig intelligens som omhandler maskin leseforståelse . Naturlig språkforståelse regnes som et AI-vanskelig problem.

Det er betydelig kommersiell interesse i feltet på grunn av dets anvendelse på automatisert resonnement , maskinoversettelse , spørsmålssvar , nyhetsinnsamling, tekstkategorisering , stemmeaktivering , arkivering og storskala innholdsanalyse .

Historie

Programmet STUDENT , skrevet i 1964 av Daniel Bobrow for doktorgradsavhandlingen ved MIT , er et av de tidligste kjente forsøkene på forståelse av naturlige språk ved hjelp av en datamaskin. Åtte år etter at John McCarthy skapte begrepet kunstig intelligens , viste Bobrows avhandling (med tittelen Natural Language Input for a Computer Problem Solving System ) hvordan en datamaskin kunne forstå enkel naturlig språkinngang for å løse problemer med algebraord.

Et år senere, i 1965, skrev Joseph Weizenbaum ved MIT ELIZA , et interaktivt program som førte en dialog på engelsk om ethvert emne, den mest populære var psykoterapi. ELIZA jobbet ved enkel parsering og erstatning av stikkord i hermetiske setninger, og Weizenbaum gikk bort fra problemet med å gi programmet en database med kunnskap fra den virkelige verden eller et rikt leksikon . Likevel fikk ELIZA overraskende popularitet som et leketøyprosjekt og kan sees på som en veldig tidlig forløper for dagens kommersielle systemer som de som brukes av Ask.com .

I 1969 introduserte Roger Schank ved Stanford University den konseptuelle avhengighetsteorien for forståelse av naturlig språk. Denne modellen, delvis påvirket av arbeidet til Sydney Lamb , ble mye brukt av Schanks studenter ved Yale University , som Robert Wilensky , Wendy Lehnert og Janet Kolodner .

I 1970 introduserte William A. Woods det utvidede overgangsnettverket (ATN) for å representere naturlige språkinnspill. I stedet for setningsstrukturregler brukte ATNs et tilsvarende sett med endelige statsautomater som ble kalt rekursivt. ATN og deres mer generelle format kalt "generaliserte ATN" fortsatte å bli brukt i en årrekke.

I 1971 avsluttet Terry Winograd å skrive SHRDLU for doktorgradsavhandlingen ved MIT. SHRDLU kunne forstå enkle engelske setninger i en begrenset verden av barneblokker for å lede en robotarm til å flytte gjenstander. Den vellykkede demonstrasjonen av SHRDLU ga betydelig fart for fortsatt forskning på området. Winograd fortsatte å være en stor innflytelse i feltet med utgivelsen av boken Språk som en kognitiv prosess . I Stanford ville Winograd senere gi råd til Larry Page , som var medstifter av Google .

På 1970- og 1980-tallet fortsatte prosesseringsgruppen for naturlig språk ved SRI International forskning og utvikling innen feltet. En rekke kommersielle tiltak basert på forskningen ble gjennomført, for eksempel i 1982 dannet Gary Hendrix Symantec Corporation opprinnelig som et selskap for å utvikle et naturlig språkgrensesnitt for databasespørsmål på personlige datamaskiner. Imidlertid, med fremkomsten av musedrevne grafiske brukergrensesnitt , endret Symantec retning. En rekke andre kommersielle tiltak ble startet omtrent samtidig, for eksempel Larry R. Harris ved Artificial Intelligence Corporation og Roger Schank og hans studenter ved Cognitive Systems Corp. I 1983 utviklet Michael Dyer BORIS-systemet på Yale som hadde likheter med arbeidet til Roger Schank og WG Lehnert.

Det tredje årtusenet introduserte systemer som bruker maskinlæring for tekstklassifisering, for eksempel IBM Watson . Eksperter diskuterer imidlertid hvor mye "forståelse" slike systemer viser: for eksempel , ifølge John Searle , forsto Watson ikke engang spørsmålene.

John Ball, kognitiv forsker og oppfinner av Patom Theory , støtter denne vurderingen. Naturlig språkbehandling har gjort inngrep for applikasjoner som støtter menneskelig produktivitet innen service og e-handel, men dette er i stor grad blitt mulig ved å begrense omfanget av applikasjonen. Det er tusenvis av måter å be om noe på et menneskelig språk som fortsatt trosser konvensjonell naturlig språkbehandling. "Å ha en meningsfull samtale med maskiner er bare mulig når vi matcher hvert ord til riktig betydning basert på betydningen av de andre ordene i setningen - akkurat som en 3-åring gjør uten gjetninger."

Omfang og kontekst

Paraplybegrepet "forståelse av naturlig språk" kan brukes på et mangfoldig sett med dataprogrammer, alt fra små, relativt enkle oppgaver som korte kommandoer utstedt til roboter , til svært komplekse bestrebelser som full forståelse av avisartikler eller poesi . Mange applikasjoner fra den virkelige verden faller mellom de to ytterpunktene, for eksempel tekstklassifisering for automatisk analyse av e-post og ruting av dem til en passende avdeling i et selskap krever ikke en grundig forståelse av teksten, men må håndtere mye større ordforråd og mer variert syntaks enn håndtering av enkle spørsmål til databasetabeller med faste skjemaer.

Gjennom årene har forskjellige forsøk på å behandle naturlig språk eller engelsklignende setninger presentert for datamaskiner skjedd i varierende grad av kompleksitet. Noen forsøk har ikke resultert i systemer med dyp forståelse, men har hjulpet den generelle systembrukbarheten. For eksempel utviklet Wayne Ratliff opprinnelig Vulcan- programmet med en engelsk-lignende syntaks for å etterligne den engelsktalende datamaskinen i Star Trek . Vulcan ble senere dBase- systemet hvis brukervennlige syntaks effektivt lanserte databasen for personlige datamaskiner. Systemer med en brukervennlig eller engelsk som syntaks er imidlertid ganske forskjellige fra systemer som bruker et rikt leksikon og inkluderer en intern representasjon (ofte som førsteordenslogikk ) av semantikken i naturlige språksetninger.

Derfor bestemmer bredden og dybden av "forståelse" rettet mot et system både kompleksiteten i systemet (og de underforståtte utfordringene) og hvilke typer applikasjoner det kan håndtere. Systemets "bredde" måles av størrelsen på ordforråd og grammatikk. "Dybden" måles ved i hvilken grad dens forståelse tilnærmer seg den som en flytende morsmål. På det smaleste og grunne krever engelsk-lignende kommandotolker minimal kompleksitet, men har et lite bruksområde. Smale, men dype systemer utforsker og modellerer mekanismer for forståelse, men de har fortsatt begrenset anvendelse. Systemer som prøver å forstå innholdet i et dokument, for eksempel en pressemelding utover enkel nøkkelordsmatching, og å bedømme dets egnethet for en bruker, er bredere og krever betydelig kompleksitet, men de er fremdeles noe grunne. Systemer som er veldig brede og veldig dype er utenfor dagens nåværende teknikk.

Komponenter og arkitektur

Uavhengig av tilnærmingen som brukes, deler de fleste språkforståelsessystemer noen vanlige komponenter. Systemet trenger et leksikon av språket og en parser og grammatikkregler for å bryte setninger til en intern representasjon. Byggingen av en rik leksikon med en egnet ontologi krever betydelig innsats, for eksempel , den Wordnet leksikon krevde mange årsverk med innsats.

Systemet trenger også teori fra semantikk for å lede forståelsen. Tolkningsegenskapene til et språkforståelsessystem avhenger av den semantiske teorien det bruker. Konkurrerende semantiske teorier om språk har spesifikke avveininger i egnethet som grunnlag for datamaskinautomatisk semantisk tolkning. Disse spenner fra naiv semantikk eller stokastisk semantisk analyse til bruk av pragmatikk for å få mening fra kontekst. Semantiske parsere konverterer naturspråklige tekster til formelle meningsrepresentasjoner.

Avanserte anvendelser av forståelse på naturlig språk prøver også å innlemme logisk slutning innenfor deres rammer. Dette oppnås vanligvis ved å kartlegge den avledede betydningen i et sett med påstander i predikatlogikk , og deretter bruke logisk deduksjon for å komme til konklusjoner. Derfor må systemer basert på funksjonelle språk som Lisp inkludere et delsystem for å representere logiske påstander, mens logikkorienterte systemer som de som bruker språket Prolog, generelt er avhengige av en utvidelse av det innebygde logiske representasjonsrammeverket.

Styring av kontekst i forståelse av naturlig språk kan by på spesielle utfordringer. Et stort utvalg av eksempler og moteksempler har resultert i flere tilnærminger til den formelle modelleringen av kontekst, hver med spesifikke styrker og svakheter.

Se også

Merknader