Kinesisk rom - Chinese room

Det kinesiske romargumentet mener at en digital datamaskin som kjører et program ikke kan ha et " sinn ", " forståelse " eller " bevissthet ", uavhengig av hvor intelligent eller menneskelig programmet programmet kan få datamaskinen til å oppføre seg. Argumentet ble presentert av filosofen John Searle i hans papir, "Minds, Brains, and Programs", publisert i Behavioral and Brain Sciences i 1980. Lignende argumenter ble presentert av Gottfried Leibniz (1714), Anatoly Dneprov (1961), Lawrence Davis ( 1974) og Ned Block (1978). Searles versjon har blitt mye diskutert i årene siden. Midtpunktet i Searles argument er et tankeeksperiment kjent som det kinesiske rommet .

Argumentet er rettet mot de filosofiske posisjonene til funksjonalisme og beregningsmessige , som mener at sinnet kan sees på som et informasjonsbehandlingssystem som opererer på formelle symboler, og at simulering av en gitt mental tilstand er tilstrekkelig for dets tilstedeværelse. Spesielt er argumentet ment å tilbakevise en posisjon Searle kaller sterk AI : "Den riktig programmerte datamaskinen med de riktige inngangene og utgangene ville derved ha et sinn i nøyaktig samme betydning som mennesker har sinn."

Selv om den opprinnelig ble presentert som reaksjon på uttalelsene til forskere av kunstig intelligens (AI), er den ikke et argument mot målene for vanlig AI -forskning, fordi den ikke viser en grense for mengden "intelligent" oppførsel en maskin kan vise . Argumentet gjelder bare digitale datamaskiner som kjører programmer og gjelder ikke maskiner generelt.

Kinesisk rom -tankeeksperiment

Searles tankeeksperiment begynner med denne hypotetiske forutsetningen: anta at kunstig intelligensforskning har lykkes med å konstruere en datamaskin som oppfører seg som om den forstår kinesisk . Det tar kinesiske tegn som input, og ved å følge instruksjonene fra et dataprogram produserer det andre kinesiske tegn, som det presenterer som output. Anta, sier Searle, at denne datamaskinen utfører oppgaven så overbevisende at den komfortabelt består Turing -testen : den overbeviser en menneskelig kinesisk høyttaler om at programmet i seg selv er en levende kinesisk høyttaler. På alle spørsmålene personen stiller, gir den passende svar, slik at enhver kinesisk høyttaler ville være overbevist om at de snakker med et annet kinesisktalende menneske.

Spørsmålet Searle ønsker å svare på er dette: Forstår maskinen bokstavelig talt kinesisk? Eller er det bare å simulere evnen til å forstå kinesisk? Searle kaller den første posisjonen " sterk AI " og den siste "svake AI".

Searle antar da at han er i et lukket rom og har en bok med en engelsk versjon av dataprogrammet, sammen med tilstrekkelige papirer, blyanter, viskelær og arkivskap. Searle kan motta kinesiske tegn gjennom et spor i døren, behandle dem i henhold til programmets instruksjoner og produsere kinesiske tegn som utgang. Hvis datamaskinen hadde bestått Turing -testen på denne måten, følger det, sier Searle, at han også ville gjøre det, bare ved å kjøre programmet manuelt.

Searle hevder at det ikke er noen vesentlig forskjell mellom datamaskinens roller og ham selv i eksperimentet. Hver følger ganske enkelt et program, trinn for trinn, og produserer en oppførsel som deretter blir tolket av brukeren som demonstrerende intelligent samtale. Imidlertid ville Searle selv ikke være i stand til å forstå samtalen. ("Jeg snakker ikke et ord kinesisk," påpeker han.) Derfor, argumenterer han, følger det at datamaskinen heller ikke ville være i stand til å forstå samtalen.

Searle argumenterer for at vi uten "forståelse" (eller " intensjonalitet ") ikke kan beskrive hva maskinen gjør som "tenkning", og siden den ikke tenker, har den ikke et "sinn" i likhet med den normale følelsen av ordet. Derfor konkluderer han med at "sterk AI" -hypotesen er falsk.

Historie

Gottfried Leibniz kom med et lignende argument i 1714 mot mekanisme (posisjonen om at sinnet er en maskin og ikke noe mer). Leibniz brukte tankeeksperimentet med å utvide hjernen til den var på størrelse med en kvern . Leibniz syntes det var vanskelig å forestille seg at et "sinn" i stand til "persepsjon" bare kunne konstrueres ved å bruke mekaniske prosesser.

Den russiske kybernetikeren Anatoly Dneprov kom med et i hovedsak identisk argument i 1961, i form av novellen " The Game ". I den fungerer et stadion med mennesker som brytere og minneceller som implementerer et program for å oversette en setning på portugisisk, et språk som ingen av dem kan. Spillet ble organisert av en "professor Zarubin" for å svare på spørsmålet "Kan matematiske maskiner tenke?" Når han snakker gjennom Zarubin, skriver Dneprov "den eneste måten å bevise at maskiner kan tenke på er å gjøre deg selv til en maskin og undersøke tankeprosessen din." og han avslutter, som Searle gjør, "Vi har bevist at selv den mest perfekte simulering av maskintenkning ikke er tankeprosessen i seg selv."

I 1974 forestilte Lawrence Davis seg duplisering av hjernen ved hjelp av telefonlinjer og kontorer bemannet av mennesker, og i 1978 så Ned Block for seg hele Kinas befolkning som var involvert i en slik hjernesimulering. Dette tankeeksperimentet kalles Kina -hjernen , også "Chinese Nation" eller "Chinese Gym".

John Searle i desember 2005

Searles versjon dukket opp i avisen "Minds, Brains, and Programs" fra 1980, utgitt i Behavioral and Brain Sciences . Det ble til slutt tidsskriftets "mest innflytelsesrike målartikkel", og genererte et enormt antall kommentarer og svar i de påfølgende tiårene, og Searle har fortsatt å forsvare og finpusse argumentet i mange artikler, populære artikler og bøker. David Cole skriver at "det kinesiske rom -argumentet sannsynligvis har vært det mest diskuterte filosofiske argumentet innen kognitiv vitenskap som har dukket opp de siste 25 årene".

Det meste av diskusjonen består av forsøk på å tilbakevise den. "Det overveldende flertallet", bemerker BBS -redaktør Stevan Harnad , "tror fremdeles at det kinesiske romargumentet er dødt feil". Det store volumet av litteraturen som har vokst opp rundt det, inspirerte Pat Hayes til å kommentere at feltet kognitiv vitenskap burde omdefineres som "det pågående forskningsprogrammet for å vise Searles Chinese Room Argument å være falskt".

Searles argument har blitt "noe av en klassiker innen kognitiv vitenskap", ifølge Harnad. Varol Akman er enig, og har beskrevet originalavisen som "et eksempel på filosofisk klarhet og renhet".

Filosofi

Selv om argumentet om kinesisk rom opprinnelig ble presentert som reaksjon på uttalelser fra kunstig intelligensforskere , har filosofer kommet til å betrakte det som en viktig del av sinnsfilosofien . Det er en utfordring for funksjonalisme og beregningsteorien om sinnet , og er relatert til spørsmål som sinn-kropp-problemet , problemet med andre sinn , problemet med symbolforankring og det harde bevissthetsproblemet .

Sterk AI

Searle identifiserte en filosofisk posisjon han kaller "sterk AI":

Den riktig programmerte datamaskinen med de riktige inngangene og utgangene ville dermed ha et sinn i nøyaktig samme betydning som mennesker har sinn.

Definisjonen avhenger av skillet mellom å simulere et sinn og faktisk å ha et sinn. Searle skriver at "ifølge Strong AI er den riktige simuleringen virkelig et sinn. Ifølge Weak AI er den riktige simuleringen en modell av sinnet."

Påstanden er implisitt i noen av uttalelsene fra tidlige AI -forskere og analytikere. For eksempel, i 1955, erklærte AI -grunnlegger Herbert A. Simon at "det er nå maskiner i verden som tenker, som lærer og skaper". Simon, sammen med Allen Newell og Cliff Shaw , etter å ha fullført det første "AI" -programmet, Logic Theorist , hevdet at de hadde "løst det ærverdige sinn -kropp -problemet og forklarte hvordan et system sammensatt av materie kan ha sinnets egenskaper . " John Haugeland skrev at "AI ønsker bare den ekte artikkelen: maskiner med sinn , i full og bokstavelig forstand. Dette er ikke science fiction, men ekte vitenskap, basert på en teoretisk oppfatning så dyp som den er dristig: nemlig vi er, ved rot, datamaskiner selv . "

Searle tilskriver også følgende påstander til talsmenn for sterk AI:

  • AI -systemer kan brukes til å forklare sinnet;
  • Studiet av hjernen er irrelevant for studiet av sinnet; og
  • The Turing test er tilstrekkelig for å etablere eksistensen av mentale tilstander.

Sterk AI som beregning eller funksjonalisme

I nyere presentasjoner av kinesisk rommet argumentet har Searle identifisert "sterk AI" som "datamaskin funksjonalisme " (et begrep han tilskriver Daniel Dennett ). Funksjonalisme er en posisjon i moderne sinnsfilosofi som mener at vi kan definere mentale fenomener (som tro, ønsker og oppfatninger) ved å beskrive deres funksjoner i forhold til hverandre og til omverdenen. Fordi et dataprogram nøyaktig kan representere funksjonelle relasjoner som relasjoner mellom symboler, kan en datamaskin ha mentale fenomener hvis den kjører det riktige programmet, ifølge funksjonalisme.

Stevan Harnad argumenterer for at Searles skildringer av sterk AI kan omformuleres som "gjenkjennelige prinsipper for beregning , en posisjon (i motsetning til" sterk AI ") som faktisk er inneholdt av mange tenkere, og derfor en som er verdt å tilbakevise." Computationalism er posisjonen i sinnsfilosofien som argumenterer for at sinnet kan beskrives nøyaktig som et informasjonsbehandlingssystem .

Hvert av følgende, ifølge Harnad, er en "tenet" for beregning:

  • Psykiske tilstander er beregningstilstander (det er derfor datamaskiner kan ha mentale tilstander og hjelpe til med å forklare sinnet);
  • Beregningstilstander er implementeringsuavhengige-med andre ord er det programvaren som bestemmer beregningstilstanden, ikke maskinvaren (derfor er hjernen, som er maskinvare, irrelevant); og det
  • Siden implementering er uviktig, er de eneste empiriske dataene som betyr noe hvordan systemet fungerer; derfor er Turing -testen definitiv.

Sterk AI mot biologisk naturalisme

Searle innehar en filosofisk posisjon han kaller " biologisk naturalisme ": at bevissthet og forståelse krever spesifikke biologiske maskiner som finnes i hjernen. Han skriver "hjerner forårsaker sinn" og at "faktiske menneskelige mentale fenomener [er] avhengige av faktiske fysisk -kjemiske egenskaper til faktiske menneskelige hjerner". Searle hevder at dette maskineriet (kjent for nevrovitenskap som " nevrale korrelater av bevissthet ") må ha noen årsakskrefter som tillater menneskelig opplevelse av bevissthet. Searles tro på eksistensen av disse kreftene har blitt kritisert.

Searle er ikke uenig i forestillingen om at maskiner kan ha bevissthet og forståelse, fordi, som han skriver, "vi er nettopp slike maskiner". Searle mener at hjernen faktisk er en maskin, men at hjernen gir bevissthet og forståelse ved hjelp av maskiner som ikke er beregningsmessige. Hvis nevrovitenskapen er i stand til å isolere den mekaniske prosessen som gir opphav til bevissthet, gir Searle at det kan være mulig å lage maskiner som har bevissthet og forståelse. Men uten det spesifikke maskineriet som kreves, tror Searle ikke at bevissthet kan forekomme.

Biologisk naturalisme innebærer at man ikke kan avgjøre om bevissthetsopplevelsen skjer bare ved å undersøke hvordan et system fungerer, fordi hjernens spesifikke maskineri er avgjørende. Dermed er biologisk naturalisme direkte imot både behaviorisme og funksjonalisme (inkludert "datamaskinfunksjonalisme" eller "sterk AI"). Biologisk naturalisme ligner identitetsteori (posisjonen om at mentale tilstander er "identiske med" eller "sammensatt av" nevrologiske hendelser); Searle har imidlertid spesifikke tekniske innvendinger mot identitetsteori. Searles biologiske naturalisme og sterke AI er begge imot kartesisk dualisme , den klassiske ideen om at hjernen og sinnet er laget av forskjellige "stoffer". Searle beskylder faktisk sterk AI for dualisme og skriver at "sterk AI bare gir mening gitt den dualistiske antagelsen om at hjernen ikke spiller noen rolle når det gjelder sinnet."

Bevissthet

Searles opprinnelige presentasjon la vekt på "forståelse" - det vil si mentale tilstander med det filosofer kaller " intensjonalitet " - og tok ikke direkte opp andre nært beslektede ideer som "bevissthet". Imidlertid har Searle i nyere presentasjoner inkludert bevissthet som det virkelige målet for argumentet.

Beregningsmodeller for bevissthet er i seg selv ikke tilstrekkelige for bevissthet. Beregningsmodellen for bevissthet står overfor bevisstheten på samme måte som beregningsmodellen for alt står for domenet som skal modelleres. Ingen antar at beregningsmodellen for regnvær i London vil gjøre oss alle våte. Men de gjør feilen ved å anta at beregningsmodellen for bevissthet er på en eller annen måte bevisst. Det er samme feil i begge tilfeller.

-  John R. Searle, Bevissthet og språk, s. 16

David Chalmers skriver "det er ganske klart at bevisstheten er roten til saken" i det kinesiske rommet.

Colin McGinn argumenterer for at det kinesiske rommet gir sterke bevis på at det harde bevissthetsproblemet er fundamentalt uløselig. Argumentet, for å være tydelig, handler ikke om en maskin kan være bevisst, men om den (eller noe annet for den saks skyld) kan vise seg å være bevisst. Det er tydelig at enhver annen metode for å undersøke beboeren i et kinesisk rom har de samme prinsipielle vanskelighetene som å utveksle spørsmål og svar på kinesisk. Det er rett og slett ikke mulig å guddommelig om et bevisst byrå eller en smart simulering bor i rommet.

Searle hevder at dette bare er sant for en observatør utenfor rommet. Hele poenget med tankeeksperimentet er å sette noen inne i rommet, der de direkte kan observere bevissthetens operasjoner. Searle hevder at fra hans utsiktspunkt i rommet er det ingenting han kan se som kunne forestille seg bevissthet, annet enn ham selv, og tydeligvis har han ikke et sinn som kan snakke kinesisk.

Anvendt etikk

Sitter i kampinformasjonssenteret ombord på et krigsskip -foreslått som en ekte analog til det kinesiske rommet

Patrick Hew brukte argumentet Chinese Room for å utlede krav fra militære kommando- og kontrollsystemer hvis de skal bevare en kommandørs moralske byrå . Han tegnet en analogi mellom en sjef i deres kommandosenter og personen i det kinesiske rommet, og analyserte det under en lesning av Aristoteles forestillinger om "obligatorisk" og "uvitenhet" . Informasjon kan "nedkonverteres" fra mening til symboler, og manipuleres symbolsk, men moralsk handlefrihet kan undergraves hvis det var utilstrekkelig "oppkonvertering" til mening. Hew siterte eksempler fra USS Vincennes -hendelsen .

Informatikk

Det kinesiske romargumentet er først og fremst et argument i sinnsfilosofien , og både store informatikere og kunstig intelligensforskere anser det som irrelevant for sine felt. Imidlertid er flere konsepter utviklet av informatikere viktige for å forstå argumentet, inkludert symbolbehandling , Turing -maskiner , Turing -fullstendighet og Turing -testen .

Sterk AI vs. AI -forskning

Searles argumenter anses vanligvis ikke som et problem for AI -forskning. Stuart Russell og Peter Norvig observerer at de fleste AI -forskere "ikke bryr seg om den sterke AI -hypotesen - så lenge programmet fungerer, bryr de seg ikke om du kaller det en simulering av intelligens eller ekte intelligens." Hovedoppgaven for kunstig intelligensforskning er bare å lage nyttige systemer som fungerer intelligent, og det spiller ingen rolle om intelligensen "bare" er en simulering.

Searle er ikke uenig i at AI -forskning kan lage maskiner som er i stand til svært intelligent oppførsel. Det kinesiske romargumentet åpner muligheten for at en digital maskin kan bygges som fungerer mer intelligent enn en person, men som ikke har et sinn eller intensjon på samme måte som hjernen gjør.

Searles "sterke AI" bør ikke forveksles med " sterk AI " som definert av Ray Kurzweil og andre futurister, som bruker begrepet for å beskrive maskinintelligens som konkurrerer med eller overgår menneskelig intelligens. Kurzweil er først og fremst opptatt av mengden intelligens som maskinen viser, mens Searles argument setter ingen grense for dette. Searle hevder at selv en superintelligent maskin ikke nødvendigvis ville ha sinn og bevissthet.

Turing -test

"Standardtolkningen" av Turing -testen, der spiller C, avhøreren, får i oppgave å prøve å finne ut hvilken spiller - A eller B - som er en datamaskin og hvilken som er et menneske. Avhøreren er begrenset til å bruke svarene på skriftlige spørsmål for å bestemme. Bilde tilpasset fra Saygin, et al. 2000.

Det kinesiske rommet implementerer en versjon av Turing -testen . Alan Turing introduserte testen i 1950 for å svare på spørsmålet "kan maskiner tenke?" I standardversjonen engasjerer en menneskelig dommer seg i en naturlig språklig samtale med et menneske og en maskin designet for å generere ytelse som ikke kan skilles fra et menneskelig. Alle deltakerne er atskilt fra hverandre. Hvis dommeren ikke pålitelig kan fortelle maskinen fra mennesket, sies det at maskinen har bestått testen.

Turing vurderte deretter hver mulig innvending mot forslaget "maskiner kan tenke", og fant ut at det er enkle, åpenbare svar hvis spørsmålet blir avmystifisert på denne måten. Han hadde imidlertid ikke tenkt at testen skulle måle for tilstedeværelsen av "bevissthet" eller "forståelse". Han trodde ikke at dette var relevant for problemene han tok opp. Han skrev:

Jeg ønsker ikke å gi inntrykk av at jeg tror det ikke er noe mysterium om bevissthet. Det er for eksempel noe av et paradoks knyttet til ethvert forsøk på å lokalisere det. Men jeg tror ikke disse mysteriene nødvendigvis må løses før vi kan svare på spørsmålet vi er bekymret for i denne artikkelen.

For Searle, som en filosof som undersøker sjelens og bevissthetens natur , er dette de relevante mysteriene. Det kinesiske rommet er designet for å vise at Turing -testen ikke er tilstrekkelig til å oppdage bevissthet, selv om rommet kan oppføre seg eller fungere som et bevisst sinn.

Symbolbehandling

Det kinesiske rommet (og alle moderne datamaskiner) manipulerer fysiske objekter for å utføre beregninger og gjøre simuleringer. AI -forskere Allen Newell og Herbert A. Simon kalte denne typen maskiner et fysisk symbolsystem . Det tilsvarer også de formelle systemene som brukes innen matematisk logikk .

Searle understreker det faktum at denne typen symbolmanipulasjon er syntaktisk (låne et begrep fra studiet av grammatikk ). Datamaskinen manipulerer symbolene ved å bruke en form for syntaksregler , uten kunnskap om symbolets semantikk (det vil si betydningen ).

Newell og Simon hadde antatt at et fysisk symbolsystem (for eksempel en digital datamaskin) hadde alt nødvendig maskineri for "generell intelligent handling", eller, som det er kjent i dag, kunstig generell intelligens . De framstilte dette som en filosofisk posisjon, den fysiske symbolsystemhypotesen : "Et fysisk symbolsystem har de nødvendige og tilstrekkelige midler for generell intelligent handling." Det kinesiske romargumentet tilbakeviser ikke dette, fordi det er innrammet i form av "intelligent handling", dvs. maskinens ytre atferd, snarere enn tilstedeværelse eller fravær av forståelse, bevissthet og sinn.

Kinesisk rom og Turing -fullstendighet

Det kinesiske rommet har et design som er analogt med en moderne datamaskin. Den har en Von Neumann -arkitektur , som består av et program (instruksjonsboken), noe minne (papirene og arkivskapene), en CPU som følger instruksjonene (mannen), og et middel til å skrive symboler i minnet ( blyant og viskelær). En maskin med dette designet er kjent i teoretisk informatikk som " Turing complete ", fordi den har det nødvendige maskineriet for å utføre enhver beregning som en Turing-maskin kan gjøre, og derfor er den i stand til å utføre en trinnvis simulering av hvilken som helst annen digital maskin, gitt nok minne og tid. Alan Turing skriver, "alle digitale datamaskiner er på en måte like." Den allment aksepterte Church - Turing -tesen mener at enhver funksjon som kan beregnes etter en effektiv prosedyre, kan beregnes av en Turing -maskin.

Turing -fullstendigheten til det kinesiske rommet innebærer at den kan gjøre hva en hvilken som helst annen digital datamaskin kan gjøre (om enn mye, mye saktere). Så hvis det kinesiske rommet ikke kan eller ikke kan inneholde et kinesisktalende sinn, kan ingen annen digital datamaskin inneholde et sinn. Noen svar på Searle begynner med å hevde at rommet, som beskrevet, ikke kan ha et kinesisktalende sinn. Argumenter for denne formen, ifølge Stevan Harnad , er "ingen motbevisning (men snarere en bekreftelse)" av det kinesiske romargumentet , fordi disse argumentene faktisk innebærer at ingen digitale datamaskiner kan ha et sinn.

Det er noen kritikere, for eksempel Hanoch Ben-Yami, som hevder at det kinesiske rommet ikke kan simulere alle evnene til en digital datamaskin, for eksempel å kunne bestemme nåværende tid.

Fullstendig argument

Searle har produsert en mer formell versjon av argumentet som det kinesiske rommet er en del av. Han presenterte den første versjonen i 1984. Versjonen nedenfor er fra 1990. Den eneste delen av argumentet som bør være kontroversiell er A3, og det er dette punktet som det kinesiske romtankeeksperimentet er ment å bevise.

Han begynner med tre aksiomer:

(A1) "Programmer er formelle ( syntaktiske )."
Et program bruker syntaks for å manipulere symboler og er ikke oppmerksom på semantikken i symbolene. Den vet hvor symbolene skal plasseres og hvordan de skal flyttes rundt, men den vet ikke hva de står for eller hva de betyr. For programmet er symbolene bare fysiske objekter som alle andre.
(A2) "Minds har mentalt innhold ( semantikk )."
I motsetning til symbolene som brukes av et program, har tankene våre mening: de representerer ting og vi vet hva det er de representerer.
(A3) "Syntaks i seg selv er verken konstituerende eller tilstrekkelig for semantikk."
Dette er hva det kinesiske rom -tankeeksperimentet er ment å bevise: Det kinesiske rommet har syntaks (fordi det er en mann der inne som beveger symboler rundt). Det kinesiske rommet har ingen semantikk (fordi det ifølge Searle ikke er noen eller ingenting i rommet som forstår hva symbolene betyr). Derfor er det ikke nok å ha syntaks for å generere semantikk.

Searle hevder at disse fører direkte til denne konklusjonen:

(C1) Programmer er verken konstituerende eller tilstrekkelige for sinn.
Dette bør følge uten kontrovers fra de tre første: Programmer har ikke semantikk. Programmer har bare syntaks, og syntaksen er utilstrekkelig for semantikk. Hvert sinn har semantikk. Derfor er ingen programmer sinn.

Denne store delen av argumentet er ment å vise at kunstig intelligens aldri kan produsere en maskin med et sinn ved å skrive programmer som manipulerer symboler. Resten av argumentet tar for seg et annet problem. Kjører menneskehjernen et program? Med andre ord, er beregningsteorien om sinn riktig? Han begynner med et aksiom som er ment å uttrykke den grunnleggende moderne vitenskapelige konsensus om hjerner og sinn:

(A4) Hjerner forårsaker sinn.

Searle hevder at vi kan utlede "umiddelbart" og "trivielt" at:

(C2) Ethvert annet system som er i stand til å forårsake sinn, må ha årsakskrefter (minst) som tilsvarer hjernens.
Hjernen må ha noe som får et sinn til å eksistere. Vitenskapen har ennå ikke fastslått nøyaktig hva det er, men det må eksistere, fordi sinn eksisterer. Searle kaller det "årsakskrefter". "Årsakskrefter" er hva hjernen bruker for å skape et sinn. Hvis noe annet kan få et sinn til å eksistere, må det ha "tilsvarende årsakskrefter". "Ekvivalente årsakskrefter" er alt annet som kan brukes til å tenke.

Og av dette drar han de ytterligere konklusjonene:

(C3) Enhver artefakt som produserte mentale fenomener, enhver kunstig hjerne, måtte være i stand til å kopiere hjernens spesifikke årsakskrefter, og det kunne ikke gjøre det bare ved å kjøre et formelt program.
Dette følger av C1 og C2: Siden intet program kan produsere et sinn, og "ekvivalente årsakskrefter" produserer sinn, følger det at programmer ikke har "likeverdige årsakskrefter."
(C4) Måten menneskelige hjerner faktisk produserer mentale fenomener på, kan ikke bare være i kraft av å kjøre et dataprogram.
Siden programmer ikke har "tilsvarende årsakskrefter", "ekvivalente årsakskrefter" produserer sinn, og hjerner produserer sinn, følger det at hjerner ikke bruker programmer for å produsere sinn.

Svar

Svar på Searles argument kan klassifiseres i henhold til det de hevder å vise:

  • De som identifiserer hvem som snakker kinesisk
  • De som viser hvordan meningsløse symboler kan bli meningsfulle
  • De som antyder at det kinesiske rommet skal redesignes på en eller annen måte
  • De som hevder at Searles argument er misvisende
  • De som hevder at argumentet gjør falske antagelser om subjektiv bevisst opplevelse og derfor ikke beviser noe

Noen av argumentene (robot og hjernesimulering, for eksempel) faller inn i flere kategorier.

Systemer og virtuelle sinnsvar: å finne sinnet

Disse svarene prøver å svare på spørsmålet: siden mannen i rommet ikke snakker kinesisk, hvor er "sinnet" som gjør det? Disse svarene tar for seg de viktigste ontologiske problemene om sinn vs kropp og simulering kontra virkelighet. Alle svarene som identifiserer sinnet i rommet er versjoner av "systemsvaret".

Systemsvar

Grunnversjonen argumenterer for at det er "hele systemet" som forstår kinesisk. Mens mannen bare forstår engelsk, danner de et system som kan forstå kinesisk når han kombineres med programmet, skrapelodd, blyanter og arkivskap. "Her blir forståelse ikke tilskrevet det enkelte individ; det blir snarere tilskrevet hele dette systemet som han er en del av," forklarer Searle. Det at mennesket ikke forstår kinesisk er irrelevant, for det er bare systemet som helhet som betyr noe.

Searle bemerker at (i denne enkle versjonen av svaret) er "systemet" ikke annet enn en samling vanlige fysiske objekter; den gir forståelses- og bevissthetskraften til "forbindelsen mellom den personen og biter av papir" uten å gjøre noen anstrengelser for å forklare hvordan denne haugen med objekter har blitt et bevisst, tenkende vesen. Searle hevder at ingen fornuftig person skal være fornøyd med svaret, med mindre de er "under grepet av en ideologi;" For at dette svaret skal være eksternt troverdig, må man ta det for gitt at bevissthet kan være et produkt av et informasjonsbehandlings "system", og ikke krever noe som ligner hjernens faktiske biologi.

Searle svarer deretter med å forenkle denne listen over fysiske objekter: han spør hva som skjer hvis mannen husker reglene og holder orden på alt i hodet hans? Da består hele systemet av bare ett objekt: mannen selv. Searle argumenterer for at hvis mannen ikke forstår kinesisk, så forstår ikke systemet kinesisk heller fordi nå beskriver "systemet" og "mannen" nøyaktig det samme objektet.

Kritikere av Searles svar hevder at programmet har tillatt mannen å ha to sinn i ett hode. Hvis vi antar at et "sinn" er en form for informasjonsbehandling, så kan teorien om beregning redegjøre for to beregninger som skjer på en gang, nemlig (1) beregningen for universell programmerbarhet (som er funksjonen som er instansert av personen og notater) materialer uavhengig av et bestemt programinnhold) og (2) beregningen av Turing -maskinen som er beskrevet av programmet (som instantieres av alt inkludert det spesifikke programmet). Beregningsteorien forklarer dermed formelt den åpne muligheten for at den andre beregningen i det kinesiske rommet kan innebære en menneskekvivalent semantisk forståelse av de kinesiske inngangene. Fokuset tilhører programmets Turing -maskin i stedet for personens. Fra Searles perspektiv er imidlertid dette argumentet sirkulært. Spørsmålet det gjelder er om bevissthet er en form for informasjonsbehandling, og dette svaret krever at vi gjør den antagelsen.

Mer sofistikerte versjoner av systemsvaret prøver å identifisere mer nøyaktig hva "systemet" er, og de er forskjellige i nøyaktig hvordan de beskriver det. I følge disse svarene kan "sinnet som snakker kinesisk" være slike ting som: "programvaren", et "program", et "kjørende program", en simulering av de "nevrale korrelatene til bevissthet", det "funksjonelle systemet" , et "simulert sinn", en " fremvoksende eiendom" eller "et virtuelt sinn" ( Marvin Minskys versjon av systemsvaret, beskrevet nedenfor).

Svar på virtuelt sinn

Begrepet " virtuelt " brukes i informatikk for å beskrive et objekt som ser ut til å eksistere "i" en datamaskin (eller datanettverk) bare fordi programvare får det til å se ut til å eksistere. Objektene "inne" i datamaskiner (inkludert filer, mapper og så videre) er alle "virtuelle", bortsett fra datamaskinens elektroniske komponenter. På samme måte, argumenterer Minsky , kan en datamaskin inneholde et "sinn" som er virtuelt i samme forstand som virtuelle maskiner , virtuelle fellesskap og virtuell virkelighet .
For å tydeliggjøre skillet mellom det enkle systemsvaret ovenfor og det virtuelle sinnssvaret, bemerker David Cole at to simuleringer kan kjøres på ett system samtidig: en som snakker kinesisk og en som snakker koreansk. Selv om det bare er ett system, kan det være flere "virtuelle sinn", og dermed kan ikke "systemet" være "sinnet".

Searle svarer at et slikt sinn i beste fall er en simulering , og skriver: "Ingen antar at datasimuleringer av en femalarmsbrann vil brenne nabolaget eller at en datasimulering av et regnvær vil la oss alle bli gjennomvåt." Nicholas Fearn svarer at for noen ting er simulering like bra som den virkelige tingen. "Når vi åpner lommekalkulatorfunksjonen på en stasjonær datamaskin, vises bildet av en lommekalkulator på skjermen. Vi klager ikke over at" det egentlig ikke er en kalkulator ", fordi enhetens fysiske egenskaper ikke gjør det saken." Spørsmålet er, er menneskesinnet som lommekalkulatoren, hovedsakelig sammensatt av informasjon? Eller er sinnet som regnvær, noe annet enn en datamaskin, og ikke fullt ut realisert av en datasimulering? I flere tiår har dette spørsmålet om simulering fått AI -forskere og filosofer til å vurdere om begrepet " syntetisk intelligens " er mer passende enn den vanlige beskrivelsen av slike intelligenser som "kunstig".

Disse svarene gir en forklaring på nøyaktig hvem det er som forstår kinesisk. Hvis det er noe i tillegg til mannen i rommet som kan forstå kinesisk, kan Searle ikke argumentere for at (1) mannen ikke forstår kinesisk, derfor (2) ingenting i rommet forstår kinesisk. Dette, ifølge de som svarer, viser at Searles argument ikke klarer å bevise at "sterk AI" er falsk.

Disse svarene gir i seg selv ingen bevis for at sterk AI er sant . De viser ikke at systemet (eller det virtuelle sinnet) forstår kinesisk, annet enn den hypotetiske forutsetningen om at det består Turing -testen . Searle hevder at hvis vi skal vurdere Strong AI eksternt troverdig, er det kinesiske rommet et eksempel som krever forklaring, og det er vanskelig eller umulig å forklare hvordan bevissthet kan "komme ut" fra rommet eller hvordan systemet ville ha bevissthet. Som Searle skriver "stiller systemsvaret ganske enkelt spørsmålet ved å insistere på at systemet må forstå kinesisk" og dermed unnviker spørsmålet eller håpløst sirkulært.

Robot og semantikk svarer: å finne meningen

Når det gjelder personen i rommet, er symbolene bare meningsløse "squiggles". Men hvis det kinesiske rommet virkelig "forstår" hva det sier, må symbolene få sin mening et sted. Disse argumentene prøver å koble symbolene til tingene de symboliserer. Disse svarene tar for seg Searles bekymringer for intensjon , symbolforankring og syntaks kontra semantikk .

Robotsvar

Anta at i stedet for et rom ble programmet plassert i en robot som kunne vandre rundt og samhandle med omgivelsene. Dette ville tillate en " årsakssammenheng " mellom symbolene og tingene de representerer. Hans Moravec kommenterer: "Hvis vi kunne transplantere en robot til et resonnementsprogram, ville vi ikke trenge en person for å gi meningen lenger: den ville komme fra den fysiske verden."
Searles svar er å anta at noen av inngangene, uvitende om personen i det kinesiske rommet, kom direkte fra et kamera montert på en robot, og noen av utgangene ble brukt til å manipulere armer og ben på roboten. Likevel følger personen i rommet fortsatt bare reglene, og vet ikke hva symbolene betyr. Searle skriver "han ikke se hva som kommer inn i robot øyne." (Se Marias rom for et lignende tankeeksperiment.)

Avledet mening

Noen svarer at rommet, slik Searle beskriver det, er knyttet til verden: Gjennom de kinesiske høyttalerne at det "snakker" til og gjennom programmørene som designet kunnskapsbasen i arkivskapet hans. Symbolene Searle manipulerer er allerede meningsfulle , de er bare ikke meningsfulle for ham .
Searle sier at symbolene bare har en "avledet" betydning, som betydningen av ord i bøker. Betydningen av symbolene avhenger av den bevisste forståelsen av de kinesiske høyttalerne og programmørene utenfor rommet. Rommet, som en bok, har ingen egen forståelse.

Commonsense -kunnskap / kontekstualistisk svar

Noen har hevdet at betydningen av symbolene ville komme fra en enorm "bakgrunn" av allmennhetskunnskap som er kodet i programmet og arkivskapene. Dette ville gi en " kontekst " som ville gi symbolene deres mening.
Searle er enig i at denne bakgrunnen eksisterer, men han er ikke enig i at den kan bygges inn i programmer. Hubert Dreyfus har også kritisert ideen om at "bakgrunnen" kan representeres symbolsk.

På hvert av disse forslagene er Searles svar det samme: uansett hvor mye kunnskap som er skrevet inn i programmet og uansett hvordan programmet er koblet til verden, er han fremdeles i rommet og manipulerer symboler i henhold til regler. Handlingene hans er syntaktiske, og dette kan aldri forklare ham hva symbolene står for. Searle skriver "syntaksen er utilstrekkelig for semantikk."

For de som godtar at Searles handlinger simulerer et sinn, atskilt fra hans eget, er imidlertid det viktige spørsmålet ikke hva symbolene betyr for Searle , det viktige er hva de betyr for det virtuelle sinnet. Mens Searle er fanget i rommet, er det ikke det virtuelle sinnet: det er koblet til omverdenen gjennom de kinesiske høyttalerne det snakker med, gjennom programmørene som ga det verdenskunnskap, og gjennom kameraene og andre sensorer som robotikere kan levere.

Hjernesimulering og tilkoblingssvar: redesign av rommet

Disse argumentene er alle versjoner av systemsvaret som identifiserer en bestemt type system som viktig; de identifiserer noen spesiell teknologi som ville skape bevisst forståelse i en maskin. (Svarene fra "roboten" og "alminnelig kunnskap" ovenfor angir også en bestemt type system som viktig.)

Svar på hjernesimulator

Anta at programmet simulerte i detalj detaljer handlingen til hvert nevron i hjernen til en kinesisk høyttaler. Dette styrker intuisjonen om at det ikke ville være noen signifikant forskjell mellom driften av programmet og driften av en levende menneskelig hjerne.
Searle svarer at en slik simulering ikke gjengir de viktige egenskapene til hjernen - dens årsakssammenheng og tilsiktede tilstander. Searle er fast bestemt på at "menneskelige mentale fenomener [er] avhengige av faktiske fysisk -kjemiske egenskaper til faktiske menneskelige hjerner." Dessuten argumenterer han:

[I] magine at i stedet for en enspråklig mann i et rom som blander symboler, får vi mannen til å drive et forseggjort sett med vannrør med ventiler som forbinder dem. Når mannen mottar de kinesiske symbolene, ser han opp i programmet, skrevet på engelsk, hvilke ventiler han må slå av og på. Hver vanntilkobling tilsvarer en synapse i den kinesiske hjernen, og hele systemet er rigget opp slik at etter å ha gjort alle de riktige avfyringene, det vil si etter å ha slått på alle de riktige kranene, kommer de kinesiske svarene ut i slutten av serien av rør. Hvor er forståelsen i dette systemet nå? Den tar kinesisk som input, den simulerer den formelle strukturen til synapser i den kinesiske hjernen, og den gir kinesisk som output. Men mannen forstår absolutt ikke kinesisk, og det gjør ikke vannrørene, og hvis vi blir fristet til å anta det jeg synes er det absurde synet som sammenhengen mellom mennesker og vannledninger forstår, husk at mannen i prinsippet kan internalisere den formelle strukturen til vannrørene og gjør alle "nevronfyringene" i fantasien.

To varianter av hjernesimulatorsvaret er hjernen i Kina og hjerneskiftescenariet.
Kina hjerne
Hva om vi ber hver enkelt borger i Kina om å simulere ett nevron ved å bruke telefonsystemet til å simulere forbindelsene mellom aksoner og dendritter ? I denne versjonen virker det åpenbart at ingen enkeltpersoner ville ha noen forståelse av hva hjernen kan si. Det er også åpenbart at dette systemet ville være funksjonelt ekvivalent med en hjerne, så hvis bevissthet er en funksjon, ville dette systemet være bevisst.
Hjerneskiftescenario
I dette blir vi bedt om å forestille oss at ingeniører har oppfunnet en liten datamaskin som simulerer handlingen til et individuelt nevron. Hva ville skje hvis vi byttet ut ett nevron om gangen? Å bytte ut en ville tydeligvis ikke gjort noe for å endre bevisst bevissthet. Ved å erstatte dem alle ville det oppstå en digital datamaskin som simulerer en hjerne. Hvis Searle har rett, må bevisst bevissthet forsvinne under prosedyren (enten gradvis eller alt på en gang). Searles kritikere hevder at det ikke ville være noe poeng under prosedyren når han kan påstå at bevisst bevissthet slutter og tankeløs simulering begynner. Searle spår at mens du går gjennom hjerneprotesen, finner du til din totale forundring at du faktisk mister kontrollen over din ytre atferd. Du finner for eksempel at når leger tester synet ditt, hører du dem si 'Vi holder en rød gjenstand foran deg; fortell oss hva du ser. ' Du vil rope ut "Jeg kan ikke se noe. Jeg blir helt blind." Men du hører stemmen din si på en måte som er helt utenfor din kontroll: 'Jeg ser et rødt objekt foran meg.' [...] [Y] vår bevisste opplevelse krymper sakte til ingenting, mens din eksternt observerbare oppførsel forblir den samme. " (Se Ship of Theseus for et lignende tankeeksperiment.)

Connectionist svarer

Nært knyttet til hjernesimulatorsvaret, hevder dette at en massivt parallell koblingistisk arkitektur ville være i stand til å forstå.

Svar fra kombinasjon

Denne responsen kombinerer robotsvaret med hjernesimuleringssvaret, og argumenterer for at en hjernesimulering koblet til verden gjennom en robotkropp kan ha et sinn.

Mange herskapshus / vent til neste år svarer

Bedre teknologi i fremtiden vil tillate datamaskiner å forstå. Searle er enig i at dette er mulig, men anser dette punktet som irrelevant. Searle er enig i at det kan være design som kan føre til at en maskin har bevisst forståelse.

Disse argumentene (og svaret fra roboten eller generell kunnskap) identifiserer noen spesiell teknologi som kan bidra til å skape bevisst forståelse i en maskin. De kan tolkes på to måter: enten hevder de (1) at denne teknologien er nødvendig for bevissthet, det kinesiske rommet implementerer ikke eller kan ikke implementere denne teknologien, og derfor kan det kinesiske rommet ikke bestå Turing -testen eller (selv om det gjorde det) ville ikke ha bevisst forståelse. Eller de kan hevde at (2) det er lettere å se at det kinesiske rommet har et sinn hvis vi visualiserer denne teknologien som brukt til å lage den.

I det første tilfellet, der funksjoner som et robotlegeme eller en tilkoblingistisk arkitektur er påkrevd, hevder Searle at sterk AI (slik han forstår det) har blitt forlatt. Det kinesiske rommet har alle elementene i en komplett Turing -maskin, og er dermed i stand til å simulere hvilken som helst digital beregning. Hvis rommet til Searle ikke kan bestå Turing -testen, er det ingen annen digital teknologi som kan bestå Turing -testen. Hvis rommet til Searle kunne bestå Turing -testen, men fremdeles ikke har noe sinn, er ikke Turing -testen tilstrekkelig til å avgjøre om rommet har et "sinn". Uansett benekter det den ene eller den andre av posisjonene Searle tenker på som "sterk AI", og beviser argumentet hans.

Spesielt hjerneargumentene benekter sterk AI hvis de antar at det ikke er noen enklere måte å beskrive sinnet på enn å lage et program som er like mystisk som hjernen var. Han skriver "Jeg trodde hele ideen om sterk AI var at vi ikke trenger å vite hvordan hjernen fungerer for å vite hvordan sinnet fungerer." Hvis beregning ikke gir en forklaring på menneskesinnet, har sterk AI mislyktes, ifølge Searle.

Andre kritikere mener at rommet som Searle beskrev det faktisk har et sinn, men de hevder at det er vanskelig å se - Searles beskrivelse er korrekt, men misvisende. Ved å redesigne rommet mer realistisk håper de å gjøre dette mer åpenbart. I dette tilfellet blir disse argumentene brukt som appeller til intuisjon (se neste avsnitt).

Faktisk kan rommet like gjerne redesignes for å svekke våre intuisjoner. Ned Blokk 's Blockhead argument tyder på at programmet kan i teorien bli omskrevet i en enkel oppslagstabell av regler av typen 'hvis brukeren skriver S , svare med P og goto X'. I det minste i prinsippet kan ethvert program omskrives (eller " refaktoreres ") til denne formen, til og med en hjernesimulering. I blockhead -scenariet er hele den mentale tilstanden skjult i bokstaven X, som representerer en minneadresse - et tall som er knyttet til den neste regelen. Det er vanskelig å visualisere at et øyeblikk av ens bevisste opplevelse kan fanges opp i et stort antall, men dette er akkurat det "sterk AI" hevder. På den annen side vil et slikt oppslagstabell være latterlig stort (til det er fysisk umulig), og statene kan derfor være ekstremt spesifikke.

Searle argumenterer for at uansett om programmet er skrevet eller uansett om maskinen er koblet til verden, blir sinnet simulert av en enkel trinnvis digital maskin (eller maskiner). Disse maskinene er alltid akkurat som mannen i rommet: de forstår ingenting og snakker ikke kinesisk. De manipulerer bare symboler uten å vite hva de mener. Searle skriver: "Jeg kan ha et formelt program du liker, men jeg forstår fortsatt ingenting."

Hastighet og kompleksitet: appellerer til intuisjon

De følgende argumentene (og de intuitive tolkningene av argumentene ovenfor) forklarer ikke direkte hvordan et kinesisktalende sinn kan eksistere i Searles rom, eller hvordan symbolene han manipulerer kan bli meningsfulle. Imidlertid støtter de andre stillinger, for eksempel system- og robotsvar, ved å reise tvil om Searles intuisjoner. Disse argumentene forhindrer Searle i å hevde at konklusjonen hans er åpenbar ved å undergrave de intuisjoner som hans sikkerhet krever.

Flere kritikere mener at Searles argument helt bygger på intuisjoner. Ned Block skriver "Searles argument avhenger av sin kraft på intuisjoner som visse enheter ikke tror." Daniel Dennett beskriver det kinesiske romargumentet som en misvisende " intuisjonspumpe " og skriver "Searles tankeeksperiment avhenger ulovlig av at du forestiller deg en for enkel sak, en irrelevant sak, og trekker den" åpenbare "konklusjonen fra den."

Noen av argumentene ovenfor fungerer også som appeller til intuisjon, spesielt de som er ment å få det til å virke mer sannsynlig at det kinesiske rommet inneholder et sinn, som kan inkludere roboten, generell kunnskap, hjernesimulering og konneksjonistiske svar. Flere av svarene ovenfor tar også opp det spesifikke spørsmålet om kompleksitet. Tilkoblingenes svar understreker at et fungerende kunstig intelligenssystem må være like komplekst og like sammenkoblet som den menneskelige hjerne. Felles kunnskapssvar understreker at ethvert program som besto en Turing-test må være "et usedvanlig smidig, sofistikert og flerlags system, full av" verdenskunnskap "og metakunnskap og meta-metakunnskap", som Daniel Dennett forklarer .

Hastighet og kompleksitet svarer

Hastigheten som menneskelige hjerner behandler informasjon er (etter noen anslag) 100 milliarder operasjoner per sekund. Flere kritikere påpeker at mannen i rommet sannsynligvis ville ta millioner av år å svare på et enkelt spørsmål, og ville kreve "arkivskap" av astronomiske proporsjoner. Dette bringer klarheten i Searles intuisjon i tvil.

En spesielt levende versjon av svaret på hastighet og kompleksitet er fra Paul og Patricia Churchland . De foreslår dette analoge tankeeksperimentet:

Churchlands lysende rom

"Tenk på et mørkt rom som inneholder en mann som holder en stangmagnet eller ladet gjenstand. Hvis mannen pumper magneten opp og ned, vil den i henhold til Maxwells teori om kunstig luminans (AL) starte en spredningssirkel av elektromagnetiske bølger og som dermed vil være lysende. Men som alle vi som har lekt med magneter eller ladede baller vet, produserer deres krefter (eller andre krefter for den saks skyld), selv når de settes i gang ingen lysstyrke i det hele tatt. Det er utenkelig at du kan utgjøre ekte luminans bare ved å bevege krefter rundt! " Problemet er at han måtte vinke magneten opp og ned omtrent 450 billioner ganger i sekundet for å se noe.

Stevan Harnad er kritisk til hastighets- og kompleksitetssvar når de kommer bort fra å ta opp våre intuisjoner. Han skriver "Noen har gjort en kult av hastighet og timing, og mener at når beregningen blir akselerert til riktig hastighet, kan beregningen gjøre en faseovergang til det mentale. Det skal være klart at det ikke er et motargument, men bare en ad hoc -spekulasjon ( på samme måte som synet om at alt bare handler om å skrelle opp til riktig grad av 'kompleksitet') "

Searle hevder at hans kritikere også er avhengige av intuisjoner, men motstandernes intuisjoner har ikke empirisk grunnlag. Han skriver at for å anse "systemsvaret" som eksternt sannsynlig, må en person være "under grepet av en ideologi". Systemsvaret gir bare mening (for Searle) hvis man antar at ethvert "system" kan ha bevissthet, bare i kraft av å være et system med riktig oppførsel og funksjonelle deler. Denne antagelsen, hevder han, er ikke holdbar gitt vår erfaring med bevissthet.

Andre sinn og zombier: meningsløshet

Flere svar argumenterer for at Searles argument er irrelevant fordi antagelsene hans om sinnet og bevisstheten er feil. Searle mener at mennesker direkte opplever bevisstheten, intensjonen og sinnets natur hver dag, og at denne bevissthetsopplevelsen ikke er åpen for tvil. Han skriver at vi må "forutsette virkeligheten og kunnskapen til det mentale." Disse svarene stiller spørsmål ved om Searle er berettiget til å bruke sin egen bevissthetsopplevelse for å fastslå at det er mer enn mekanisk symbolbehandling. Spesielt hevder det andre sinnets svar at vi ikke kan bruke vår bevissthetsopplevelse til å svare på spørsmål om andre sinn (selv sinnet til en datamaskin), og epifenomenet svarer at Searles bevissthet ikke "eksisterer" i den forstand at Searle mener det gjør det.

Andre sinn svarer
Dette svaret påpeker at Searles argument er en versjon av problemet med andre sinn , brukt på maskiner. Det er ingen måte vi kan avgjøre om andres subjektive opplevelse er den samme som vår egen. Vi kan bare studere deres oppførsel (dvs. ved å gi dem vår egen Turing -test ). Kritikere av Searle hevder at han holder det kinesiske rommet til en høyere standard enn vi ville holde en vanlig person.

Nils Nilsson skriver "Hvis et program oppfører seg som om det multipliserer, vil de fleste av oss si at det faktisk multipliserer. For alt jeg vet, kan Searle bare oppføre seg som om han tenkte dypt på disse sakene. Men, selv om jeg er uenig med ham, er simuleringen hans ganske bra, så jeg er villig til å kreditere ham med ekte tanke. "

Alan Turing forventet Searles argumentasjonslinje (som han kalte "The Argument from Consciousness") i 1950 og får de andre tankene til å svare. Han bemerket at folk aldri tenker på problemet med andre sinn når de arbeider med hverandre. Han skriver at "i stedet for å krangle kontinuerlig om dette punktet, er det vanlig å ha den høflige konvensjonen som alle tror." The Turing test strekker rett og slett denne "høflig konvensjonen" til maskiner. Han har ikke tenkt å løse problemet med andre sinn (for maskiner eller mennesker), og han tror ikke vi trenger det.

Eliminativ materialisme svar
Flere filosofer hevder at bevissthet, slik Searle beskriver det, ikke eksisterer. Denne posisjonen blir noen ganger referert til som eliminerende materialisme : synet på at bevissthet er en egenskap som kan reduseres til en strengt mekanisk beskrivelse, og at vår opplevelse av bevissthet er, slik Daniel Dennett beskriver det, en " bruker -illusjon ". Andre mentale egenskaper, for eksempel original intensjonalitet (også kalt "mening", "innhold" og "semantisk karakter"), blir også ofte sett på som noe spesielt med tro og andre proposisjonelle holdninger. Eliminativ materialisme hevder at proposisjonelle holdninger som tro og ønsker, blant andre bevisste mentale tilstander som har innhold, ikke eksisterer. Hvis eliminerende materialisme er den riktige vitenskapelige redegjørelsen for menneskelig erkjennelse, må antagelsen om det kinesiske romargumentet om at "sinn har mentalt innhold ( semantikk )" avvises.

Stuart Russell og Peter Norvig hevder at hvis vi aksepterer Searles beskrivelse av intensjonalitet, bevissthet og sinn, er vi tvunget til å akseptere at bevisstheten er epifenomenal : at den "ikke skygger", at den ikke kan oppdages i omverdenen. De argumenterer for at Searle må ta feil om "det mentals kunnskap", og i hans tro på at det er "årsakseiendommer" i nevronene våre som gir opphav til sinnet. De påpeker at ved Searles egen beskrivelse kan disse årsakseegenskapene ikke oppdages av noen utenfor sinnet, ellers kunne ikke det kinesiske rommet bestå Turing -testen - menneskene utenfor ville kunne fortelle at det ikke var en kineser høyttaleren i rommet ved å oppdage årsaksegenskapene. Siden de ikke kan oppdage årsaksegenskaper, kan de ikke oppdage eksistensen av det mentale. Kort sagt, Searles "kausale egenskaper" og bevisstheten i seg selv er uoppdagelig, og alt som ikke kan oppdages, eksisterer enten ikke eller spiller ingen rolle.

Daniel Dennett gir denne utvidelsen til argumentet "epifenomener".

Dennetts svar fra naturlig utvalg
Anta at det ved en eller annen mutasjon blir født et menneske som ikke har Searles "kausale egenskaper", men likevel fungerer akkurat som et menneske. (Denne typen dyr kalles en " zombie " i tankeeksperimenter i tankens filosofi ). Dette nye dyret ville reprodusere akkurat som alle andre mennesker, og til slutt ville det være flere av disse zombiene. Naturlig utvalg ville favorisere zombiene, siden designen deres (vi kan anta) er litt enklere. Til slutt ville menneskene dø ut. Så derfor, hvis Searle har rett, er det mest sannsynlig at mennesker (slik vi ser dem i dag) faktisk er "zombier", som likevel insisterer på at de er bevisste. Det er umulig å vite om vi alle er zombier eller ikke. Selv om vi alle er zombier, ville vi fortsatt tro at vi ikke er det.

Searle er uenig i denne analysen og hevder at "studiet av sinnet starter med fakta som at mennesker har tro, mens termostater, telefoner og tilleggsmaskiner ikke gjør det ... det vi ønsket å vite er det som skiller sinnet fra termostater og lever. " Han anser det som åpenbart at vi kan oppdage bevissthetens tilstedeværelse og avviser disse svarene som å være utenfor poenget.

Newtons flammende laser sverd svar
Mike Alder hevder at hele argumentet er useriøst, fordi det er ikke- verifiserende : ikke bare er skillet mellom å simulere et sinn og å ha et sinn dårlig definert, men det er også irrelevant fordi ingen eksperimenter ble foreslått, eller til og med kan bli foreslått å skille mellom de to.

Engelsk svar

Margaret Boden ga dette svaret i avisen "Rømmer fra det kinesiske rommet." I den foreslår hun at selv om personen i rommet ikke forstår kineserne, betyr det ikke at det ikke er noen forståelse i rommet. Personen i rommet forstår i det minste regelboka som ble brukt for å gi utgangssvar.

I populærkulturen

Det kinesiske romargumentet er et sentralt begrep i Peter Watts romaner Blindsight og (i mindre grad) Echopraxia . Det er også et sentralt tema i videospillet Virtue's Last Reward , og knytter seg til spillets fortelling. I sesong 4 av det amerikanske krimdramaet Numb3rs er det en kort referanse til det kinesiske rommet.

The Chinese Room er også navnet på et britisk uavhengig utviklingsstudio for videospill som er best kjent for å jobbe med eksperimentelle førstepersonsspill, for eksempel Everybody's Gone to the Rapture , eller Dear Esther .

I videospillet The Turing Test fra 2016 forklares det kinesiske rom -tankeeksperimentet for spilleren av en AI.

Se også

Merknader

Sitater

Referanser

Sidetall ovenfor refererer til en standard PDF -utskrift av artikkelen.
Sidetall ovenfor refererer til en standard PDF -utskrift av artikkelen.
Sidetall ovenfor refererer til en standard PDF -utskrift av artikkelen.
Sidetall ovenfor refererer til en standard PDF -utskrift av artikkelen.
Sidetall ovenfor refererer til en standard PDF -utskrift av artikkelen. Se også Searles originale utkast .
Sidetall ovenfor refererer til en standard PDF -utskrift av artikkelen.
Sidetall ovenfor og diagraminnhold refererer til Lyceum PDF -utskrift av artikkelen.

Videre lesning