2016-01-08

ELIZA-illusionen om AI

En lustigkurre tussade ihop Siri och ELIZA, på två Apple-maskiner dessutom (reddit).

På 1960-talet skrev Joseph Weizenbaum ett dialogprogram, en chatterbot som vi kallar dem idag. Det fick heta ELIZA efter Eliza Doolittle, den enkla cockney-tösen som professor Higgins i Shaws Pygmalion uppfostrar till att tala som en dam av värld. Det kunde anpassas med olika skript, av vilka det överlägset mest kända hette DOCTOR. Det är i själva verket så känt att DOCTOR och ELIZA blivit synonyma; jag har inte hittat några närmare uppgifter om andra skript.

Det hela var inte så mycket en simulering som en grov parodi på en psykoterapeut i den Rogerianska personcentrerade skolan, där terapeuten ställer många motfrågor. "Doktorn" kunde leta efter vissa ord (t.ex. kunde "mor" eller "far" trigga en motfråga om din familj), andra gånger stuvade den om orden ("Nu pratar du strunt" - "Varför tror du att jag pratar strunt?") eller, om inget annat passade, ge något standardsvar ("Kan du utveckla?", "Mycket intressant. Vänligen fortsätt.").

Innan du läser vidare kan du pröva själv: Elizabot


... Så. Var upplevelsen övertygande? Kändes det som om det verkligen satt en förstående intelligens på andra sidan skärmen? Om inte, så är det kanske ett tecken på hur vi blivit åtminstone aningen mer svårlurade när det gäller datorer och låtsad AI.

För när Weizenbaum visade upp programmet 1966 så föll folk som furor. Hans sekreterare, som mycket väl visste att det var en simulering, bad honom att lämna rummet när hon chattade med ELIZA. Riktiga psykiatriker berömde den banala satiren och menade att det hade framtiden för sig som ett riktigt verktyg för professionell terapi, om det bara utvecklades en smula. Och här är en kändis som flera år senare gav motsvarande betyg:
No such computer program is adequate for psychiatric use today, but the same can be remarked about some human psychotherapists. In a period when more and more people in our society seem to be in need of psychiatric counseling, and when time sharing of computers is widespread, I can imagine the development of computer psychotherapeutic terminals, something like arrays of large telephone booths, in which, for a few dollars a session, we would be able to talk with an attentive, tested, and largely non-directive psychotherapist.
- Carl Sagan (1975)

Den översvallande responsen chockerade Weizenbaum. Hur kunde folk låta sig luras så kapitalt av simpelt ordvrängande? Till sist skrev han en bok, Computer Power and Human Reason vari han redogör för hur AI visserligen kan bli användbar, men inte inom vilka fält som helst, eftersom det till sist ändå är en illusion av intelligens.
... Whatever intelligence a computer can muster, however it may be acquired, it must always and necessarily be absolutely alien to any and all authentic human concerns ... The very asking of the question, 'What does a judge (or a psychiatrist) know that we cannot tell a computer?' is a monstrous obscenity. Computers can find judicial decisions, computers can make psychiatric judgements. They can flip coins in much more sophisticated ways than the most patient human being. The point is they ought not to be given such tasks. They may even be able to arrive at 'correct' decisions in some cases — but also and necessarily on a basis no human being should be willing to accept.
- Joseph Weizenbaum (1976)

På tal om ingenting särskilt så aktiveras tydligen Roy Batty idag. En anledning så god som någon att se Blade Runner ännu en gång. Tydligen har jag skrivit om den fina filmen förr: Fel i framtiden. En framtid som nu är inte ens fyra år avlägsen.

1 kommentar:

Anonym sa...

Prövade den två gånger. Inte alls imponerad. Redan vid femte repliken är det uppenbart att jag talar med någon som inte förstår vad den säger eller ens begriper engelsk grammatik:

ELIZA: Is something troubling you ?
YOU: Not particularly. How about you?
ELIZA: What are your feelings now ?
YOU: I am curious and slightly bored. How about you?
ELIZA: Do you know anyone else who is curious and slightly bored ?
YOU: No, did you have anyone in particular in mind?
ELIZA: Are you saying no just to be negative?
YOU: No, I honestly do not know anyone who is curious and slightly bored right now. I suspect quite a few people are, but the question was if I knew.
ELIZA: You are being a bit negative.
YOU: Is there anything in particular you are thinking of?
ELIZA: Perhaps you would like to be thinking of.
YOU: You just failed the Turing test. I can no longer believe you are human.

Sensemaker