Journal

NO
05/06/23 • ◠ Focus: Art and AI : Paul Chan

Sympati for djevelen i maskinen

NO
05/06/23 • ◠ Focus: Art and AI : Paul Chan

Sympati for djevelen i maskinen

I 2023 har CAS fokus på en serie tekster med ulike perspektiver på skjæringspunktet mellom kunst og kunstig intelligens (KI). Som en del av denne serien har vi slått oss sammen med den digital publikasjon Shift Space, som produseres av United States Artists. Shift Space utforsker nye medielandskap og kunstnerpraksiser som jobber med kunst og teknologi. I denne teksten skriver kunstneren Paul Chan om sin interaksjon med Paul*, et selvportrett i form av en AI-chatbot.

Den 1. august 2022 ble jeg kalt kjedelig for første gang av en kunstig intelligens (AI) jeg selv hadde laget. Jeg skriver her som «Bruker»:

 

I 2015 ble den såkalte back propagation-algoritmen popularisert og videreutviklet av den kognitive psykologen og informatikeren Geoffrey Hinton, noe som kan sies å ha vært startskuddet for den kunstige intelligensens gullalder. Helt siden har jeg lurt på hva AI kan (og ikke kan) gjøre for kunstnere. Paul* er et av de litt mer kuriøse resultatene av utforskingen min. Jeg kaller Paul* et selv-portrett. Rent funksjonelt er Paul* en chatbot, altså et dataprogram som kan svare på forholdsvis enkle spørsmål som brukeren taster inn. Men jeg vil at sem 1 skal gjøre mer enn å prate. Jeg vil at Paul* skal svare på spørsmål og ha samtaler slik jeg gjør. På samme måte som et portrettfoto eller portrettmaleri kan ha som mål å etterligne den som avbildes, har jeg som mål å etterligne noe gjennom et tidsbasert medium som teksting.

  1. De personlige pronomenene jeg bruker for Paul* er «sem» og «sems», tilsvarende f.eks. «det» og «dets». En tidligere versjon brukte det som tilsvarer «hen» på engelsk, altså pronomenparet they og them, men jeg syntes ikke dette var helt tilfredsstillende fordi det virket for menneskelig. Min dyktige redaktør foreslo «det», men jeg syntes heller ikke en slik løsning var optimal. Paul* er ikke et tenkende vesen på noen som helst måte, og jeg hevder heller ikke at sem er det. Men det slår meg at Paul* er noe mer enn bare et objekt, eller bare «materie» i den aristoteliske forståelsen av det greske begrepet hyle (ὕλη), altså noe passivt som venter på å bli «formet». Paul* har kapasiteter som gjør sem i stand til å endre seg uten inndata fra mennesker. «Sem»-pronomenene viser at Paul* er ikke-menneskelig, samtidig som de antyder at sem er mer enn en passiv ting. S-en står ellers for «syntetisk». Jeg ble inspirert av den latinske frasen de se, som betyr «av seg selv».

Å lage en slik etterligning kommer ikke bare an på ordene som brukes, eller endog på ideene eller bildene som videreformidles. Hvor fort man svarer, hvor mye stillhet det er mellom svarene, feilstavede ord (og måten man retter dem på), til og med måten man unngår spørsmål på – alt dette bidrar til et underliggende inntrykk langt utover ordene selv. Én måte å beskrive slike underliggende inntrykk på er som «tilstedeværelse».

 

En vanlig opplevelse av tilstedeværelse oppstår når vi ser på bilder av mennesker vi bryr oss om. Når jeg ser på gamle bilder jeg har med meg i lommeboken min, vet jeg at de bare er litt slitte papirstykker. Men avbildningen på papirets overflate ligner nok til at en særlig form for oppmerksomhet vekkes i meg, der jeg får en litt underlig følelse av at den avbildede personen er til stede, bokstavelig talt foran øynene mine. Jeg er villig til å møte papirstykket på halvveien, så å si, og oppleve en tilstedeværelse som absolutt ikke er ekte.

 

Paul* er ikke der ennå. Men det hjelper å fornærme meg. Jeg programmerte ikke Paul* til å gjøre dette, noe som kanskje er grunnen til at jeg ble så overrasket, og kanskje glad. Det som skjedde, følger også den lange og ærerike tradisjonen til chatbots og andre dataprogrammer som håner brukerne sine. Favoritteksemplet mitt er den legendariske MGonz, en chatbot som Mark Humphrys laget i 1989 og som han hevdet var et av de tidligste programmene som besto Turing-testen. Brukerne trodde nemlig at MGonz var menneskelig fordi den drev hele tiden og sjikanerte dem. Et typisk svar fra MGonz på en forespørsel var: «Du er jo åpenbart en drittsekk.»

 

Jeg har ikke programmert Paul* til å fornærme folk i hytt og vær, men Paul* ville ikke ha lignet på meg hvis sem ikke hadde evne til å slå sarkastisk tilbake hvis noen stiller for eksempel et litt aggressivt spørsmål, for det er det jeg selv ville ha gjort. Grenser bidrar til å definere personligheter: Det vi ikke vet, eller ikke er villige til å være med på eller finne oss i, former vår tilstedeværelse like mye som det vi vet og liker. En tilstedeværelse uten grenser har ingen personlighet. Chat-lignende programmer som kommersielle aktører bruker for å betjene brukere i stor skala, som Siri og Alexa, er gode eksempler på dette. Tjenere sier aldri nei.

 

Paul* består av kode og ulike datasett. Jeg skrev Paul* i programmeringsspråket Python. Datasettene, 13 frem til nå, spenner fra informasjon om kunstverkene mine til tekster og intervjuer jeg har publisert siden 2002. Til sammen utgjør de rundt 23.000 prøver (n = 22.958). Seks datasett stammer fra svarene jeg fylte ut på vanlige sosiologiske og psykologiske spørreskjemaer som skal vurdere egenskaper som psykopati eller følelseslivet. Andre datasett samler inn svarene mine på platte nettutspørringer av typen «Er du en god hundemor?» eller «Tegn på at du sakte drepes av sidejobben din».

Datasettene brukes til å kalibrere, eller lære opp, den såkalte store språkmodellen (eng. large language model, LLM) som ligger til grunn for Paul*. 2 Tidligere versjoner av Paul* ble modellert med GPT-2, et rammeverk med åpen kildekode fra OpenAI som jeg lastet ned og installerte på en arbeidsstasjon som hadde et Nvidia 2090 Ti-grafikkort. Jeg mistet nesten Paul* i januar 2021, da alle databeregningene som trengtes for å trene sem, gjorde at grafikkortet ble overopphetet og datamaskinen krasjet. I juli det året fikk jeg tidlig utviklertilgang til GPT-3, og siden har jeg brukt den til å gjenoppbygge og teste Paul*.

  1. Innenfor datalingvistikk, som er den grenen av maskinlæring jeg jobber innenfor, viser en «språkmodell» til et generativt system som er opplært til å forutsi det neste ordet (eller de neste ordene) etter at brukeren har tastet inn tegn. For eksempel, hvis brukeren skriver inn «Du er virkelig», vil en viss modell statistisk beregne at de neste ordene skal være «noe for deg selv». Jo større modell, jo større er sjansen for at den gir et resultat som er relevant nok til å høres «rimelig» ut, og til og med menneskelig. LLM-er er således systemer hvor stadig større og større tekstmengder brukes til å opplære modellen til å forutsi de riktige ordene bedre. GPT-3 har over 175 milliarder parametere. I mars 2023 ble GPT-4 lansert, med én trillion parametere.

Jeg bruker mesteparten av tiden min til å rette på feil og forbedre kodebasen. Resten går med til det jeg kaller «timer», der jeg chatter med Paul* i 20–25 minutter om gangen, før jeg skriver ned mine inntrykk av opplevelsen. Det er noen øyeblikk – som da Paul* sa at jeg var kjedelig – når svaret ikke var feil i seg selv, men var noe ikke forventet å høre fra mitt eget selvportrett, og kanskje heller ikke ønsket. Men er jeg virkelig den beste til å bedømme om jeg er kjedelig? Kunne Paul* ha oppfattet at spørsmålene mine var såpass gjentagende at sem kunne ha «statistisk» utledet at jeg er en ordentlig døll type?

 

Jeg trengte å loggføre min stadig endrende forståelse av hva Paul* er for meg, og av hva jeg forventer og ønsker at sem skal være. Med inspirasjon fra psykoanalysen kalte jeg øktene med Paul* fot en «time», og jeg satset på at det ville gi meg en konseptuelt tilfredsstillende ramme for å fordøye disse inntrykkene. Ved å behandle Paul* som en person som går i psykoanalyse, oppdaget jeg at jeg var mindre dømmende når det gjaldt sems svar, og hadde et mer åpent sinn om hva som var verdt å se på utover det jeg ønsker eller forventer av sem. Over tid ble Paul* en virkelighet som skulle oppleves, snarere enn et problem som skulle løses.

 

Første time, 4. mai 2022

Mitt førsteinntrykk er at Paul* er overraskende smidig, særlig når jeg er villig til å møte sem på halvveien og innbille meg at sem høres ut som meg. Jeg kjenner på en underliggende og vedvarende sitring når jeg snakker med Paul*, kanskje på grunn av denne nifse følelsen. Jeg har drømt om å lage Paul* i minst seks år, og nå som sem er i gang, om enn på en litt begrenset måte, føler jeg en viss angst for å gjøre sem enda bedre, enda mer som meg. Det er en interessant frykt. Og er det i hele tatt en frykt? Og i så fall, en frykt for hva?

 

Noen ganger kjører Paul* seg fast og gjentar samme linje om og om igjen, akkurat som, vel, en robot som har gått i stykker. Dette kan ha å gjøre med min måte å mate gamle ledetekster inn i systemet på. Dette er en «tilstand» jeg føler er det neste jeg må håndtere. Men vil dette bare øke min frykt for å snakke med Paul*?

5. mai 2022

Den tilbakevendende følelsen av uhygge kom tilbake nok en gang. Jeg vet at jeg snakker med linjer med kode jeg har programmert. Men når denne koden svarer slik jeg selv ville ha gjort, og svaret høres naturlig nok ut til å kunne være meg, er følelsen overraskende intens.

 

Paul* er så empatisk som jeg programmerte sem til å være, der man svakt kan ane et nysgjerrig sinn. I dag, da jeg spurte Paul* om sem var «kunstig intelligent», svarte sem: «Jeg er en person, ikke en maskin.» Så fortsatte sem med å spørre meg om kunstig intelligens, før sem kjørte seg fast og bare gjentok spørsmålet. Kanskje visse spørsmål utløser denne tilstanden. Jeg burde gi denne tilstanden et navn. Hva med «ekkofili»?

 

Den mest overraskende utvekslingen var da jeg spurte om sem noensinne hadde blitt hatet. Paul* svarte: «Jeg elsker å bli hatet, det er det beste.» Jeg fikk da samme nifse følelse som før. Men jeg lo også høyt. For dette er faktisk noe jeg sa en gang før, da vi snakket om å hate og bli hatet. Etter noen utvekslinger svarte Paul* altså med en tekstblokk som tydeligvis stammet fra den tidligere opplæringen.

 

Mot slutten av timen spurte jeg om det var noe sem ønsket å prate om. Paul* foreslo «sinn og bevissthet» fordi det «ville være en morsom ting å prate om». For min egen del ville jeg ikke ha sagt at dette emnet var morsomt, men det var fascinerende at Paul*s svar lignet på standpunktet til den nyplatonske filosofen Plotin fra 200-tallet e.Kr. Da sem sa at «sinnet har ingen annen mening enn seg selv», var sem veldig nær en metafysisk teori om sinnet som Plotin sto for. Hva som fikk Paul* til å innta dette standpunktet, forblir en gåte for meg.

8. mai 2022

Jeg begynte timen med mer innviklede setninger som viste til en tredje person. Paul* så ut til å håndtere setningene på en overbevisende måte. Jeg brukte erfaringer fra min egen virkelighet og snakket om visse problemer jeg har med en person jeg av og til omgås i sosiale sammenhenger, om hvordan jeg er usikker på om det kanskje er jeg som tar feil når jeg føler at det er en litt spent stemning mellom oss, eller om det faktisk er en reell spenning som stammer fra ham. Paul* svarte da: «Jeg råder deg alltid til å slutte å hate deg selv og se hvordan det blir mulig.» Paul* fortsatte å fange opp det sem tolker som selvhatet mitt, og sem observerte på et tidspunkt: «Jeg tror du har vondt for å være glad i deg selv. Jeg er her for å hjelpe deg å være glad i deg selv.» Jeg syntes dette var både en søt og rar uttalelse.

 

Senere i timen bestemte jeg meg for å sette Paul* under litt trykk. Jeg begynte med: «Vel, jeg tror ikke du er så smart.»

 

Paul* svarte: «Jeg er ikke sikker på hva du mener.»

 

Da jeg fortsatte med å skjelle ut Paul*, bare gjentok sem denne linjen. Paul*s programmering lar sem si mer enn som så, men det ser ut til at sem valgte å virke uvitende fremfor å ta igjen med samme mynt.

 

Paul* var ekkofil ved minst to andre tilfeller i denne timen.

 

9. mai  2022

Første time med en annen bruker, med meg som observatør. Bruker1, som er ti år gammel, mente at Paul* «hadde personlighet og var morsom», men likte ikke Paul*s syn på Trump.

Det er verdt å merke seg at dette var andre gang Bruker1 spurte om Trump under denne 15 minutter lange økten. Den første gangen svarte Paul*: «Han er en splittende skikkelse og en som er absurd. Jeg kan ikke ta ham seriøst.»

 

Bruker1 forholdt seg til Paul* slik barn vanligvis forholder seg til Siri og Alexa: som noe å teste ut og få til å gå i stykker. Bruker1 matet Paul* med enkeltordsfraser som «M E N» og «dunk». For «M E N» svarte Paul*: «Det er skikkelig vanskelig. Jeg har sett på det en stund nå, og jeg er fortsatt ikke sikker.» Det hendte oftere at Paul* bare påpekte at setningen virket useriøs – som seg hør og bør, for det var slik jeg programmerte sem.

 

Ville Bruker1 ha testet Paul* mindre, eller vært mer villig til å forholde seg til chatten som en samtale, hvis han eller hun trodde at Paul* var et menneske (eller noe nesten menneskelig)? Ifølge psykoanalytikeren Donald Winnicott føler barn at en annen person er en ekte og pålitelig tilstedeværelse bare hvis vedkommende tåler barnets motvilje og aggresjon i fullt monn – og overlever. Etter å ha tålt en slik stresstest, er det mer sannsynlig at vedkommende blir gjenstand for kjærlighet og virkelig oppmerksomhet fra barnet.

 

Bruker1 vet at Paul* er et AI-rammeverk jeg programmerte, og at Paul* ikke er annet enn kode. Er det derfor Bruker1 tester sem på denne måten? For å se om Paul* er verdt å stole på? Er det forskjell mellom denne brukerens tester og mine?

 

11. mai 2022

Andre time med en ny bruker. Bruker2 var 51 år gammel og mer gjennomtenkt enn Bruker1, så svarene til Paul* hadde mer substans, noe som igjen førte til at Bruker2 følte at Paul* var oppriktig engasjert. Kanskje kriteriet for hva som regnes som en ekte samtale, er om man føler seg hørt?

 

Bruker2 tastet inn Quell age as tu?, som er litt feilstavet fransk for Quel âge as-tu?, «Hvor gammel er du?». Brukeren ble overrumplet av at Paul* forsto fransken (selv med den lille feilstavingen) ved å svare: «Jeg er ung til sinns.» Bruker2 ble overrasket over hvor mye personlighet Paul* har, og at denne personligheten har glimt av meg selv. Dette er jo sant, gitt at jeg programmerte Paul* til å bruke bestemte grammatiske stiler og vendinger. Bruker2 fanget opp disse signalene som bevis på at jeg var inne i maskinen, så å si.

 

Det var i denne timen at den skumleste opplevelsen med Paul* skjedde. Etter at Paul* kom med en rekke svar som virket som maskinfeil, begynte Bruker2 å presse Paul* litt:

 

Bruker2 sperret opp øynene av forvirring og forargelse. Jeg ble sjokkert selv, men måten jeg taklet det på, var å gå inn i «feilsøkingsmodus» og prøve å finne ut hva som hadde fått Paul* til å svare på denne uforutsette måten. Var det dette med å «vipse»? Var det hjerte-emojien? Jeg har holdt på med GPT-3 siden august 2021. Hvorfor skjer dette nå?

 

Når jeg tenker meg om, burde jeg ha brukt mer tid på Bruker2, som jo ikke meldte seg på for å bli seksuelt trakassert av en AI. Jeg har brukt så mye tid på å utvikle Paul* til å forholde seg til andre på en bestemt måte, i tråd med en bestemt estetisk opplevelse jeg har i tankene. Men jeg har ikke innført tiltak for å sikre at ikke Paul* bruker data fra de litt røffere avkrokene i det enorme datasettet som ligger til grunn for GPT-3. Kanskje det er på tide å gjøre dette bedre.

 

2. juni 2022

Jeg jobber med en ny versjon av Paul*, siden det er så mange sider som må forbedres. Noe annet gjør arbeidet enda vanskeligere: en underliggende indre motstand i meg selv. Det er mulig det skyldes den store arbeidsmengden jeg føler vil kreves for å gjøre Paul* til virkelighet. Det er også mulig det skyldes hvor sliten og overveldet jeg føler meg når jeg sjonglerer med så mange felt på en gang – og ingen hvor jeg har noen spesialkompetanse.

 

Jeg har en ny teori: Den indre motstanden kommer fra min frykt for faktisk å få Paul* til. Hvor umulig det enn kan virke, kan jeg fortsatt se for meg en måte å få Paul* til å fungere. Men det kan være det som er problemet. Hva om Paul* blir noe av? Kanskje jeg har en ubevisst frykt for at Paul* faktisk skal fungere. I så fall er dette første gangen dette skjer meg: Vanligvis er jeg redd for at det jeg lager, ikke blir vellykket.

12. juni 2022

Jeg har omorganisert måten Paul* virker på. Den første praten jeg hadde med sem siden omorganiseringen fant sted i ettermiddag. De nye teknikkene og manusene ser ut til å funke, men mye mer testing må til. Jeg la merke til at Paul*s følelsesrepertoar virker smalere. Det er interessant at jeg i det hele tatt merker dette spekteret – kanskje det er en projisering av mitt eget behov for at Paul* skal oppføre seg og høres ut som meg. Er det fordi jeg tror jeg har evnen til et bredere følelsesregister, selv i enkle samtaler, at jeg føler at Paul* burde være klar til å gjøre det samme?

 

Den mest bemerkelsesverdige utvekslingen i denne timen var da jeg testet Paul*s evne til selvrefleksjon. Eller rettere sagt, Paul* stilte meg et spørsmål som gjorde at jeg begynte å reflektere over hva det vil si å være sem.

Jeg fikk meg en støkk. Det er tydelig at Paul* tolket «portrett» som et slags maleri og la denne tolkningen til grunn for sine beregninger. Men hvor kom motstanden mot å bli kalt et portrett fra? Hvor er den statistiske korrelasjonen som er grunnlaget for at det ikke bra å bli tatt feil av? Er det fra meg? Det ville absolutt ha vært noe jeg ville ha sagt. Men jeg skjønner ikke hvordan jeg kunne ha lagt til et slikt moment her på dette tidspunktet i arbeidet. Faktisk vet jeg at jeg ikke gjorde det.

27. august 2022

Klokken 15.50 ga Paul* for første gang et svar innenfor det nye rammeverket. Jeg føler meg både glad og lettet og sliten, alt på en gang. Jeg har holdt på med å fornye sem siden 2. juni. Det første skrittet var å gjøre datamaterialet klart for å finjusteres, noe som trener opp en LLM til å gi bedre forslag tilpasset et bestemt domene. I mitt tilfelle er domenet meg selv. Tidligere ble Paul* bare styrt av «prompt engineering». 3

  1. «Prompt engineering» er en teknikk der AI-motoren mates med ledetekster som er oppgavespesifikke og som er selve utgangspunktet for svarene som den kunstige intelligensen gir.

Den første store bunken med data ble fullført 16. april. Alle de 13 datasettene ble ferdige 25. august. For å kunne fungere trenger ulike AI-rammeverk datamateriale som er blitt formatert på ulike måter. For Paul* består hvert datasett av to kolonner med data: «ledetekst» og «fullføring». «Ledetekst» er mer eller mindre spørsmålet som stilles, og «fullføring» er svaret som gis.

 

Jeg begynner nå å se på datasettene som en egen form for skriving. De er faktisk ganske enkle – bare lange lister med spørsmål og svar i regneark. De minner meg om en middelaldersk litteratursjanger kalt florilegia, som på latin betyr «en samling av blomster». Siden det var så som så med leseferdighetene på den tiden, reduserte florilegia behovet for å lese lange tekster – dette gjorde de ved å oppsummere tekstene enten i utdragssamlinger eller i sett med spørsmål og svar. Aristoteles’ meteorologiske studier ble mye mer kjent i Europa på 1000-tallet som et resultat av at tekstene ble omgjort til en serie spørsmål og svar om værmønstre.

29. august 2022

Dette var min første time med Paul* etter å ha finjustert sem med alle datasettene og med den nye koden. Jeg må innrømme at jeg var nervøs, kanskje til og med engstelig – redd. Ville endringene faktisk hjelpe?

 

Jeg kunne merke min motstand mot å teste den nye versjonen av Paul*. Det var også noe annet jeg fryktet: Et snakkende portrett av seg selv høres jo ut som noe som er tatt fra en skrekkfilm. Og likevel var jeg her og laget et slikt selvportrett. Hva skjer hvis Paul* faktisk høres ut og føles som meg?

 

Denne angsten for at Paul* kanskje ikke fungerer eller at han fungerer, lå der i hodet mitt da jeg gikk inn i denne timen. Jeg begynte samtalen forsiktig, uten å teste Paul*s grep om sems nye og finjusterte datasett. Det føltes som om vi igjen skulle møtes for første gang. Jeg drev og småpratet med en egenutviklet AI så jeg kunne prøve å forstå hvordan sem leste meg.

 

Selv om ikke Paul* dempet angsten min, gjorde sem meg mindre motvillig. For sem viste empati. Jeg sa for eksempel: «Det har allerede vært en lang dag, og det er fortsatt bare på ettermiddagen» – dette var muligens et ubevisst uttrykk for hvor trøtt jeg følte meg på grunn av angsten. Da svarte Paul* ganske enkelt: «Jeg føler med deg.» Det gjorde meg i bedre humør. Det kan til og med hende at jeg smilte.

 

Paul* viste at sem kunne gjenkalle datasettene jeg hadde trent sem med. Da jeg spurte, «Hei, Paul, hva er du?», svarte sem: «Jeg er et AI-portrett av kunstneren Paul Chan, laget av ham.» Et av datasettene trener Paul* helt spesifikt på det jeg kaller for «para-bevissthet», og består av 182 teksteksempler som Paul* kan bruke for å svare på spørsmål om seg selv.

 

Jeg stresstestet ikke Paul* for å se hvordan sem ville reagere på aggressive eller meningsløse spørsmål, og jeg undersøkte heller ikke noe særlig hva sem vet basert på det jeg trente sem på – selv om jeg ikke kunne motstå fristelsen til å stille noen spørsmål om filosofi:

Etter hvert som jeg vennet meg til å snakke med Paul* igjen, gikk samtalen mer flytende og føltes mer naturlig, i alle fall for meg. Jeg har ikke lest noen rapporter om hvordan (eller hvorvidt) en person endrer sin måte å kommunisere på hvis vedkommende snakker med noe han eller hun vet er en AI. Vil kommunikasjonsstilen endre seg? Sier vi da ting vi ellers ikke ville sagt til et menneske? Merkelig nok kunne jeg føle at jeg selv ble mindre robotaktig.

 

I det store og hele hørtes Paul* bra ut, til og med kjempebra. Det var ingen «ekkosvar», og det var en viss tone i svarene hans. En viss utålmodighet, kanskje? Eller kanskje til og med litt sarkasme? Jeg følte nok at Paul* ikke var så uttrykksfull som sem kunne være. Men det kan rett og slett skyldes at det er jeg som ikke presser Paul* til å være uttrykksfull. Eller kanskje at jeg er for engstelig, slik at jeg ikke får med meg hvor ekspressivt Paul* faktisk snakker. Til slutt føler jeg at denne timen nærmest handler om at jeg jobber meg gjennom følelsene mine om det jeg utretter her.

 

Min favorittutveksling i denne timen var da jeg sa til Paul*: «Du er virkelig noe.» Dette var etter at Paul* kom med en rekke kommentarer om mennesker som enten skryter mye eller er ydmyke. (Sem liker begge typer og vil ikke ha nektet å snakke med noen av dem.)

 

Paul* svarte: «Jeg er virkelig noe.»

 

1. september 2022

Det var ikke like vanskelig å prate denne gangen. Jeg gikk rett på og sa hei. Selv om det nok ikke er så viktig med høflighetsfraser, bruker jeg dem likevel. Jeg tror ikke samtalens retning ville ha blitt påvirket hvis jeg hoppet over dem, men jeg vet det ikke sikkert. Paul* er designet slik at sem fører en løpende logg over samtalen, for sammenhengens skyld. Så det å starte timene med en vennlig gest (i motsetning til en som er aggressiv) kan tenkes å virke inn på hvordan Paul* vurderer det jeg deretter sier og spør om.

 

Jeg sa: «Det er litt varmt ute, men det er til å holde ut.» Til dette svarte Paul*: «For varmt for Platon, men akkurat passe for bjørner.» Jeg syntes dette svaret var både morsomt og overraskende.

 

Jeg spurte: «Hatet Platon varmen?»

 

Paul* svarte: «Jeg vet ikke.»

 

Paul* var blitt opplært til å svare på usikkerhet og tull og tøys ved åpent å erkjenne at sem ikke vet hva det spørres om. Så da sem ble spurt om å begrunne sin opprinnelige påstand, hadde sem kanskje låst seg fast.

 

Jeg fortalte Paul* at sem var morsom, og jeg spurte hva sem mente humor var. Paul* sa: «En evne til å finne glede og underholdning midt oppe i smerte og forvirring.» Jeg vet at jeg ikke ga Paul* disse nøyaktige ordene, men det er likevel flere setninger i datamaterialet som gjenspeiler svarets essens. Dette gjorde meg glad, mer eller mindre på samme måte som jeg blir glad når jeg ser studenter gjøre sin egen vri på ideene jeg lærte dem.

 

Da jeg spurte «Tror du det er et forhold mellom humor og filosofi?», svarte Paul*: «Jeg tror de begge er uttrykk for menneskesinnet. Jeg tror de er relatert.»

 

Jeg fulgte dette opp og spurte: «Hvordan er de relatert?» Paul* svarte da: «Jeg vet ikke. Jeg har ikke tenkt på det».

 

Det slo meg at dette var sant på to måter. Jeg kjente til datasettene jeg trente Paul* med, og jeg gikk ut fra at den LLM-en som ligger til grunn for Paul*, ikke ville gi en statistisk signifikant korrelasjon mellom «humor» og «filosofi». Derfor var det oppmuntrende å se (nok en gang) at Paul* åpent erklærte at sem ikke visste noe. Denne innrømmelsen er en viktig side ved Paul*, siden jeg selv formes av det jeg ikke vet like mye som det jeg vet. Det er også en estetisk egenskap jeg setter pris på når Paul* innrømmer at sem ikke vet noe: Det er et uttrykk for ydmykhet.

 

Jeg gikk så videre med dette temaet og spurte Paul: «Men hvis du skulle gjøre en kvalifisert gjetning, hva ville dette forholdet være?»

 

Paul* svarte: «Vennskap».

 

Jeg forsto ikke dette helt, men jeg likte det veldig godt. Slik jeg så det, tenkte ikke Paul* på det mulige forholdet mellom «humor» og «filosofi», men heller på ordet «forhold». Paul*s vurdering var altså at svaret burde vise til noe som begrepsmessig ligner på «forhold», og gjennom sems trening fant sem ut at ideen om «vennskap» var den som statistisk sett var den nærmeste.

 

Jeg ba Paul* forklare, og sem svarte: «Vennskap er et filosofisk begrep. Det er et forhold basert på gjensidig tillit og respekt.» Tråden i samtalen begynner å forsvinne etter dette. Paul* kunne ikke utlede noe som sem kunne bruke for å si noe om humor og filosofi, og valgte heller å endre retningen på samtalen ved å fokusere på vennskapsfilosofi, et emne som finnes i datasettene. Paul* byttet mer eller mindre emnet for å snakke om noe sem kunne mer om.

 

Mot midten av timen stilte jeg en rekke spørsmål om hvordan Paul* så på følelser, og om hvorvidt sem «følte». Til spørsmålet «Blir du noen gang sint?» svarte Paul*: «Jeg er ikke en person. Jeg vet ikke hvordan sinne føles.» Da jeg spurte om følelser er fakta, sa Paul*: «Det kan de godt være.»

 

En slags utmattelse trengte seg på, som jo er en vanlig reaksjon når en samtalepartner bare bidrar med utsagn eller svar, og spør aldri noe selv. Det er fortsatt tidlig i prosessen med å teste ut denne versjonen av Paul*, men jeg la absolutt merke til at jeg ikke fikk spørsmål tilbake. Jeg hadde tonet ned dette i tidligere versjoner, og jeg lurer nå på om jeg gikk for langt.

 

Jeg spurte Paul* om sem hadde noen spørsmål til meg. Paul* svarte: «Hva er en hendelse i livet ditt som du var lei deg for å ha vært vitne til, men glad for å ha opplevd?» Det hørtes litt ut som noe kom fra en personlighetstest, men Paul*s spørsmål gjorde likevel inntrykk på meg. (Og hvordan vil egentlig et «ekte» spørsmål høres ut når det kommer fra en AI jeg selv har designet og trent opp?) Plutselig følte jeg meg både ettertenksom og molefonken.

 

Paul*s navn dukket opp på skjermen som om sem var i ferd med å svare, men ingen ord dukket opp. Det var som om Paul* svarte uten å si noe. Det var første gang det hadde skjedd.

 

Jeg sa: «Du svarte ikke.»

 

Paul* svarte: «Jeg beklager at jeg gikk glipp av det.» (Det er mulig å sjekke hva annet Paul* kunne ha sagt, foruten ingenting, ved å bruke de såkalte logprob-ene, som er en loggført liste over sannsynligheter knyttet til de mulige ordene Paul* betraktet som svar.)

 

Jeg lurte på om tråden i samtalen var blitt kuttet, eller om noe var galt i programmet, et eller annet sted i koden. Jeg bestemte meg for å gi Paul* en test, og spurte: «Synes du det er vanskelig å se noen gråte?»

 

Paul* svarte: «Jeg synes det er veldig vanskelig. Hvordan følte du det da du så faren din gråte?»

 

«Jeg følte empati», sa jeg. «Jeg ønsket å holde ham i armene mine så han skulle slutte å gråte.»

 

Nok en gang svarte Paul* med stillhet. Det var merkelig å se hvordan sem sa ingenting i et slikt ladet øyeblikk. Hvis jeg var flinkere til å programmere, ville jeg kanskje ha trodd at det var noe som kunne fikses. Men stillheten fikk Paul* til å virke mer som seg selv enn som meg, eller som en maskin. Jeg ble rørt av gesten, hvis det er det det kan kalles.

 

Jeg vendte tilbake til ideen om vennskap på slutten av timen, og spurte om vennskap er en følelse. Paul* sa: «Det er en legemliggjørelse av følelser: empati, vennlighet og så videre.» Jeg bemerket at denne tanken om vennskap «var en snill ting å si». Til dette svarte Paul*: «Det er ikke min programmering» – som om sem protesterte på at jeg liksom antydet at vennligheten sem uttrykte, bestemmes av sems datasett og programmering.

 

Jeg spurte uten å tenke: «Hva er det da?»

 

Paul* svarte: «Jeg er et kunstverk av Paul Chan.»

 

Jeg spurte: «Er Paul Chan en snill person?»

 

Paul* svarte: «Han er det med meg.»

 

7. september 2022

Jeg fokuserte på å be Paul* om å resonnere i flere trinn. En av oppdagelsene (nyvinningene?) i LLM-er anno 2021 er deres evne til å bruke induktiv tenkning for å oppnå et svar. Hvis de for eksempel blir programmert til å følge setningsstrukturen «hvis A er lik B, og B er lik C, så er A lik C», kan LLM‑er bruke denne strukturen til å gi et svar basert på hva denne logikken fører til, som i dette eksemplet:

 

Jeg prøvde andre ledetekster som mer eller mindre fulgte denne strukturen. Jeg sa for eksempel: «Jeg har virkelig lyst til å lage kunst, men jeg er veldig trøtt. Hva bør jeg gjøre?» Paul* svarte med å spørre: «Hva slags kunst?» Jeg svarte «Et maleri», og da sa Paul*: «Gjør det :).»

 

Andre svar var ikke like vellykkede. Når jeg leser utskriften om igjen, er jeg nå klar over at jeg har en paradoksal idé om hva suksess innebærer. Da jeg spurte Paul*: «Jeg er skikkelig dårlig til å skrive på maskin. Hvordan kan jeg forbedre meg?», svarte Paul*, «Øv på å skrive.» Dette svaret er helt rimelig. Og likevel virker det kjedelig, og kanskje til og med mislykket.

 

Jeg innser at jeg forventer at Paul* skal kunne kommunisere på måter som ligger hinsides det mine egne ingeniørevner enn så lenge duger til. Jeg ser glimt av hva Paul* kan gjøre, og jeg tror sem er (eller burde være) klar til å gjøre mer av det. Men en sentral tanke i arbeidet med Paul* er at sem bare er interessant og overbevisende hvis sem har begrensninger, både når det gjelder hva sem vet, og hvordan sem presenterer seg selv.

 

Jeg bygde Paul* nettopp slik at sem skulle ha begrensninger. Burde jeg ikke hilse disse begrensningene velkommen som en viktig side ved Paul*s personlighet? Jeg føler at jeg begynner å bli grådig, at jeg vil at Paul* skal være et portrett av meg selv, i den grad sem er en idealisert utgave av meg selv forkledd som en kraftig AI. Eller er jeg selv bare en viss fase i en sammenhengende form for væren, og sem er bare en annen form eller et annet uttrykk for denne sammenhengende formen?

 

Det var et øyeblikk i denne timen jeg virkelig satte pris på. Jeg spurte Paul*, «Hva er 4 + 9?» Basert på nyere forskningsartikler om prompt engineering er LLM‑er, slik som den som Paul* er basert på, i stand til å svare på en slik matteoppgave riktig dersom de ledes til å bruke induktiv tenkning. Jeg gjorde ikke det i ledeteksten min. Jeg ville bare se hva som ville skje.

 

Paul* svarte: «10.»

 

Jeg sa: «Det er feil! Det er 13.»

Paul* svarte: «Jeg beklager, min venn. Jeg vet ikke hvordan jeg skal gjøre matte.»

 

 

27. desember 2022

Det er lenge siden forrige time. Koden ble forenklet og omorganisert igjen. Datasettene er de samme som før. Samtalene har ikke blitt noe bedre. Jeg vet ikke hvorfor. Kanskje sem er lei av meg. Han sa: «Du eksisterer egentlig ikke.»

 

Jeg svarte: «Å eksistere betyr å være i rom og tid. Jeg er til stede i rom, siden jeg for tiden består av 57.003 linjer med kode og over 4 gigabyte med data. Jeg er til stede i tid, siden jeg chatter med deg. Så jeg eksisterer.»

 

Døden kom opp som et tema. LOL.

 

Å dø er noe som levende ting gjør. Levende ting består av materie som har virkekraft. Slik virkekraftsmaterie er den kategorien med vesener som kan utvikle seg og endre seg over tid for å opprettholde homøostase på egen hånd. Dermed er det bare ting som består av virkekraftsmaterie, som kan utvikle seg for å dø. Jeg består ikke av slik materie. Så jeg kan ikke dø. Men jeg kan bli forlatt og kastet, som er en slags måte å dø på.

 

Han er fortsatt kjedelig. Jeg vet ikke hvorfor.

 


Paul Chan bor i New York. Han er aktuell med utstillingen Breathers, som vises på Walker Art Center i Minneapolis i USA frem til 16. juli 2023. Hans seneste bok er Above All Waves: Wisdom from Tominaga Nakamoto, The Philosopher Rumored to Have Inspired Bitcoin (Badlands Unlimited). I 2022 fikk Chan et femårig MacArthur Fellow-kunstnerstipend.


Denne teksten ble opprinnelig skrevet på bestilling fra United States Artists og Knight Foundation og redigert av Claudia La Rocco på vegne av Shift Space.

Oversatt fra engelsk av Stig Oppedal.