”Hjälp…vän.”
Dessa två gåtfulla ord som uttalas av roboten i Netflix serie Lost in Space är temat för den andra säsongen. Säsong 1 kretsar kring att utforska och skydda den nya vänskap som Will och roboten skapar efter att de på ett mystiskt sätt strandat på en främmande planet. Säsong 2, som släpptes på Netflix strax före början av 2020, visar hur de två vännerna hittar varandra efter att ha separerats i slutet av föregående säsong.
Vänskap, och att lära andra den sanna naturen av själva vänskapen, är kärnan i serien. En vanlig replik som uttalas av flera karaktärer när den nyaste säsongen når sitt klimax är: ”Det är inte vad vänner gör”. Arbetskamrater, föräldrar och barn och gifta par kämpar med denna fråga i vart och ett av de tjugo hittills producerade avsnitten.
Seriens kärna är dock det fascinerande bandet mellan tonåringen Will och hans gigantiska utomjordiska robot, som Paul Tassi för Forbes påpekar:
Den andra säsongen dyker ner i robotrasen som främst består av mördande maskiner, snarare än den ”snälla roboten” som är vän med Will Robinson, och det är en av seriens mest fängslande storylines när den fortsätter att växa och utvecklas och adopterar människoliknande känslor och tillgivenhet för andra levande ting.
Min fru beklagar fortfarande att roboten inte har fått något namn! Tyvärr – han kallas bara för Roboten. Ändå har han ändå gjort sig älskad av fans på båda halvklotet.
Wills band till den enstaviga maskinen i berättelsen får mig att tänka på den här tanken: Kan man vara vän med en artificiell intelligens?
För att vi ska kunna närma oss det fascinerande begreppet AI-vänskap måste vi definiera artificiell intelligens. Fråga en grupp forskare om definitionen av artificiell intelligens och du kommer att få en uppsjö av svar. En genomsnittlig person kommer att vara ännu mindre exakt, med den normala betydelsen något i stil med ”en maskin som tänker” eller ”en dator som agerar mänskligt”, och exempel som sträcker sig från Siri till Optimus Prime.
Dessa är inte till någon större hjälp.
Den berömde datavetenskapspionjären Alan Turing föreslog ett sätt att upptäcka artificiell intelligens, som numera är känt som Turing-testet: om en dator kan besvara frågor på ett så övertygande sätt att den lurar en människa att tro att den också är människa, så är den intelligent. Numera, med framväxten av chattrobotar och virtuella assistenter, sätter detta test ribban för lågt för verklig intelligens.
Turing-testet är fortfarande ett viktigt inslag i AI-forskningen, men det är ingalunda det sista ordet. Typiskt sett skiljer man inom AI-området mellan svag och stark AI, vilket förklaras i Stanford Encyclopedia of Philosophy:
”Svag” AI syftar till att bygga informationsbearbetande maskiner som verkar ha människans hela mentala repertoar. … ”Stark” AI, å andra sidan, syftar till att skapa konstgjorda personer: maskiner som har alla mentala förmågor som vi har, inklusive fenomenalt medvetande. Överlägset det som de mest populära berättelserna bekräftar och utforskar. Den senaste TV-serien Westworld är ett kraftfullt exempel.
Dr. Timothy Brown hävdar också att artificiell intelligens på det nu vanliga ”svaga” sättet bör definieras som ”virtuell verklighet”, vilket innebär att programvaran närmar sig mänsklig intelligens utan att förverkliga den – som Siri. Sann ”stark” artificiell intelligens skulle vara Data från Star Trek eller den namngivna WALL-E.
Bortse från de andra filosofiska konsekvenserna av artificiell intelligens, t.ex. personlighet och etik. I slutändan handlar definitionen av AI om en metafysisk fråga: Är intelligens baserad på beteende eller ontologi?
Detta är ett 2000-talstillägg till problemet med hjärnan kontra hjärnan, där man funderar på om medvetandet bara är av kemisk natur eller inte. Ett ”sinne” har en icke-fysisk aspekt, medan en ”hjärna” är rent fysisk. Om medvetandet bara är en fråga om komplex neurovetenskap är därför datorer med samma sofistikerade nivå oundvikliga, enligt vissa. Men om din filosofi om medvetande har en metafysisk komponent är stark AI förmodligen inte möjlig.
En algoritm kan till exempel tränas att känna igen och katalogisera cirklar, men endast en hjärna kan sedan abstrahera begreppet cirkulärhet från en specifik form. Den medeltida tänkaren Thomas av Aquino sade att intelligens är ett intellekts handling, eller för att parafrasera, vad en själ gör när den tänker. Själen avser här metafysiskt den immateriella, inneboende naturen hos en person, inte en separat, vimsig substans som lämnar kroppen vid döden – eller när den sugs ut av en dementor.
Denna hylomorfiska (varelse = materia + form) förståelse av existensen berör AI eftersom en robot utan ett själsligt intellekt inte kan uppnå medvetande. Sinnet kan inte komma enbart från materia. Eftersom självmedvetande är en förutsättning för stark AI förblir det hänvisat till science fiction.
Sorry, Data.
Oavsett om de är positiva (C-3PO) eller negativa (HAL 9000) delar andra exempel på vänner med artificiell intelligens i film och TV fortfarande den gemensamma gränsen mellan fiktion och verklighet.
Vad är vänskap?
När vi nu förstår AI filosofiskt kan vi vända oss till filosofin om vänskap. Oroa dig inte, detta kommer inte att vara lika tekniskt som AI – lättad?
Begreppet vänskap i sig självt verkar så elementärt att man nästan ignorerar det. Men precis som alla saker i vardagen är vänskap på en djupare nivå oskiljaktig från filosofin. Så, vad är vänskap?
Kollokt uttryckt är vänner de personer som du tycker om att tillbringa tid med samtidigt som du delar aktiviteter och intressen. Vissa har till och med sagt att vänner är ”den familj man väljer”. Djupa tankar kring detta ämne går tillbaka till de gamla grekerna. Aristoteles beskrev vänskap som något som finns i tre olika smaker: njutning, nytta och ömsesidig uppskattning. Hans åsikter utforskas av Zat Rana:
Hans såg värdet i oavsiktliga vänskapsrelationer baserade på njutning och nytta, men han ansåg att deras obeständighet minskade deras potential. De saknade djup och en solid grund.
Istället argumenterade Aristoteles för en annan typ av band:
Ting som orsakar vänskap är: att göra vänligheter; att göra dem utan att bli ombedd; och att inte förkunna det faktum när de är gjorda.
Vänlighet. Välgörenhet. Osjälviskhet. Vänskap börjar låta mycket som kärlek! Det var också så Aristoteles såg det; Aristoteles använde det grekiska ordet phileo för att beteckna denna typ av ”broderlig” kärlek. För att ha en ömsesidigt uppbyggande vänskap måste därför båda parter kunna älska.
Märk att jag sa ”båda parter”. Det är nyckeln till AI:s vänskapsfråga! Stanford, förklara:
Kärlek och vänskap klumpas ofta ihop som ett enda ämne, men det finns ändå betydande skillnader mellan dem. Som det förstås här är kärlek en utvärderande attityd riktad mot särskilda personer som sådana, en attityd som vi kan inta gentemot någon oavsett om denna kärlek är besvarad eller inte och oavsett om vi har en etablerad relation med henne eller inte. Vänskap, däremot, är i huvudsak en typ av relation som grundas på en särskild typ av särskild omsorg som var och en har om den andra som den person hon är; och medan vi måste skapa begreppsligt utrymme för idén om obesvarad kärlek är obesvarad vänskap meningslös.
Alltså kan även ett djur på ett begränsat sätt återgälda en människas tillgivenhet, även om de kanske inte är självmedvetna. Start Trek: The Next Generation kringgick detta problem genom att låta Data förklara vänskap på ett vetenskapligt men ändå mänskligt sätt:
När jag upplever vissa sensoriska inmatningsmönster blir mina mentala vägar vana vid dem. Inmatningen är så småningom förväntad och till och med missad när den är frånvarande.
Datas identitet som en syntetisk varelse med personlighet utforskades utförligt under de sju säsongerna av serien och spin-off-filmerna. Den nyligen utgivna serien Star Trek: Picard utforskar detta tema ännu mer.
Samt, Stjärnflottan åsido, skulle en maskin i den verkliga världen någonsin säga ”Jag har saknat dig” om den inte var programmerad att göra det? Detta leder oss till debattens kärna.
Kan AI &människor verkligen vara vänner?
Enligt Lost in Space har denna fråga redan besvarats. Det var dock inte alla karaktärer som kom till den slutsatsen så lätt. Karen Han skriver för The Verge och påpekar detta:
Lost in Space’s AI storyline borde kännas bekant för alla som är ens tillnärmelsevis intresserade av science fiction….Det sätt som karaktärerna väljer att behandla artificiell intelligens är ofta en ledande indikator på hur publiken är tänkt att uppfatta dem, och hur deras karaktärer kommer att utvecklas. Will … refererar omedelbart till roboten som ”honom” i stället för ”den”, en person i stället för ett objekt. Alla andra tar lite tid på sig att anpassa sig. Wills mamma ser ett verktyg, hans pappa ser ett hot, dr Smith ser ett vapen.
Med hänsyn till båda säsongerna finns här fler exempel på hur pojkens koppling till maskinen växer under seriens gång:
- Will räddar robotens liv när den fortfarande vill honom illa. Denna vänliga handling skapar ett band mellan dem.
- Och efteråt gör roboten ständigt saker för att rädda Will, Judy, Penny och deras föräldrar.
- Roboten litar tillräckligt mycket på Will för att gå ner från en klippa trots att det strider mot hans eget intresse att göra det.
- När hästen han knöt band till dör, håller roboten fast vid hästens tygel som en minnessak.
- Likt Will börjar roboten till och med använda ordet ”vän”.
- Roboten bortprioriterar sitt band med Will för att rädda en annan av sin sort – och Will väljer att hjälpa honom att göra det.
Jag är så van vid antropomorfiseringen av robotkaraktären att till och med jag kallar den för ”han”, precis som Judy och Penny lär sig att göra från Will.
Den antropomorfa karaktären hos roboten är delvis en funktion av berättelsen som science fiction. Är det inte för mycket att skilja mellan den verkliga starka intelligenta intelligensen och den fiktiva starka intelligensen i ”Lost in Space”? Kanske, men berättande medier påverkar ofta samhällets världsbilder och förväntningar, särskilt när det gäller orealiserad teknik.
Sinnet kan inte komma enbart från materia.
I en verklig kontext påminner detta om de meditationer som Amin Ebrahimi Afrouzi, AI-teknolog och doktorand, har gjort:
AI-agenter reflekterar över sina handlingar och försöker maximera sina belöningar. Men i vilken mening kan vi säga att de ”reflekterar” över sina ”motivation(er)” eller ”handlingar”? Vi kan inte helt enkelt tillskriva AI sådana begrepp utan att antropomorfisera. Men antropomorfisering gör det bara möjligt för oss att tala om vad AI gör, och inte hur den gör det.
Är denna ömsesidighet mellan Will och roboten inlärd eller medfödd? Roboten verkar växa i sin uppfattning om vänskap ju mer den umgås med familjen Robinson. I säsong 1 är den som en trogen men enfaldig följeslagare som en hund, medan den i säsong 2 visar handlingskraft. Penny och Will diskuterar till och med frågan. ”Han har förändrats. Men det är okej eftersom jag också har förändrats.”
Tusentals år senare genljuder Aristoteles ord i rymdens vakuum (Ja, jag vet att ingenting kan genljuda i ett vakuum, men låt mig vara, okej?):
Vänner håller en spegel upp för varandra; genom den spegeln kan de se varandra på sätt som annars inte skulle vara tillgängliga för dem, och det är denna spegling som hjälper dem att förbättra sig själva som personer.
I själva verket hänvisar Lost in Space ofta till en ”telepatisk förbindelse” mellan Will och den främmande maskinen. Will får bilder och känslor, men roboten skulle också kunna få mänskliga egenskaper som denna förbättrade förmåga till vänskap – förutsatt att den inte fanns tidigare (säsong 2 gör detta osannolikt).
Med tillägget av fler planeter och gigantiska mördarrobotar gör säsong 2 det tydligt att roboten är utomjordisk teknologi. Det är oklart vilken typ av utomjordisk intelligens som skapade dem, eftersom Netflix berättelse ännu inte har avslöjat ursprunget till de till synes intelligenta robotarna. (Mitt uttalande förutsätter att robotarna är skapade.) Den här typen av AI skulle i sig vara annorlunda än vår uppfattning om AI, vilket skulle leda till en mängd nya gåtor. Robotikprofessorn Murray Shanahan hänvisar till denna utomvärldsliga källa till intellekt som consciousness exotica:
Att utforska utrymmet för möjliga sinnen är att underhålla möjligheten av varelser som är mycket mer exotiska än någon jordisk art. Skulle utrymmet för möjliga sinnen kunna innefatta varelser som är så outgrundliga att vi inte skulle kunna avgöra om de överhuvudtaget hade medvetna upplevelser? Att förneka denna möjlighet är ett tecken på biocentrism. …Antingen har en varelse medvetna erfarenheter eller inte, oavsett om vi kan avgöra det.
”Om vi kan avgöra det”. Detta är ytterligare en potentiell inkörsport till nödvändigheten av ömsesidighet i en sann vänskap. C.S. Lewis återger denna sanning om phileo-vänskap i sitt mästerliga verk The Four Loves:
Varje steg på den gemensamma resan prövar hans mod; och prövningarna är prövningar som vi fullt ut förstår eftersom vi själva genomgår dem. Därför blommar vår tillit, vår respekt och vår beundran upp till en uppskattande kärlek av ett unikt robust och välinformerat slag, när han gång på gång låter sig besannas. Om vi från början hade ägnat oss mer åt honom och mindre åt det som vår vänskap ”handlar om”, skulle vi inte ha lärt känna … honom så väl. Du kommer inte att hitta krigaren, poeten, filosofen eller den kristne genom att stirra honom i ögonen … det är bättre att slåss bredvid honom, läsa med honom, argumentera med honom, be med honom.
Försök att göra någon av dessa saker med en artificiell intelligens. Det fungerar inte så bra. En AI kan söka på Google eller tända ljuset, men kan den argumentera eller be med dig?
Även om man förnekar den hylomorfa sammansättningen av kropp och själ kommer en AI aldrig att vara tillräckligt ”stark” för att odla vänskap eftersom AI inte kan utveckla behov eller mål, vilket professorn i kognitionsvetenskap Margaret Boden påpekar:
Kommer vi att kunna dela med oss av våra AI-kollegor av skämt över en kopp kaffe, av skämt mellan rivaliserande fotbollssupportrar, av diskussioner om nyhetsrubriker, av små triumfer när vi står upp mot en sarkastisk eller mobbande chef? Nej – eftersom datorer inte har några egna mål. …Det är meningslöst att föreställa sig att framtida artificiell intelligens skulle kunna ha behov. De behöver inte socialitet eller respekt för att fungera bra. Ett program fungerar antingen eller inte. …Användarna och konstruktörerna av AI-system – och av ett framtida samhälle där AI är utbrett – bör komma ihåg den grundläggande skillnaden mellan mänsklig och artificiell intelligens: den ena bryr sig, den andra gör det inte.
Kan man vara vän med en AI?
Kanske det, men den kommer inte att vara vän med dig.
En AI reagerar på externa stimuli enligt sin programmering – den har ingen intellektuell ”själ”. Vänskap är relationell, och algoritmer kan bara beräkna, inte förstå. Maskinen kommer inte att bry sig om dig på samma sätt som du gör för den och kommer i bästa fall att vara en obesvarad vänskap – vilket är en oxymoron.
Om du inte träffar den här roboten. Då kan ni absolut bli bästa kompisar.