Människor, maskiner och moral

Bertil Mårtensson
Eftersom man kan säga lite mer, och möjligen också mer klargörande (men också i någon mån mer förvirrande) om det här med med mänsklighet, maskinmässighet och moral, än vad Nicholas Wennerberg, Thomas Rosén och Hans Persson gjort i tidigare nummer av Månblad Alfa, tänkte jag bidra med några punkter och kanske lösa upp några ganska meningslösa missförstånd.

Wennerberg har rätt i att ''människa'' till stor utsträckning är ett biologiskt begrepp (MB 29, sidan 12), även om det därför inte är lätt att definiera. Var Neanderthalaren en människa? Ja, ''delvis''. Men tanken att definiera ''mänsklighet'' utifrån en moralisk tankegång är ändå inte helt absurd. Framför allt kan man inte säga att den är pseudovetenskaplig (ibidem) -- utom som tomt invektiv. Den kan i och för sig vara en återvändsgränd, men tanken har en kärna, som rentav kan bedömas som sund. Och då diskussionen om det hela utgör en av de moralfilosofiska huvuddiskussionerna under de senaste två decennierna kan den förtjäna att tas på allvar.

En maskin kan aldrig bli en människa i biologisk mening, förrän vi (eventuellt) kan detaljdesigna organismer på ett produktionsband. Men denna produkt skulle då i alla hänseenden vara en människa (mänsklig DNA, celler och så vidare), varför den inte längre skulle vara en maskin utan en serietillverkad människa.

En android/robot, typ de i Terminator 1 -- 2 kan kanske en dag göras ohyggligt människolik (på ytan), men så länge den består av en kärna av mekaniska delar endast omgiven av en mänsklig dekor av kött, blod och hud, så är den ingen människa, utan en maskin gjord för att lura i oss att den är en människa.

Men dessa dekoraspekter är inte de intressanta. För i stället för att hänga upp sig på vem som biologiskt sett är människa, kan man tycka -- och det är en moralisk-etisk tanke -- att det viktiga vore något annat. När roboten i Terminator 2 visar sig vara den perfekta pappan (citerat av Hans Persson i MB 29, sidan 19) är inte filmens filosofiska poäng att den är det för att den är mänsklig, utan för att den är helt omänsklig men på ett trevligt sätt -- den sviker aldrig, för hela dess artificiella intelligens är inriktad på att göra det bra för pojken. Om pappa-terminatorn vore sant mänsklig, skulle den även äga förmågan att vara en dålig pappa. Poängen är just att den saknar denna viktiga förmåga.

Alltså, poängen med att definiera ett mänsklighetsbegrepp i moraliska termer är att det skulle kunna tänkas fånga en egenskap hos människan som är viktigare för hennes mänsklighet än de rent biologiska egenskaperna. Men detta moraliska mänsklighetsbegrepp är ingen konkurrent till det biologiska, eftersom det försöker inringa någonting annat! Att spela ut dem mot varandra tyder alltså på att man inte förstått begreppets intention.

Det verkar också missriktat att definiera ''X är människa'' = ''X besitter vissa bestämda moraliska värderingar MV''. Förslaget är i stället, i den aktuella debatten om personbegreppet (som det snarare kallas) att säga: ''X är en person'' = ''X är moraliskt kapabel över huvud taget''.

I detta att vara moraliskt kapabel ingår sedan sådant som:

    a)
    att alls ha tankeförmåga och upplevelseförmåga
    b)
    att ha kunskap om sin egen existens som individ
    c)
    att ha en uppfattning om att det finns andra individer
    d)
    att ha en uppfattning om att det finns en framtid
    e)
    att ha preferenser om hur det egna livet ska se ut
    f)
    att kunna känna sorg om ens önskningar frustreras och glädje om de slår in
    g)
    att ha en uppfattning om sådant som ansvar och skuld (dåligt samvete)

Detta är ingen oantastlig eller klar lista, men den försöker fånga den allmänna tanken, att om en maskin (till exempel en framtida Pentium eller Mac, eller en Terminator) började uppvisa tydliga tecken på allt detta, så helt oavsett om den fortfarande stod på ett skrivbord i ett elegant designat plastskal eller om den vandrade runt som en serie kretsar och hävstänger under ett skal av kött och blod eller väldigt hudliknande plast, så skulle allt fler av oss börja tala till maskinen som till våra medmänniskor och någon skulle starta en förening för deras rättigheter och börja skriva debattböcker om grymhet mot maskiner.

På samma vis skulle vi uppleva en spindelvarelse från Tau Ceti som i denna mening mer mänsklig (människolik), oavsett om den hade dreglande käftar och 12 ögonpar eller inte, ju fler av ovanstående egenskaper den hade.

Här slår det mig dock, att det jag sade ovan var delvis fel. (Vilket alltid slår en när man försöker göra filosofi.) För om varelsen ifråga visade sig dela den västerländska människans demokratiska genomsnittsvärderingar, så skulle det utan tvekan få vederbörande att verka mer mänsklig för oss än om den bara vore moraliskt kapabel, men hade en helt annan uppsättning moraliska åsikter.

Detta bekräftas, slår det en, av att vi människor har en tendens (helt oavsett om den är sund eller osund) att bedöma dem som mer mänskliga, som har samma värderingar som vi själva. Och detta kan man hitta myriader av antropologiska belägg på. Till exempel upplevde västerländska människor vanligen de färgade naturfolken som ett slags omänniskor, vilket man kan se på att de ofta betraktade dem som djur snarare än människor. Men det är klart, att vi människor tänker på ett visst sätt, bevisar inte att vi har rätt.

Det är just för att slippa få dessa resonemang hopblandade med biologiska resonemang om mänsklighet som man inom moralfilosofin (etiken) föredragit att tala om när X är en person, snarare än människa. (Tanken var sedan också att ett väldefinierat person-begrepp bland annat skulle hjälpa till att lösa upp den oerhört trassliga abortfrågan.)

Man kan alltså sammanfatta, försöksvis, det sagda så här:

Vår upplevelse av att ''X är mänsklig'' = ''X är en (slags) person'' är avhängig inte bara av biologiska egenskaper hos X utan än mer av om a) X uppvisar förmåga till moraliskt tänkande (moralisk kapacitet) och b) X använder denna förmåga på ett sätt som erinrar om hur vi använder den.

Detta är en beskrivning av hur vi (många av oss, i alla fall) skulle reagera. Och man kan sedan vilja dra moraliska slutsatser för egen del av det hela, och de skulle då se ut så här:

X skall tillerkännas så kallade mänskliga rättigheter (= moraliskt och kanske även juridiskt likställas med en människa) om och endast om X är moraliskt kapabel (det vill säga uppfyller punkterna a-g ovan).

Enligt en sådan definition av ''person'' och ''rättighetsinnehavare'' skulle till exempel schimpanser åtnjuta mänskliga rättigheter om och endast om de kunde tänka, uppleva, ha uppfattningar om sin framtid, känna sorg och glädje, och än mer om det kunde beläggas att de kan ha dåligt samvete.

Personbegreppet har således verkat lovande på försvarare av djurens rättigheter, och de skulle i konsekvensens namn få bli försvarare även av maskiners rättigheter den dag (och om) maskiner uppvisade a-g. (Jag kommer här att tänka på en absurd men tankeväckande novell av C D Simak, där symaskinerna indignerat gör uppror mot sina förtryckare. ''Skirmish'' heter den och ingår i samlingen Strangers in the Universe.)

Att resonemangen inte är orimliga kan också visas av ett klassiskt exempel:

Anta att det går att hypnotisera en människa till att bli mördare. Vi tar detta som en ren science fiction-förutsättning, det vill säga det spelar ingen roll om det är möjligt eller inte i realiteten. Hypnotisören H total-hypnotiserar nu människan A att en onsdagskväll gå hem till B och mörda B, stycka B i badkaret och sedan gå till polisen och ange sig själv. När A gjort detta vaknar A upp utan minnen av vad som hänt och av ''vad han gjort''.

Att man vill sätta ''vad han gjort'' inom citat illustrerar det dilemma man befinner sig i om det kunnat konstateras att A gjort det hela uteslutande som följd av ett hypnotiskt kommando. I denna situation känns det inte helt konstigt att säga att hypnosen för en stund förvandlat A till en slags biologisk maskin utan egen vilja. Han är visserligen ingen maskin, men han har för en stund betett sig maskinellt.

Därför är A här -- givet att han verkligen varit hypnotiserad på det rigorösa sätt som här förutsätts -- lika litet ansvarig som en symaskin som ''råkar sy mig i fingret'', eller en motorsåg som ''hoppar ur min hand och sågar mig i benet''. Skyldig är, om någon, maskinens handhavare, det vill säga hypnotisören H, eller den som syr eller sågar (i varje fall till oaktsamhet eller klantighet). H är däremot skyldig till mord, även om han inte utfört det själv. Och en domstol skulle också få ta ställning till just den ansvarsfrågan, vilket förstås i bevishänseende skulle bli oerhört kinkigt.

De resonemang det är fråga om när man i kärndefinitionen av människa sätter in det moraliska är också oerhört gamla. De har sina filosofiska rötter i en tankegång hos Augustinus (ca 400), där han hävdar att Gud skapade oss människor fria = Gud gjorde oss moraliskt kapabla = Gud gav oss förmågan att handla såväl rätt som fel. (Detta är hans lösning på teodicéproblemet -- enligt Augustinus har Gud inget ansvar för det elände vi människor ställer till.)

Kant tog upp samma tankegång i Kritik der Reinen Vernunft, vars gigantiska analytiska apparat är designad bland annat för att undan naturvetenskapen rädda moralen. Om vi människor till 100% är naturprodukter tycks vi vara ett slags bio-mekanismer som fungerar enligt naturens lagar, vilket i sin tur tycks leda till slutsatsen att vi saknar en fri vilja och därmed är moraliskt inkapabla och därmed också saknar moraliskt ansvar. (Hjalmar Söderberg fångade denna tanke väl en gång när han beskrev Hitler som en otäck insekt, som inte kan hjälpa att han är en otäck insekt.)

Kant ser det som nödvändigt att försöka bevisa att vi utöver våra biologiska kroppar också har en fri vilja som inte är bestämd av några krafter i naturen -- detta är Kants förslag till räddande av moralen undan den mekanistiskt-naturvetenskapliga världsbilden.

Av detta kan vi dra några slutsatser. Det är inte helt galet att försöka sig på projektet att betrakta mänsklighetsegenskapen som fundamentalt moralisk. Det verkar snarare viktigt.

Å andra sidan inser man, att den som vill definiera begreppet ''person'' mer exakt än som skisserats ovan, måste lösa i stort sett alla filosofins problem -- problemen kring själslivet, medvetandet, den fria viljan och så vidare. (En lite tung men inspirerande modern klassiker på området är Derek Parfits Reasons and Persons, Oxford: Clarendon Press 1984, i synnerhet ''part III''.)

Därmed har sjuttiotalets optimism att introducerandet av ett personbegrepp (av antytt slag) skulle lösa grundläggande filosofiska problem kommit av sig. Abortfrågan visar hur trassligt det är, eftersom en del hamnar i slutsatsen att ett nybefruktat mänskligt ägg är en person, en del menar att en 20 veckors foster är en person och andra menar att man blir en person vid 2 -- 4 års ålder, vilket alltså skulle göra barnadödande av små barn lika moraliskt oproblematiskt som sönderplockande av en symaskin, bara inte föräldrarna blev ledsna. (Se Anderberg och Persson, Abortetik, Doxa - Tooleys beryktade essä eller papper, s 115 ff.)

Vi kommer att få liknande problem den dag man börjar klona fram eller tillverka artificiella människor, till exempel genom att ta ''riktiga'' mänskliga gener och skulptera om dem. Är resultatet en människa? Vilka kriterier på mänsklighet ska vi ha nu? Vi kommer förmodligen att kunna bli rejält oense även här.

Och som sagt även om våra hemdatorer börjar prata tillbaka och gråta när vi hotar att dra ut sladden ur väggen.

Till sist några reflexioner om Philip Dick, som ju för oss science fiction-människor är en högintressant person i det här sammanhanget. Hos Dick tillkommer, tycks det mig, en ytterligare aspekt -- han är liksom besatt av ett allmänt autenticitets- och falskhetsproblem, där det androida också passar in. Även om androider vore ''mänskliga'' i ovan skisserad mening, så skulle det kunna hävdas att de saknar äkthet, att de på något vis är falska. Det Dick verkar rädd för är att det äkta skall ersättas av falskheter, att det riktiga livet skall konkurreras ut av det syntetiska.

Vilket man kan se som en rätt traditionell civilisationsprotest om man vill, men som ändå kan verka åtminstone delvis sund. Anta att persondatorn en dag har programvara som gör den trevligare än andra människor, eller att någon i framtiden på Internet kopplar in en stordator som kan föra ''mänskliga'' samtal med miljoner användare på en gång och även simulera multipla personligheter. Ett ansikte kommer upp på skärmen, med mimik och allt, och den tycks dig oerhört förstående och trivsam. Skulle då inte en hel del av oss frestas att bli Internet-addicts i en farligare mening än man kan vara det idag, när man bara söker web-sidor med fräsig layout? Och vore det bra eller dåligt?

Men denna maskin behövde förstås aldrig vara så avancerad att vi i moralisk mening måste tala om den som en person. Det skulle räcka med en fiffig simulering av en person, vilket idag ligger inom möjligheternas bortre gräns, medan vi som är riktiga pappor får glädjas åt, tills vidare, att ingen ännu konstruerat den perfekta androidpappan med sådana machokvaliteter som Arnolds Terminator 2.

Personligen skulle jag föredra att umgås med den vetenskapligt kultiverade Data i Star Trek: The Next Generation, för övrigt.


LSFF:s hemsida