Kultursidan Västerbottens-Kuriren 161220
Ända sedan internets utbredning på 1990-talet har vi kunnat se att den tekniska utvecklingen och hur vi använder internet utgör olika utmaningar för andra samhällssystem. Det gäller exempelvis lagstiftning. Juridiken hänger inte med teknikutvecklingen, brukar det heta.
När möjligheten att dela upphovsrättsskyddat material på internet skapades, behövde juridiken en tid på sig att reagera. Eller den tid det har tagit för rättsvårdande myndigheter att finna metoder att utreda näthat och näthot.
Att våra sociala system inte hänger med teknikutvecklingen kan skönjas i den snabba tillväxten av sociala medier och vår oförmåga att upprätthålla en god social miljö i dessa medier. Rasism, misogyni, förföljelser och annat asocialt beteende florerar.
Utvecklingen av alternativa informationssajter, ofta med desinformation och konspirationsteorier, visar att våra traditionella nyhetsmedier inte helt lyckats med strategier för att möta den tekniska utvecklingen.
I takt med den ökade intensiteten i teknikens automatisering, utvecklingen av självlärande maskiner och artificiell intelligens börjar vi nu skönja att inte heller våra moralsystem hänger med. Syftet med denna essä är att försöka förstå hur framtidens teknik kan utmana våra moralsystem genom att fördjupa oss i ett enskilt fall.
Två forskare, Xiaolin Wu och Xi Zhang vid universitetet i Shanghai, har utvecklat en självlärande dator med syftet att lära sig känna igen och förutse vilka människor som är predestinerade för kriminella handlingar och vilka som är laglydiga. Datorn ska göra detta genom att identifiera särskilda kännetecken i människors ansikten.
Forskarna har använt 1 856 ansiktsbilder, varav hälften är bilder av dömda brottslingar och hälften laglydiga medborgare. När datorn har bearbetat dessa bilder med de algoritmer forskarna skapat, finner de tre signifikanta detaljer i ansikten som skiljer kriminella från icke-kriminella.
En viss form på överläppen, avståndet mellan ögonvrårna och vinklarna mellan nästippen och respektive mungipa. Enkelt uttryckt: Den som har en liten mun med krökt överläpp och tätt mellan ögonen är kriminell, eller kommer sannolikt att bli kriminell.
Forskarna hävdar nämligen att deras maskins förmåga att korrekt identifiera kriminalitet utifrån ansikten landar på ca 90 procent. Därmed menar forskarna att det är möjligt att förutse vem som kommer att bli kriminell.
Det grundläggande antagandet i detta projekt är att människors karaktär och sociala beteende kan bedömas utifrån deras biologiska egenskaper. Det har alltid varit en lockande tanke hos människan genom historien.
På 1800-talet och en bit in på 1900-talet mätte man människors skallar för att utröna och värdera deras egenskaper. Parallellt med detta försökte man även se om det fanns ett samband mellan hudfärg eller etnicitet och intelligenskvot. Det här skedde inom ramen för rasbiologin, där det främsta syftet var att visa hur en viss del av befolkningen är överlägsen en annan.
Än i dag försöker man fastställa om människor kan vara födda till kriminalitet, det vill säga att det finns genetiska betingelser som kan upptäckas i människors DNA.
Såväl rasbiologi som frenologi (läran om att människors sociala egenskaper kan utläsas i hennes utseende) är i dag helt förkastade kunskapsfält och räknas som pseudovetenskap. Forskning inom dessa fält skulle omedelbart betecknas som oetisk.
Hur kommer det sig att det finns en vetenskaplig artikel som i allt väsentligt sysslar med frenologi, men med avancerad teknik inom artificiell intelligens? Är det nyhetsvärdet i utvecklingen av självlärande algoritmer som motiverar denna forskning?
Först och främst ska sägas att denna artikel, med titeln Automated Inference on Criminality using Face Images, är en så kallad pre-print, det vill säga förhandspublicering i en stor databas för publicering av forskning innan den publiceras i någon vetenskaplig tidskrift. Databasen heter arXiv.org och förvaltas av Cornell University Library.
Kommer artikeln att passera den kollegiala granskning som görs inför publicering i tidskrifter?
Frågan är om det spelar någon roll. Artikeln har ändå fått viss uppmärksamhet på relativt kort tid. Främst kritisk sådan, men även nyfiken.
Finns det någon diskussion i artikeln om etiska problem eller om detta projekts relation till pseudovetenskapliga idéer? Nej, knappast alls. En liten passus finns kring varför det finns så lite forskning kring ansiktsformens betydelse för människors kriminella beteende. Dock berör de inte rasbiologi eller frenologi, utan tror att det beror på "historiska kontroverser som omgärdar undersökningar och stigman som associeras med socialdarwinism".
Dessa forskare tror att de kommer undan med sin forskning genom att hävda att det är en maskin som utför ansiktsanalyserna, och att en maskin inte är behäftad med fördomar kring kön, etnicitet, religion, politik, ålder och andra faktorer.
Datorer kan inte vara rasister, eftersom de är datorer, tycks de hävda, men glömmer att även datorer som utrustas med inslag av självlärande algoritmer är utformade av människor. Om människor har fördomar, kan man omöjligen hävda att datorprogram som designats av människor är fria från fördomar.
Det som oroar allra mest inför framtida forskning inom artificiell intelligens och maskinlärande är dessa forskares motiv till sin forskning. Det blir, hävdar de, med denna moderna teknik oemotståndligt att utforska relationen mellan ansiktsform och kriminalitet.
Oemotståndligt. Det är, som jag brukar kalla det, teknikens glitter som förför. Det som glittrar är teknikens makt, samma makt som berusade de vetenskapsmän som utvecklade atombomben.
Man behöver inte tänka länge för att bli rent ut sagt rädd för nyfikna forskare som drabbas av teknikens glitter utformar algoritmer för att fastställa olika samband mellan biologiska egenskaper och sociala beteenden.
Varför nöja sig med kriminalitet? Vilka andra beteenden kan man vara nyfiken på att förutsäga genom biologiska uttryck? Ser vi början till en eugenik 2.0?
Inga kommentarer:
Skicka en kommentar