tisdag, april 10, 2018

Karaktären gör AI-tekniken genomskinlig


Kultursidan Västerbottens-Kuriren 180410

Det har skrivits spaltmil om vad som hände i relationen mellan Facebook och Cambridge Analytica. Denna essä ska inte öka dessa textmassor, utan lyfta en generell fråga ur dessa spaltmil och försöka förstå hur vi bör hantera den i en nära framtid.
         Redan på 1990-talet började vi ställa frågan hur vi bör utvidga vår förståelse för datorn som teknisk artefakt. Det räckte inte att inte enbart förstå datorns generella tekniska funktionalitet, det vill säga hur datorn löser sina problem. Inte heller att enbart förstå hur olika programvaror fungerar, det vill säga hur datorn kan lösa mina problem.
         Man frågade sig bland annat hur olika datorsimuleringar fungerade; hur olika manipulerbara modeller byggdes för att simulera olika planeringsprocesser, designprocesser, ekonomiska processer och liknande.
         Det talades om en simuleringskultur, där det var av största vikt att kunna ”läsa” simuleringar. Med det avsågs att förstå vilka antaganden och värderingar som fanns inbyggda i olika manipulerbara modeller, som användes som beslutsunderlag i olika verksamheter.
                     
På en generell nivå lyfts samma fråga i affären Facebook vs Cambridge Analytica. Inte enbart Facebook, utan alla sociala och andra medieaktörer som agerar på internet måste öka sin transparens; visa med större genomskinlighet vilka personuppgifter som samlas in, lagras och används av dem själva eller av någon annan aktör.
         Det är lätt att skapa transparens för ett statiskt innehåll eller för statiska processer. Inom en snar framtid kommer emellertid allt fler tekniska system att vara självlärande och adaptiva. Vi har sett dessa tendenser en tid; Google, Facebook, Netflix med flera går i bräschen för att deras algoritmer hela tiden ska anpassa sig efter den enskilde användarens beteende.
         Googles sökresultat anpassas efter användarens sökbeteende, Facebooks annonser utformas utifrån användarens intressen, Netflix filmtips utgår från tittarens tidigare konsumtion. Allt fler tekniska system bygger in adaptiva förmågor.
         Om det vi vill kunna se i transparenta tekniska system är statt i ständig förändring, i det att systemens omgivning förändrar systemens beteende, måste vi skapa en ny föreställning om hur vi uppnår transparens.
         Frågan för denna essä är hur vi ska designa transparens i AI-baserad, självlärande teknik när tekniken hela tiden anpassar sina algoritmer och därmed sitt beteende utifrån den omgivning tekniken verkar inom.

Varför är transparens viktig? Det främsta syftet med transparens är att skapa förutsebarhet; att uppfatta både hur teknik kommer att agera i olika situationer och vilka konsekvenser våra interaktioner med teknik får.
         Jag föreslår att använda begreppen roll och karaktär för att förstå transparens. Tidigare har vi uppnått transparens genom att ge tydliga roller till olika programvaror. Vi vet vad vi kan förvänta oss av ordbehandlingsprogram, kalkylprogram, mejlprogram, webbläsare och liknande. Om vi vill uppnå transparens till adaptiva, självlärande tekniska system, kan vi överväga att utveckla dessa systems karaktär, eftersom rollerna är stadda i förändring.
         Socialpsykologen Johan Asplund har rett ut begreppen roll och karaktär för oss människor i boken Det sociala livets elementära former (Korpen). Med begreppet roll avses att krav, riktlinjer och förutsättningarna för en människas agerande är givna; skrivna av någon annan med syftet att vara stabila över tid. Den som agerar i en viss roll är därmed förutsebar.
         Med karaktär avses att människan själv utformar och bestämmer restriktionerna för sitt handlande utifrån såväl sitt omdöme, som de situationer människan kastas ut i.
                     
Vad vi ser med framtidens självlärande AI-system är att de ges utrymme att inte enbart agera utifrån det manus som någon har skrivit (läs: programkod), utan att dessa AI-system också i högre grad får bestämma sina egna restriktioner för sitt handlande (läs: skapa ny programkod).
         Det innebär, med Johan Asplunds begrepp, att AI-system successivt går från att vara en abstrakt teknik som agerar helt instrumentellt, till att bli en konkret aktör som själv ges utrymme att forma sitt agerande.
         Vi kan reflektera över hur vi förutser en människas handlingar. Ta läraryrket som exempel. Alla lärare har självfallet en roll som de måste agera inom; de regler och restriktioner som är föreskrivna av skollagar, läroplaner och lokala föreskrifter.
         Om alla lärare enbart skulle agera som rollinnehavare, skulle alla lärare vara lika varandra. Så är inte fallet. Lärare vi haft och lärare vi känner, är alla olika, trots att de agerar inom likartade roller. Olikheter består i att de har utvecklat sina karaktärer på olika sätt.
         Studenter som läser en kurs med en viss lärare kan med största sannolikhet förutse olika handlingar som inte beror på de regelverk läraren är skyldig att efterleva, utan som beror på de karaktärsdrag läraren har utvecklat. Det är i högre grad lärarens karaktär som gör denne transparent än den rollbeskrivning läraren har att följa.
         Vill vi ha förutsebara AI-system i framtiden, kan karaktärsutveckling vara en fruktbar designinriktning. Det är i karaktärsdragen adaptiva AI-system blir förutsebara.

Alan Turing framlade de idémässiga grunderna för artificiell intelligens. Med det så kallade Turingtestet skulle man kunna avgöra om man lyckats skapa artificiell intelligens.
         Om man interagerar med en maskin och inte kan uppfatta om det är en maskin eller en människa har maskinen mänsklig, artificiell intelligens. Artificiell intelligens har alltid uppfattats som mänskligt efterliknad intelligens.
         Ett helt annat tankespår skulle vara att skapa maskinintelligens som inte har mänsklig intelligens eller mänskligt beteende som förebild. Men då måste vi skapa ett helt annat sätt att se igenom maskinerna.
         En fördel med att efterlikna mänsklig intelligens och beteende är igenkänning; vi vet mycket om människans intelligens och beteende. Om maskinintelligens utan mänsklig förlaga vet vi inte mycket.