tisdag, januari 05, 2016

Låt framtidens robotar bli olydiga

Kultursidan Västerbottens-Kuriren 160105

Man brukar tala om robotikens tre lagar, myntade av science fictionförfattaren Isaac Asimov redan 1950 i novellsamlingen I, Robot. Dessa är: 1) En robot får aldrig skada en människa. 2) En robot måste alltid lyda människan. 3) En robot får försvara sig, om det inte bryter mot någon av de två första lagarna.
       Trots att dessa lagar har formulerats inom ramen för fiktionslitteratur, har de haft stort inflytande på forskning och utveckling av robotar. Nu börjar emellertid forskare utveckla sociala robotar som inte nödvändigtvis följer lag nummer två.
        Två forskare vid ett amerikanskt robotlaboratorium menar i en forskarrapport att det är dags att skapa robotar som kan avgöra vilka situationer där en social robot ska lyda direktiv från människan – och när roboten inte ska lyda. Forskarna menar att ju mer sociala robotars kapaciteter utvecklas, desto större blir våra förväntningar på robotarna.
        Därför måste robotar bli skickligare på att avgöra när och hur de ska avfärda direktiv från en människa. Forskarna menar att robotar måste ha så kallade lämplighetsvillkor eller giltighetsvillkor (felicity conditions), inspirerade av språkfilosofer som Austin och Searle.
        De lämplighetsvillkor forskarna föreslår att robotar ska utrustas med och alltid använda när en människa ger roboten direktiv är:

1 Kunskap: Vet roboten hur den begärda handlingen utförs?
2 Kapacitet: Är det fysiskt möjligt för roboten att utföra handlingen?
3 Tajming: Är detta ett lämpligt tillfälle att utföra handlingen?
4 Social roll och skyldighet: Är roboten skyldig att utföra handlingen givet den sociala roll roboten har?
5 Normativ tillåtlighet: Innebär det ett brott mot någon norm att utföra handlingen?

Först när en social robot har övervägt dessa fem villkor och funnit att de är uppfyllda, ska roboten utföra handlingen. Annars ska den vägra. De villkor som genererar några extra varvs funderingar är det fjärde och femte villkoret.

        Roboten ska alltså kunna ha en uppfattning om vilken social roll den har och roboten avkrävs även moraliska ställningstaganden.Jag tror detta är viktig forskning inom robotik. Särskilt med tanke på att det rimligen kommer en dag när vi lika lätt kan införskaffa en social robot, som vi kan införskaffa en mobiltelefon i dag.
        Vill vi att en robots ägare ska kunna ge en robot direktiv om socialt opassande och moraliskt otillåtna handlingar som roboten blint utför? Om inte, så måste vi ge robotar frihet att överväga och negligera våra direktiv.
        Och därmed kanske robotar kommer att framstå som människans sociala och moraliska korrektiv. 

Inga kommentarer: