Kultursidan Västerbottens-Kuriren 190329
Ett av de allra största problemen inom AI-området i dag är hur algoritmer kan konstrueras så fritt som möjligt från fördomar för att minimera diskriminering av människor. Problemet är stort, därför att självlärande algoritmer återfinns i allt fler sammanhang av allt större betydelse för oss människor.
Det ultimata exemplet är sådan AI-teknik som måste kunna känna igen människor i fysiska miljöer för att kunna agera på ett korrekt sätt. Tänk miljöer där både robotar och människor befinner sig. Robotarnas sensorer måste kunna skilja på människor och andra föremål för att inte skada människor.
En självkörande bil är en form av robot med självlärande algoritmer som registrerar sin omgivning med sensorer, kameror, mikrofoner och lär sig hur bilen ska agera i olika situationer där människor rör sig.
Därför har en forskargrupp i USA studerat i vilken utsträckning så kallade objektdetekteringssystem som finns i självkörande bilar kan urskilja såväl trafikmärken som medtrafikanter. Särskilt viktigt är det för sådana bilar att urskilja oskyddade människor som går längs eller korsar vägar.
I en förhandspublicerad rapport i databasen Arxiv redovisar forskarna en undersökning om människors hudfärg har betydelse för sensorernas möjlighet att upptäcka fotgängare. Studien visar att standardmodeller som används i AI-teknik för att urskilja människor har lättare att upptäcka människor med ljus hy än människor med mörk hy.
Om självkörande bilar utrustas med sådana detekteringssystem som undersöktes i studien, så skulle risken för mörkhyade människor att råka ut för olyckor vara betydligt större än för ljushyade.
Detta är ändå enbart ett exempel på hur viktigt det är att testa AI-system och självlärande algoritmer för fördomar och diskriminerande beteenden innan systemen tas i bruk och får reella konsekvenser. Med dödlig utgång, i värsta fall.
Inga kommentarer:
Skicka en kommentar