Kultursidan Västerbottens-Kuriren 190614
Artificial Lawyer är benämningen på en plattform för jurister med syftet att bidra till bättre och effektivare rättsprocesser med hjälp av digital teknik. Den 4/6 publiceras där en intressant artikel om en ny lag som beslutats gälla i Frankrike. Där står (i min översättning från den engelska artikeln):
”Identitetsuppgifter för domare och medlemmar av domstolen får inte återanvändas med syftet eller effekten att utvärdera, analysera, jämföra eller förutsäga deras faktiska eller påstådda professionella praxis.”
Straffet för ett brott mot denna lag är fastställt till fem års fängelse.
Med andra ord, den franska lagstiftaren vill inte att dataanalytiker ska kunna samla in data från olika domstolar och rättsfall för att undersöka om det finns mönster eller korrelationer mellan olika faktorer.
Detta tolkar jag som en reaktion mot den big data-trend som innebär att analysera stora datamängder för att finna just korrelationer och mönster som är svåra att upptäcka i enskilda fall.
Visst, avidentifierade domar och protokoll från rättsprocesser kan i sig ge intressanta analysresultat, men frågan är varför det är så viktigt att dessa analyser inte får innefatta de människor som fattat så viktiga beslut som kan frihetsberöva människor i flera år. Varför är det viktigt att kriminalisera den som analyserar hur olika domare tänker kring olika delar av rättssystemet, såsom det kommer till uttryck i rättsliga beslut? Varför är inte transparens viktigt i detta avseende?
När vi i AI- och big data-sammanhang snarare bör arbeta för en ökad transparens, går Frankrike i detta fallet i motsatt riktning. Det är märkligt.
Förhoppningsvis utgör offentlighetsprincipen ett hinder för att stifta dylika lagar i Sverige.
Inga kommentarer:
Skicka en kommentar