Artiklar
28 oktober 2019

Projekt: Juridik möter filosofi kring artificiell intelligens

Digitalisering, internationell rätt och filosofi blandas i Valentin Jeutners forskning kring artificiell intelligens. Vem har ansvaret om AI går snett? Frågorna är ofta fler än svaren, men målet är att skapa ett tydligare rättsläge.

Text av Anneli Kamlin / foto på Valentin Jeutner och Mårten Schultz (från stiftelsens årsberättelse 2018 — Ragnar Söderbergforskare i Rättsvetenskap).


Den filosofiska juristen Valentin Jeutner är biträdande lektor vid den juridiska institutionen vid Lunds universitet. Han är ung, men hans väg mot forskning kring det högaktuella ämnet artificiell intelligens har varit innehållsrik.

En vecka efter att Berlinmuren föll i november 1989 föddes Valentin Jeutner i Berlins östra del. Hans föräldrar, som båda är teologer, hörde till dem som varit missnöjda med ofriheten i Öst.



– Vi hade ofta politiska samtal hemma. Redan där blev jag van vid att resonera och argumentera, något jag präglas av än i dag och har nytta av i forskningen, säger han. Föräldrarna hade begränsade möjligheter att utöva sina yrken och att röra sig geografiskt.

– De har uppmuntrat mig att ta vara på möjligheter de själva inte hade. Däri finns en stark drivkraft. Jag har sett hur mina föräldrars och andra människors missnöje faktiskt fällde en hel nation, och att det lönar sig att vara engagerad.

När Valentin Jeutner var ett år flyttade familjen till Greifswald vid Östersjökusten. Det är en händelse som ser ut som en tanke, eftersom staden under stormaktstiden hörde till Sverige och är vänort till Lund. Så småningom blev det Hamburg, och därefter började Valentin Jeutners internationella bana.

Han började på Atlantic College i Wales, den första skolan inom United World Colleges, nu ett globalt nätverk av gymnasieskolor som vill främja förståelse och fred mellan människor.



– Jag lockades av den dynamiska miljön med elever från olika länder, kulturer, religioner och samhällsklasser. Skolan var som ett mini-FN. Där fanns kineser och tibetaner, israeler och palestinier etc. Där pågick alltid intensiva diskussioner, vilket passade mig. Jag var ju redan engagerad och driven, och ville dessutom bli diplomat.

Efter examen valde Valentin Jeutner mellan att studera historia, filosofi och juridik. Han bestämde sig för juridiken. Det blev tre år i Oxford, med inriktning på internationell rätt.

– Jag brukar kalla dem ”de mörka åren”. Studierna var väldigt krävande. Det var mörkt när jag gick till biblioteken på morgonen och mörkt när jag kom hem.

Datorer och deras möjligheter var han sedan länge intresserad av och programmerade en del själv.


– Artificiell intelligens, AI, kom jag i kontakt med i Oxford när jag läste straffrätt, ”criminal law”. I internationell rätt är det centralt att fastställa om en person agerat förnuftigt eller inte när skuldfrågan ska avgöras. På engelska är det att vara en ”reasonable person”. Det tyckte jag var intressant. För vem är egentligen denna arketyp, denna förnuftiga människa? Jag funderade redan då på om man skulle kunna använda arketypen i samband med det juridiska ansvaret för lösningar som involverar AI, säger han.

– Digitala algoritmer kan relativt enkelt göras rationella, men att föra in förnuft är betydligt svårare. Det vore väldigt praktiskt om det gick att bygga beslutsregler för robotar med utgångspunkt från att roboten är en juridiskt förnuftig person. Det skulle innebära att roboten inte programmeras för varje tänkbar situation som kan uppstå, utan i stället själv kan tillämpa allmänna principer som gör att de anpassar sitt beteende till situationen. 



Med en färdig Bachelor of Law från Oxford flyttade Valentin Jeutner till Washington D.C. för att under ett år läsa till en masterexamen på Georgetown University.

– Skillnaden mot Oxford var stor. Solen sken nästan varenda dag, det var varmt för det mesta och jag kunde välja ganska fritt bland ämnena.

På sommarlovet efter Georgetown tog Valentin Jeutner advokatexamen i New York, men vände sedan tillbaka för doktorandstudier på Cambridge, med fokus på ”omöjliga” problem.



– Jag studerade motsägelser mellan nationalstaters självbestämmande och internationella överenskommelser. Om rätten att försvara sig ställs mot förbudet mot kärnvapen, vad ska staten göra? frågar han retoriskt.



– Mitt mål är att göra människor medvetna och uppmärksamma på frågeställningar, snarare än att leverera svar. Även frågor som är olösliga kan hanteras bättre med större förståelse för situationen och vad som står på spel.

Till Lund kom han 2016.


– Efter tio år i Storbritannien var det dags att lämna Oxford och Cambridge, som är något av en bubbla. Jag sökte en postdoktoral tjänst i Lund och blev väldigt väl bemött. Dessutom hade jag tillbringat många somrar i Sverige hos farmor och farfar, som precis hade flyttat till Emmaboda i Småland.

Nu ägnar sig Valentin Jeutner helt åt artificiell intelligens. Sedan 2017 har han stöd från stiftelsen i form av ett biträdande lektorat. I fokus står programmeringsprocessen ur ett juridiskt perspektiv.

– Målet bör vara att programmera utifrån hur en förnuftig person skulle agera, men jag inser hur lite vi faktiskt förstår av vad datorerna gör. Det är problematiskt. Därför vill jag väcka frågor om vem som har ansvaret i den robotiserade världen, vem kan ställas till svars om något går snett?

En viktig del av arbetet är att identifiera situationer som kan uppstå. Det gör Valentin Jeutner genom att studera stora mängder litteratur, artiklar och olika nyhetsflöden. Han träffar också många människor, inte minst i IT-sektorn.

– Vissa av dem är skeptiska till tanken på att deras verksamhet skulle begränsas genom reglering, och menar att jurister inte förstår teknologi. Men min syn är att allt kan regleras. Därmed inte sagt att det ska göra det.

För sin forskning har Valentin Jeutner ställt upp ett antal frågor, som alla kretsar kring det unika angreppssättet att relatera robotar till förnuftiga människor. Huvudfokus ligger på fördelar och möjligheter när det gäller att programmera robotar så att de beter sig
precis som sina mänskliga motsvarigheter. Visionen är att identifiera en uppsättning rättsliga principer som bör styra användningen av robotar. En av frågorna han ställer gäller vad robotar bör tillåtas att göra.

– Vissa beslut bör helt enkelt inte delegeras till algoritmer. Ibland krävs det ett mänskligt ingripande. En del av mitt arbete är att identifiera vilka de situationerna är. Ett exempel skulle kunna vara beslut om ett riskfyllt kirurgiskt ingrepp, med en sannolikhet på 50–50 för framgång respektive dödsfall.
 De flesta människor skulle nog vilja att det beslutet fattades av en människa, inte en robot, säger han.
En annan fråga är hur regler bör utformas och kommuniceras till robotarna, med detaljerade instruktioner eller generella principer. Och vem bör övervaka skapandet av den mjukvarukod som styr robotar, mjukvaruexperter eller folkvalda riksdagsledamöter?

– Mjukvaran påverkar våra liv på väldigt omfattande sätt. Det borde gå att tänka sig någon typ av licensiering för programmerare, som för advokater eller läkare. Utbildning i etik borde också vara naturlig.




Länk: Läs mer mer om Valentin och hans forskning >>