Dator i lego.

Hur ska vi kunna lita på AI?

4 min läsning

EU har tagit fram riktlinjer för en god utveckling av artificiell intelligens, AI. Riktlinjerna är ett första steg för att få företag, utvecklare och forskning att arbeta mot samma mål – en lagenlig, etisk och robust AI.

Vare sig du kör bil, surfar på webben eller tittar på en ny tv-serie, är sannolikheten stor att du gör det med hjälp av en AI-teknologi. I nya bilar läser tekniken av din omgivning, på webben avgör den vad som ska visas i ditt sociala medie-flöde och i din strömmande tjänst tipsar den om serier baserat på vad du tidigare har tittat på.

Begreppet AI är brett och kan beskrivas på många sätt. I grunden handlar det dock om en mjukvara som analyserar stora mängder data för att lära sig om sin givna uppgift och komma fram till egna slutsatser. 

Dagens AI är problemorienterad och har ofta en specifik uppgift att utföra, se bara på våra smarta hem, men en artificiell intelligens som kan tänka och agera som en människa finns än så länge bara i fiktionens värld.

AI-baserade system har fått allt större betydelse inom områden som tillverkningsindustrin, vård- och transportsektorn. Men AI blir nu också viktigare i tjänster som berör vanliga medborgare och som används av dem.

– AI har under ganska lång tid varit en fråga främst för ingenjörer. Nu måste den diskuteras mer utifrån ett samhälls- och ansvarsperspektiv, säger Stefan Larsson, rättssociolog, jurist och samhällsvetenskaplig teknikforskare på Lunds tekniska högskola.

AI var ett huvudämne under Internetdagarna 2018. Här pratar Max Tegmark om hur vi på ett ansvarsfullt sätt kan utveckla artificell intelligens.

Ökad användning av artificiell intelligens ger fler risker 

När användningen av AI breder ut sig uppstår risker – risker som måste förebyggas i utvecklingen av tekniken. Vad händer till exempel när den information vi matar teknikens självlärande system med är felaktig, eller rent av oetisk?

Ju allvarligare situationer, desto viktigare är det att förstå hur tekniken fungerar och hur vi ska fördela ansvaret om något går snett.

Stefan Larsson

– Självlärande system är i ökande utsträckning beroende av att interagera med mänskliga värderingar och samhällsstrukturer för att lära sig. Det innebär att även nedsidor och skevheter vi har i samhället kan utgöra underlag för tekniken som i värsta fall förstärker dessa skevheter, säger Stefan Larsson.

Det är också svårt att avgöra vem som bär det slutliga ansvaret för tekniken när den blir allt mer självständig. Diskussionen kring självkörande av bilar är ett tydligt exempel: vem bär ansvaret om bilens AI missbedömer en situation och orsakar en olycka?

– Ju allvarligare situationer, desto viktigare är det att förstå hur tekniken fungerar och hur vi ska fördela ansvaret om något går snett.

Riktlinjer för en god utveckling

EU har nu tagit ett första steg mot att förebygga risker som dessa. I april 2019 publicerades ett förslag på riktlinjer för en "god utveckling av AI", det vill säga en utveckling som leder till att AI-tekniken följer lagar och regler, respekterar etiska principer samt är tekniskt och socialt robust. Riktlinjerna har tagits fram av en expertgrupp bestående av akademiker, näringslivsföreträdare och politiker.

Riktlinjernas huvuddrag i sju punkter:

  • Mänskligt stöd. AI-system ska stärka människan så att hen kan fatta välgrundade beslut och främja sina grundläggande rättigheter.
  • Teknisk robust och säker. AI ska vara mångsidig och trygg. Den ska även vara noggrann, pålitlig och kunna återskapa sig själv utifall allvarliga fel inträffar.
  • Sekretess- och datahantering. AI ska ha full respekt för personlig integritet och skydda privata data.
  • Transparens. Data, system och affärsmodeller ska vara transparenta och spårbara. AI-system och de beslut de tar bör även förklaras på ett sätt som de som ska interagera med tekniken kan förstå.
  • Mångfald, icke-diskriminering och rättvisa. AI ska inte vara partisk, såvida inte funktionen kräver det. Tekniken ska vara tillgänglig för alla, oavsett bakgrund eller funktionshinder.
  • Socialt och miljömässigt välmående. AI-system ska vara hållbara och miljövänliga. De ska ta hänsyn till miljön och alla levande varelser. Samtidigt ska sociala och samhälleliga konsekvenser övervägas i alla beslut den tar.
  • Ansvar. Det ska kunna säkerställas både juridiskt och tekniskt att AI:n tar ansvar för dess system och utfall.

En bra början

Stefan Larsson tycker att dokumentet är en bra utgångspunkt, och att riktlinjerna kan leda utvecklingen åt rätt håll.

– Dokumentet är bra, läsbart och en källa till inspiration på många sätt. Genom att lyfta fram behovet av tillit och etik som en central faktor bygger man en bro ut till samhället och säger att vi inte utvecklar tekniken som en neutral labbverksamhet, utan som något som ska bidra till marknader och till samhället. Troligen kommer det att påverka vart de politiska investeringarna går, och de kommer att ha effekt på forskningens inriktning och på företagens AI-policyer, säger Stefan Larsson.

Samtidigt understryker han att riktlinjerna inte är lagstiftande, och inte heller uttrycker några särskilda krav eller standarder. Snarare ska de läsas som ett första förslag som nu ska förädlas.

Det finns även en balans mellan en del rättsliga och etiska frågor som var för sig kan vara goda men som inte kan fungera samtidigt utan kompromisser.

Ett forum för diskussioner mellan EU, näringsliv och akademi kring hur detta ska ske är redan igång, och ytterligare initiativ lanseras under 2019. Riktlinjerna kan dessutom bli bättre. Vissa delar av innehållet talar emot varandra. Andra är inte förenliga med verkligheten, anser Stefan Larsson.

– För att AI ska vara tillitsfull så behöver den vara lagenlig, skriver man. Men att etik och alla lagar skulle vara förenliga över hela EU är en förenkling, säger han och fortsätter: 

– Det finns även en balans mellan en del rättsliga och etiska frågor som var för sig kan vara goda men som inte kan fungera samtidigt utan kompromisser. Det är svåra frågor att få ihop, och det är väldigt bra att de hamnar på agendan för framtida avvägningar och diskussioner. 

Vill du fördjupa dig i frågan?

Missa inte spåret Artificiell intelligens: Det nya gränslandet från Internetdagarna förra året.

Alla föreläsningar finns sparade på Youtube och nedan hittar du hela spellistan. Här avhandlas vad AI kan göra idag och imorgon, praktiska tillämpningar, de juridiska konsekvenserna och hur människa och AI kan arbeta tillsammans på ett konstruktivt sätt.

Föreläsarna pratar även om hur artificiell intelligens kommer påverka arbetsmiljö, arkitektur, hållarbarhetsfrågor och etik.


Relaterat