Informationsinfrastruktur

Internets infrastruktur kan sägas bestå av olika lager som är beroende av varandra. Underst finns de tekniska förutsättningarna som master, serverhallar och inte minst fiberoptiska kablar. Ovanpå den fysiska infrastrukturen finns ett annat lager som utgörs av internet­operatörer, tjänster som de tillhandahåller och standarder de förhåller sig till. På toppen av de båda finns den del av infrastrukturen som består av användarens utrustning, tjänster som används och de data dessa innehåller. Det är den sistnämnda infrastrukturen som är i fokus för detta kapitel.

Vem äger informationsinfrastrukturen?

Något som kännetecknar en informationsinfrastruktur är att den i regel är osynlig så länge den fungerar. Vi tänker helt enkelt inte på den så länge den gör vad den ska för oss. Samtidigt påverkar den oss ständigt, varför den är viktig att synliggöra. En informations­infrastruktur är inte neutral och kan aldrig bli det. Den som vill bli läst, lyssnad på eller sedd har alltid behövt anpassa sig till informationsinfrastrukturens förutsättningar. Det gäller oavsett om den är byggd på analoga eller på digitala medier. En sak som förändrats jämfört med förr är att informationen numera i större utsträckning förmedlas genom ett mindre antal globala företag och deras tjänster. Det finns en paradox i att vem som helst kan publicera sig genom tweets, Facebook-inlägg eller bloggar, samtidigt som pub­liceringarnas synlighet är beroende av ett fåtal aktörer och deras algoritmer.

I Sverige dominerar Google och Facebook, men även andra sociala medier som Twitter, Instagram och SnapChat är viktiga för olika grupper. Det faktum att ett fåtal aktörer dominerar marknaden får stora konsekvenser för både konsumenter och producenter av information. Allt måste anpassas för att kunna synas i och genom dessa de facto ”gatekeepers”.

Det som ytterligare förstärker de ledande aktörernas dominans är den sammankoppling mellan den fysiska och digitala informationsinfrastrukturen som ibland sker. Ju fler tjänster som blir inbyggda i den fysiska infrastrukturen, desto svårare är det att välja bort dem. Exempelvis gör smarta telefoner det ofta svårt att logga ut ur Google. Det gäller inte minst Android-telefonerna, vars Linux-baserade operativsystem (Android) ägs av Google.

Sökmotorers algoritmer arbetar inte enbart på användargenererade data, utan framför allt på det webbindex som utgör grunden för till exempel Google Sök. Det är detta index som ska genom­sökas för att hitta relevant information. Vid sökning är alltså kontroll över indexet minst lika viktig eller kanske till och med viktigare än kontroll över algoritmen. Google Söks dominans kan därför inte enbart ­förklaras genom deras algoritm, utan kanske i ännu högre grad genom deras omfattande index. Sökrobotar samlar in data från världens webbplatser och bygger av detta det index som användarna sedan söker i. Också insamlingen av data till Googles index är styrd med hjälp av algoritmer som talar om när data ska samlas in, hur mycket och i vilken ordning. Det finns enbart ett annat index som matchar Googles och det ägs av Microsoft och används av såväl Bing som Yahoo. Även några mindre, alternativa sökmotorer (till exempel DuckDuckGo och Qwant) har tillgång till Microsofts index. Yandex, en rysk sökmotor, liksom Baidu, Kinas dominanta sökmotor, har också egna index. Yandex och Baidu har numera större marknadsandelar än Microsofts Bing.

Det finns dock inget offentligt tillgängligt index av webben. Det betyder att möjligheten till utveckling av nya alternativa – kommersiella eller icke-kommersiella – sökmotorer är starkt begränsad. Det kan ses som ett problem för det demokratiska samtalets mångfald, och röster har argumenterat för upprättandet av ett oberoende index så att flera sökmotorer kan använda samma underlag.14

Vem styr över algoritmerna? Vem har ansvarsskyldighet?

Eftersom algoritmer styr stora delar av hur vårt samhälle fungerar är frågan om insyn i deras utformning och i de beslut de påverkar berättigad. Samtidigt är de mest dominanta algoritmerna grunden för företagens kommersiella framgång. Mycket av algoritmernas utformning är hemlig, inte minst på grund av konkurrenssituationen. Det finns en politisk diskussion kring insyn i utformningen av algoritmer. Bland andra har Tysklands nuvarande förbundskansler Angela Merkel lyft fram problemet med brist på transparens. Går det till exempel att rättvisemärka algoritmer eller kan vi diskutera algoritmer utifrån offentlighetsprincipen?15 Algoritmiska beslut drabbar inte enbart enskilda individer utan även samhället i stort. I den amerikanska presidentvalskampanjen hösten 2016 förekom återkommande anklagelser om olika ideologiska vinklingar av Google och sociala medier och deras algoritmer.

Algoritmer är dynamiska och förändras kontinuerligt samtidigt som de förfinas och därmed blir mer omfattande. Det är närmast omöjligt att studera algoritmers påverkan på ett exakt sätt då kod och människor är i ständig rörelse.16 Det finns helt enkelt ingen neutral punkt som algoritmer kan studeras utifrån. Olika tjänster och system interagerar hela tiden med varandra, bland annat beroende på de data som de bygger sina tjänster på och de plattformar som tjänsten används genom.17 De flesta stora tjänster kan i dag sägas operera med algoritmiska system snarare än med enstaka algoritmer.18 Det gör en fullständig insyn närmast omöjlig.

Algoritmer kan inte studeras isolerade utan måste ses som en del av en teknisk och social helhet. Samtidigt har automatiserat algoritmiskt beslutsfattande börjat genomsyra allt fler delar av samhället och lagstiftning kring detta börjat ta form. Exempelvis kommer Europeiska unionens nya dataskyddslagstiftning, som troligtvis börjar gälla 2018, att innehålla en ”Rätt till förklaring” gällande algoritmiska beslut om en person.19 Ett sådant algoritmiskt beslut kan handla om kreditvärdighet eller försäkringsklassning.

Diskussionen om insyn och ansvarsskyldighet kommer troligen att öka ju tydligare konsekvenserna av algoritmiska beslut blir för individen och samhället i stort. En sådan diskussion måste vara nyanserad och ta hänsyn till att algoritmiskt beslutsfattande kan ta sig olika uttryck i olika organisationer. Det kan röra sig om produktion av information, konsumtion på internet, organisering av arbete inom den privata sektorn eller – kanske i framtiden – beslut som rör socialförsäkringar inom offentlig eller privat sektor. Dessa exempel har olika delar av lagstiftningen att förhålla sig till och får helt olika konsekvenser för samhället och individen.

Informationsbubblor och personalisering

Det demokratiska samhället är beroende av ett öppet meningsutbyte och informerade medborgare. Vi har tillgång till mer information än någonsin tidigare i historien, men förutsättningarna för överblick av denna har i många fall försämrats.

Eli Pariser myntade uttrycket filterbubbla, med vilket han avser hur vår tillgång till information tenderar att bli allt mer personaliserad.20 Det innebär att två människor riskerar att ta del av olika information trots att de är intresserade av samma ämne. Personalisering bygger, vilket vi redogjort för i föregående kapitel, bland annat på vad en användare har klickat på, platsen varifrån användare når nätet, vilka vänner en användare har (till exempel på Twitter) och användarens sökhistorik. Med denna kunskap försöker algoritmen förutsäga vilken information användaren vill ha, som länkar, nyheter eller förslag på böcker.

Fördelen med personalisering är uppenbar, men den nackdel som brukar lyftas fram är att den kan leda till en bekräftelse av användarnas världsbilder genom att de nyheter eller webbplatser med innehåll som användarna håller med om prioriteras. Det är utan tvekan så att personalisering i sociala medier och sökmotorer vanligtvis underlättar avsevärt för användare. Om vi söker på pizzeria i Google är det en fördel om vi får tips på restauranger i vår geografiska närhet. Det är ett mervärde för tjänster som Amazon, Netflix eller Spotify att kunna föreslå böcker, filmer eller musik som vi annars kanske inte hade vetat fanns. Med detta sagt är det ett problem om vi inte vet om att ett visst innehåll prioriteras högre än ett annat, i vilken grad personaliseringen äger rum och vad det är för innehåll vi missar.

Dagens dominerande sociala medier ägs av globala kommersiella företag där konsumtionssamhällets logik många gånger finns inbyggd i deras algoritmer. Detsamma kan också sägas gälla sökmotorer. Därigenom har sociala medier och sökmotorer i regel en annan grundläggande utgångspunkt än den åsiktspluralism som ofta önskas ligga till grund för det demokratiska samhället. I stället för att skapa förutsättningar för meningsutbyte mellan en mångfald av synsätt och åsikter stärks ”det populära” och det individuellt anpassade.

Personaliseringens omfattning

Personalisering finns i olika grader i en rad olika tjänster. Googles algoritmer arbetar, som vi skildrar ovan, med olika faktorer för personalisering. I algoritmen finns det ett inbyggt användarperspektiv, vilket innebär att det är mycket svårt att undgå någon form av personalisering. Syftet är att öka sökresultatens relevans med utgångspunkt i att relevans är personlig och inte objektiv eller universell.

I en studie från 2013 visar forskare att i genomsnitt nära 12 procent av resultaten i Google är olika på grund av personalisering, men att det skiftar beroende på sökterm och resultatens rangordning.21 I en senare studie visar forskare att geolokalisering har stor betydelse för personalisering av webbsök, men att det även här finns stora skillnader beroende på sökterm.22 Geolokalisering betyder att tjänsten anpassar det som visas efter var användaren befinner sig eller brukar befinna sig geografiskt – till exempel i en stad, på landet, i ett fattigt område eller ett välbärgat. Det kan även föra med sig antaganden om till exempel etnicitet, politisk inställning eller socioekonomiska förutsättningar på gruppnivå som tillkommer och kompletterar individbaserade faktorer.23 Användare bidrar till att skapa dessa kategorier genom att förse Google med användardata samtidigt som kategorierna bidrar till att skapa användarprofiler. Relationen är alltså ömsesidig.

Även Twitter har en personalisering av flödet. Många tweets är länkar till nyhetsartiklar eller analyser från andra medier och om du delar politisk hemvist med dem som du följer ser du i regel enbart tweets som överensstämmer med dina värderingar. Det finns funktioner (topptweets, trendande tweets, rekommenderade användare) på Twitter som utnyttjar popularitetsmått för att synliggöra visst innehåll och dessa bygger på vilket vidare nätverk av följare man har. Sedan februari 2016 kan användare välja i sina inställningar i vilken grad man vill att flödet ska styras efter en annan algoritm än att alla ens vänners tweets presenteras kronologiskt.

Facebook är en avsevärt större tjänst än Twitter när det gäller antalet användare. Dess algoritm fungerar annorlunda och inkluderar betydligt fler faktorer. År 2015 publicerade Facebook en rapport där författarna hävdar att bubbel-fenomenet på Facebook främst beror på vad användarna medvetet väljer att klicka på.24 Studien har kritiserats och andra hävdar istället att Facebook faktiskt gömmer nyheter i flödet som Facebooks algoritm tror att du inte skulle hålla med om.25 I stället har argumentet framförts att den enskilde användaren borde kunna ställa in villkoren för vad som ska visas i nyhetsflödet så att mer av sådant som denne inte håller med om visas.26

Även Youtubes rekommendationssystem tenderar att skapa ideologiska bubblor.27 Förslag på liknande videoklipp tenderar ofta att fungera som en ekokammare för egna intressen och ståndpunkter. Algoritmer och tjänster kan i praktiken ses som medskapare av ett ideologiskt innehåll eftersom rekommendationstjänsten har en så viktig funktion för användarna. Vi ser här hur en förståelse av internet som en plats för offentligt meningsutbyte i betydelsen att alla har tillgång till information och att alla kan delta i ett åsiktspluralistiskt samtal stämmer dåligt överens med den fragmenterade verkligheten på internet.

14. Serenawestra. Dirk Lewandowski: Why We Need an Independent Index of the Web (filmklipp). 2013-11-11. http://networkcultures.org/query/2013/11/11/dirk-lewandowski-why-we-need-an-independent-index-of-the-web/ (Hämtad 2016-12-03)
15. Wass, F. Blogg: Så styr Facebook den svenska samhällsutvecklingen. Dagens Industri. 2016-04-16. http://digital.di.se/artikel/blogg-sa-styr-facebook-den-svenska-samhallsutvecklingen Hämtad (2016-10-27)
16. Introna, L. D. Algorithms, governance, and governmentality: On governing academic writing. Science, Technology and Human Values 41 no. 1 (2015): 17-49.
17. Seaver, N. Knowing algorithms. Media in Transition 8 (2014): 1–12. opublicerad.
18. Introna, L. D. 2015.
19. Goodman B. och Flaxman S. EU regulations on algorithmic decision-making and a ”Right to Explanation”. I International conference on machine learning workshop on human interpretability in machine learning (WHI 2016), June, 26–30, New York, NY, 2016.
20. Pariser, E. The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press, 2011.
21. Hannak, A., Sapiezynski, P., Kakhki, A. M., Krishnamurthy, B., Lazer, D., Mislove, A. och Wilson, C. Measuring personalization of web search. WWW '13 Proceedings of the 22nd international conference on World Wide Web, 527-538. 2013. http://personalization.ccs.neu.edu/papers/web_search.pdf (Hämtad 2016-01-22)
22. Wass, F. Blogg: Så styr Facebook den svenska samhällsutvecklingen. Dagens Industri. 2016-04-16. http://digital.di.se/artikel/blogg-sa-styr-facebook-den-svenska-samhallsutvecklingen Hämtad (2016-10-27)
23. Seaver, N. Knowing algorithms. Media in Transition 8 (2014): 1–12. opublicerad.
24. Introna, L. D. 2015.
25. Goodman B. och Flaxman S. EU regulations on algorithmic decision-making and a ”Right to Explanation”. I International conference on machine learning workshop on human interpretability in machine learning (WHI 2016), June, 26–30, New York, NY, 2016.
26. Pariser, E. The Filter Bubble: What the Internet Is Hiding from You. New York: Penguin Press, 2011.
27. O’Callaghan, D., Greene, D., Conway, M., Carth, J. och Cunningham, P. Down the (white) rabbit Hole: The extreme right and online recommender system. Social Science Computer Review 33 no. 4 (2015): 459-478.