Från paketförmedling till internet

Det finns flera källor på internet om hur Arpanet och internet uppstod. Det här kapitlet beskriver främst hur behovet av TCP/IP uppstod, och de designprinciper som ligger bakom. Utan Arpanet inget TCP/IP och utan TCP/IP inget internet. Därför behandlas Arpanet uppkomst kortfattat. Även standardiseringsprocessen i form av RFC:er tas upp. Här tas även upp hur den svenska grenen av internet kom igång på ett tidigt skede. Sista delen av kapitlet behandlar kortfattat framtiden för TCP/IP och internetprotokollen. Kapitlet kan läsas fristående.

Plötsligt hade vi fått något som hette internet. En del sa att det var en fluga som snart skulle vara förbi. Andra sa att det skulle förändra världen.

En sak är säker. Utan TCP/IP hade vi inte haft internet. Vi kanske skulle ha något annat protokoll som haft liknande funktioner men risken finns att vi skulle haft en massa öar av datorer och nät som inte var ihopkopplade. Varför blev det då TCP/IP som fick utgöra det klister som kopplade ihop nätverk, datortyper och program? Och hur länge till håller ett protokoll som har drygt 25 år på nacken? Är det inte dags att ersätta TCP/IP med något modernare?

För att göra det hela tydligare bör vi skilja på protokollfamiljen TCP/IP och internetprotokollen (internet Protocol Suite). Innan Arpanet konverterade till TCP/IP fanns ett nät av nät och en mängd program som kunde prata med varandra. Program som FTP och Telnet är äldre än själva TCP/IP. Självklart är det praktiskt om det finns en standard för hur program ska fungera för att överföra filer, skicka e-post, remote login, testa förbindelser med mera. internetprotokollen finns standardiserade och dessutom finns det ofta källkod och open-source exempel att hämta. Gillar man inte open-source av någon anledning finns även färdiga program och kommersiella distributioner. Kopplingen mellan TCP/IP och en mängd standardproblem hänger kvar än idag. Om vi säger att en dator har TCP/IP förväntar vi oss också att den har ett antal program. Men kopplingen är inte självklar och kommer säkert att förändras i framtiden.

Standardapplikationerna ovanpå TCP/IP är viktiga och har varit drivande för införandet av TCP/IP. Införandet av e-post har varit ett skäl att installera TCP/IP, det finns andra e-postsystem men med SMTP (Simple Mail Transfer Protocol) började e-posten bli global och kunna koppla ihop privatpersoner, universitet och företag. En standardiserad metod för att övervaka nätverk och noder har varit ett annat skäl. Då använder vi protokollet SNMP (Simple Network Management Protocol) ovanpå UDP ovanpå IP. I början av 1990-talet kom webben och vi fick ytterligare ett skäl att införa TCP/IP.

När TCP/IP utvecklades hade inte persondatorerna slagit igenom, de kom i början på 1980-talet. TCP/IP var främst avsett för användning på Arpanet, PRNET och SATNET. Vint Cerf lär själv ha sagt att om han hade vetat hur stort internet skulle ha blivit hade han gärna velat utveckla en ny version av TCP/IP.

Huvudarkitekterna bakom TCP/IP var två personer: Vint Cerf och Bob Kahn. De började arbetet under 1970-talet. Ungefär samtidigt utvecklades de så kallade OSI-protokollen och IBM hade gått i bräschen för idén med skiktade arkitekturer genom sin standard Systems Network Architecture, SNA. Världen hade helt enkelt behov av att koppla ihop datorer och program på standardiserade sätt. Alternativet var att bygga nya så kallade konverterare varje gång två datormärken eller -modeller skulle kopplas samman. Cerf och Kahn arbetade flera år med att sätta samman en blandning av dåtidens senaste landvinningar inom datametoder och beprövad teknik.

En tanke med TCP, som protokollet hette från början, var att koppla ihop tre paketförmedlade nät. PRNET var ett nätverk för paketförmedling över kortvågsradio. SATNET var ett nätverk för paketförmedlad trafik över satellit. Och på Arpanet satt datorer som det var intressant att komma åt. Dessa tre nät har olika egenskaper. Över radio har vi ont om bandbredd, över satellit har vi lång fördröjning men ganska mycket bandbredd och på Arpanet hade man gott om bandbredd och kort fördröjning.

Tidig idé om hur ett nät av nät skulle designas.

Ett protokoll som hanterar alla dessa nät blir en utmaning och självklart även en kompromiss. Har vi ont om bandbredd vill vi ha korta paketlängder och en minimal header, men avancerade funktioner kräver en header för att upptäcka borttappade paket etc. Lång fördröjning gör att vi inte kan kvittera varje paket för sig. (En vanlig webbsida idag kan vara hundratals paket. Skulle vi kvittera dem var för sig från en sajt via satellit skulle det ta säg 400 × 500 ms = 200 sekunder.) Lösningen på det här och liknande problem var att göra TCP adaptivt. Man mäter hur lång fördröjning man har och anpassar trafiken därefter, på motsvarande sätt anpassas trafikmönstret efter hur ofta man tappar paket.

En annan princip var att inte störa de protokoll och adresseringsprinciper som fanns på varje nät. De var optimerade för sitt syfte. För att koppla ihop nätverken skulle en enhet som kallades gateway användas. Varje gateway skulle uppträda som en vanlig nod i respektive nätverk, men paketet som den skickade skulle sedan ha en ny header: TCP. Principen med en ny adresseringsstruktur finns kvar i TCP/IP, med IP får vi en ny global adresseringsmekanism oberoende av om protokollet under bara kan hantera några hundra noder.

TCP byggde också på antagandet att de underliggande näten är otillförlitliga. De noder som är slutgiltiga avsändare och mottagare håller reda på vilka paket som kommit fram och vilka som behöver sändas om. Enstaka gateways och länkar kan tappa paket. De datorer som använder TCP är jämlikar, det vill säga det finns inget ”master/slave-” eller ”client/server”-förhållande. Alltså kan inte en dator sända ett paket till en annan och vara säker på att den mottagande datorn vill ta emot det. På engelska använder vi begreppet peer-to-peer.

Cerf och Kahn hade en ganska ödmjuk inställning till vad protokollet skulle användas till. Det fick andra avgöra. TCP såg till att dataströmmen som kom fram i ena ändan motsvarade vad som skickats i den andra. Protokollet är inte utvecklat för någon speciell applikation eller länk. De lade in funktioner för en avancerad flödeshantering med sekvensnummer och kvittenser, kryddat med en funktion som kallas sliding windows. En tanke var också att man skulle kunna prioritera mellan olika trafiktyper så TCP/IP när det rullades ut hade möjlighet att märka upp paket med ett fält kallat Type of Service (ToS).

Idén om skiktade arkitekturer hade spridit sig under mitten av 1970-talet och runt 1978 valde man att dela upp funktionera i TCP. De funktioner som behövdes för att välja väg och skicka ett paket vidare plockades ut och fick utgöra IP, internet Protocol. Detta medförde att gateways (routrar) bara behövde kunna IP, medan TCP byggdes in i avsändande och mottagande nod.

Runt 1981 fick företaget Bolt Beranek and Newman pengar från ARPA (Advanced Research Projects Agency) för att skriva en ny implementation av TCP/IP. Programmeraren Bill Joy skriver koden för BSD Unix och introducerar begreppet socket, som kommer att bli en de facto-standard för gränssnittet mellan applikation och transportnivå. Joy börjar sedan på Sun, och Suns arbetsstationer får med sig TCP/IP i sitt operativsystem baserat på BSD Unix. Samtidigt som Unix-baserade arbetsstationer börjar komma ut på marknaden börjar persondatorer se dagens ljus och med dem kommer behovet av snabba nätverk. Ethernet blir det dominerande snabba lokala nätverket. Och till slut vill vi koppla ihop alla lokala nätverk. internetworking blir ett begrepp.

TCP/IP har en motig start. Internationella Standardiserings Organisationen ISO jobbar samtidigt med sitt förslag på en skiktad arkitektur: OSI. Trots att deras arbete inte är klart får de med sig många stora företag som Digital, HP och IBM. Vid offentliga upphandlingar är det OSI som gäller i Europa och USA. OSI är mer akademiskt uppbyggt och syftar även till att standardisera ett antal applikationer. Arbetet med OSI tar tid och TCP/IP visar sig fungera bra. I upphandlingar börjar man så småningom styra leverantörer mot att ”stödja OSI men tills vidare kan TCP/IP användas”.

Arpanet

Datorer användes från början mest för beräkningar och till att skapa tabeller (så vi kunde räkna vidare för hand). På svenska kallade vi det dator men på flera språk kom namnet att färgas av just möjligheten att beräkna. Men redan i början av 1960-talet fanns det folk som såg att de skulle kunna göra något annat. J.C.R. Licklider var en av dem. Han var en tvärvetenskapligt intresserad psykolog som kommit i kontakt med datorer tidigt. Han var en av de tidiga cheferna på ARPA. Licklider såg nya möjligheter med datorer och skrev ett antal artiklar och publikationer om nätverk och datorer. Han skrev till exempel att den politiska processen skulle kunna bli en enda stor telekonferens. Och han förutsåg hur betydelsefull kommunikation skulle kunna vara för forskning och utveckling. Detta skrev han under en tid då det knappast fanns datorer och än mindre några nätverk.

I skuggan av det kalla kriget satsade USA mycket pengar på grundforskning. Man hade flera datorer och ett visst behov av att koppla ihop dem. En matematiker vid namn Leonard Kleinrock hade utvecklat flera modeller för hur en ny slags meddelandeöverföring skulle kunna byggas. Tekniken fick senare namnet paketförmedling, men Kleinrock visade på möjligheten att dela upp ett meddelande i mindre block och hur matematisk köteori gjorde det möjligt att förutsäga nätverkets beteende. Paul Roberts var väl insatt i Klenrocks teorier och bestämde under sitt arbete på ARPA att det nya nät som skulle koppla ihop ARPA:s datorer skulle bygga på paketförmedling.

En teknisk specifikation skrevs och den efterföljande upphandlingen vanns av ett företag som hette Bolt Beranek and Newman. Tillsammans lyckades man bygga världens första paketförmedlade nätverk. Det visade sig att paketförmedling inte bara var en teori som saknade praktiskt betydelse utan en praktiskt användbar teknik. Arpanet var klart och fungerade 1969. Men vad skulle vi ha det till? Det dröjde ett par år innan e-post och filöverföring kom på plats ordentligt.

Ett helt annat spår som ledde till Arpanets födelse var en polskfödd amerikan vid namn Paul Baran. Baran skrev under tidigt 1960-tal ett antal artiklar om kommunikationssystem där han pekade på sårbarheten i dåtidens telekommunikationer. Ett fåtal missiler skulle kunna slå ut ett par av de centraliserade knutpunkter som fanns, de övriga skulle bli överlastade och hela systemet fungera dåligt. Om nätet istället kunde digitaliseras skulle man kunna göra flera hopp i nätet (analog förstärkning fungerar inte lika bra, vi förstärker även bruset). Barans idéer var inspirerade av hur hjärnan fungerar, antalet kopplingar är minst lika viktigt som antalet datorer (eller hjärnceller).

Genom att använda många kopplingar med lägre kapacitet kan vi skapa ett nätverk som fungerar bättre som helhet. För att detta ska fungera behövs någon slags adaptiv vägvalsalgoritm (det vi idag kallar routing). Barans idéer möttes med stor oförståelse från den amerikanska telekombranschen, men till slut lyckades han övertyga Pentagon och flygvapnet att de kunde vara värda att prova.

Arpanet byggdes ut i flera omgångar under 1970- och 80-talet med kraftfullare teleförbindelser och fler och fler anslutna företag, organisationer och universitet. Det fanns även andra större nät byggda på andra protokoll som började ansluta sig och TCP/IP blev den gemensamma faktorn. Militären tyckte nätet blev för stort och satte sig på en egen gren kallad MILNET. För forskningsvärlden byggdes NSFNET. Då TCP/IP var den gemensamma faktorn för dessa nät började man någon gång på 1980-talet att referera till nätet som ”internet”.

TCP/IP:s första år på internet

En fundamental mekanism bakom framgången för TCP/IP är att protokollen utvecklas. TCP har förbättrats i flera omgångar avseende omsändningar och flödeshantering. Routingen av IP-paket har utvecklats från ganska enkla mekanismer i det första protokollet för programmet ”routed” (som sedan blev RIP) till dagens OSPF. De flesta förändringar har man kunnat lägga till och således blir tekniken bakåtkompatibel. Två TCP-implementationer kan handskaka och via optioner se om de kan använda mer avancerad flödeshantering.

När TCP/IP började användas i större nät visade det sig att näten var svåra att få igång efter driftstopp. När infrastrukturen kommit igång satte flera noder igång med att lasta nätverket, och nätverksutrustning behöver lite tid för att lära sig hur nätet ser ut och vilka MAC-adresser som används. En lösning blev slow start föreslagen av W.R. Stevens (se kapitlet TCP- och UDP-nivån). Tillsammans med andra mekanismer för effektiv flödeshantering har TCP blivit 2 till 10 gånger mer effektivt än vad det var från början.

Hur stora headers ska vi tillåta? På ett snabbt lokalt nät spelar det mindre roll men för en långsam uppringd förbindelse är det viktigt. van Jacobson föreslog en metod för komprimering av headers som fortfarande är populär (RFC 1144), men idag finns fler andra varianter.

Men vi har inte kunnat utveckla oss från alla problem. IP utvecklades innan persondatorer, lokala nätverk, Unix arbetsstationer och mobiltelefoner hade slagit igenom. Det var framsynt att välja en adressrymd om fyra miljarder adresser (32 bitar). Men det var synd att man inte valde en större adressrymd. Dessutom delade man initialt in adresserna i vad som kallades klass A-, B- och C-nät.

  Första siffran börjar på Antal möjliga nätverk Antal noder per nätverk Subnätmask (standard)
A 0-127 128 16 777 216 255.0.0.0
B 128–191 16 384 65 536 255.255.0.0
C 192–223 2 097 152 256 255.255.255.0

Adressklasser.
Det finns två ytterligare klasser. Klass D-nät börjar på 224–239 och används för multicast. Klass E-nät börjar på 240–255 och har reserverats för experimentellt bruk.

Förr delades IP-adresser in i vad som kallades A-, B- och C-nät. Idag används istället klasslösa nät.

Det här innebar att 50 procent av adressutrymmet reserverats för mycket stora nät. Därför har man idag övergett denna historiska uppdelning även om man ofta refererar till exempelvis ett klass C-nät. (Ofta används det felaktigt, ett nät 82.3.4.0 med mask 255.255.255.0 betecknas C-nät. Det är egentligen ett subnät ur ett A-nät med en mask som ett klass C-nät.) I denna guide används i stället beteckningar ur klasslös indelning: /24 för masken 255.255.255.0.

På senare år har man börjat dela ut subnät ur det som historiskt sett var reserverat för klass A-nät. Detta har gjort att det historiskt har rått delade meningar om eventuell brist på adresser på internet och ifall vi behöver IPv6 eller inte, men på sikt räcker inte heller denna metod. Men som internet är uppbyggt idag har till exempel vissa amerikanska universitet vart och ett fler publika IP-adresser än hela Kina.

I en källare på KTH

Det svenska universitetsnätet införde TCP/IP 1988, i och med det fick svenska och nordiska universitet och högskolor tillgång till internet. Televerket var inte berett att delta från början, e-post mellan företag fanns redan via Memo och man tjänade pengar på sina X.25-nät. Dessutom skulle ju OSI komma. Så en viktig internetknutpunkt byggdes upp i källaren på KTH.

Många svenskar var inblandade i det tidiga byggandet av internet-Sverige. Björn Eriksen var den som fick igång e-post mot EUnet i Amsterdam 1983. Björn Eriksen var även den som i stort sett själv kom att hantera den svenska toppdomänen ”.se” de närmsta femton åren. Under denna tid växte antalet ansökningar kraftigt.

Alla dessa ansökningar hanterades av en person. Björn Eriksen var även inblandad i tilldelning och utdelning av IP-adresser. En annan tidig internetpionjär i Sverige är Peter Löthberg. Historierna om hans hemmabyggda atomur för att erhålla korrekt tidsstämpling och hur han lyckades sammankoppla i stort sett allt elektroniskt med VAX:ar och Cisco-routrar under 1990-talet är många.

Intressant ur svenskt perspektiv är att vi var tidigt ute på internet-området. Detta var inte politiskt drivet, politikerna vaknade först i mitten av 1990-talet när det mesta var på plats (PTS, Post- och Telestyrelsen, drev i och för sig under 1990-talet en lyckad förändring så att knutpunkterna blev flera och flyttades till driftsäkra bergrum). Inom EU hade man främst en inriktning mot OSI-protokollen, något som hämmade utveckling av internet i flera år för ett flertal europeiska länder. Universiteten i Sverige var tidigt ute med TCP/IP, flera av de verksamma hade varit i USA och sett att internet fanns på plats och fungerade. Ett spår av Sveriges tidiga uppkoppling mot internet är att Netnod AB driver en av de tretton rotservrarna för DNS.

Under tidigt 1990-tal började internet öppnas för kommersiella intressenter. Detta nät erbjöds sedan Tele2 och Televerket (Telia). Televerket avböjde men Tele2 såg potentialen till vad som sedan fick namnet Swipnet. Swipnet var den första kommersiella internettjänsten utanför USA. Till en början var Swipnet inriktade på företag. Webben hade börjat se dagens ljus men internettrafiken i Sverige i början av 1990-talet var främst NNTP (news) och e-post.

I IT-branschen hade det börjat bli trendigt att skriva ut e-postadresser i annonser (även om det ofta inte var någon som svarade när man skickade frågor till info@firma.se eller support@firma.se). 1994 plockade Swipnet ihop ett erbjudande om modemaccess med en bok. Det var tänkt att bli årets julklapp. Samma år hade Carl Bildt skickat e-post till Bill Clinton. En handfull företag hade förstått potentialen i vad webbsidor skulle kunna användas till. Hjulet hade börjat rulla och det skulle gå snabbt.

Request For Comments

Arpanet, och kanske även paketförmedling, hade i början karaktären av forskningsprojekt. Men i takt med att nätet byggdes ut och fungerade började det driftsättas. För att formalisera de överenskommelser som gjorts började man dokumentera. Från början handlade det om anteckningar från möten och diverse debattinlägg. Gradvis gick dessa dokument sedan över till mer formella standarder för protokoll och program. IP, ICMP och TCP har RFC-nummer 791–793 så processen fanns på plats före TCP/IP.

I april 1969 skrev Steve Crocker det första dokumentet i denna serie, följaktligen nummer ett. Dokumentet beskrev mötesanteckningar angående ett protokoll mellan två noder ”Host Software” på Arpanet. Enligt historien knappade han in dokumentet i ett badrum för att inte störa sina kamrater som han delade lägenhet med. Han valde att sätta namnet till Request For Comment, RFC. Ett namn som inbjuder till kommentarer och en öppenhet kring hur design och protokoll stegvis kan förbättras.

Ganska snart uppstod ett behov av samordning inom RFC:er. Man var tvungen att kontrollera så att en RFC inte stred mot en tidigare. Eller rättare sagt om det sker så måste man tala om vilken av varianterna som gäller för kommunikation på internet just nu. Det står var och en fritt att komma med förslag på hur förbättringar ska införas. Den första person som tog på sig arbetet med att utföra denna uppgift var John Postel. John Postel innehöll denna position från år 1969 till sin bortgång 1998. Han utförde den med stor talang både vad det gäller kunskap och integritet. I takt med att internet växte och kommersialiserades blev det ännu viktigare vilka RFC:er som fick status ”Standards track” respektive ”Best Current Practice” eller non-Standard.

En översikt över vilka RFC:er som har status ”full standard” kan man få i RFC 5000. Idag år 2009 rör det sig om ett hundratal.

Arbetet med RFC:er skiljer sig lite från traditionellt standardiseringsarbete. Man var tidigt inne på att få fram fungerande metoder och protokoll. Alltså antog man inte en standard om det inte fanns implementerad på någon plattform och senare tillkom kravet på att man dessutom ska ha skrivit en implementation till på en annan plattform med RFC:n som utgångspunkt. Dessa två ska fungera ihop (interoperabilitet) för att säkerställa kvaliteten på en RFC. Om dessa villkor uppfylls så kan RFC:n få status ”full standard”.

Det finns dock ett flertal RFC:er som inte alls har ambitionen att bli standard. De kanske bara innehåller goda råd eller sammanställer gamla RFC:er på ett nytt sätt. Därför finns flera typer av RFC:er:
Standards track (med olika status)

  • draft (utkast)
  • proposed
  • full standard
  • obsolete

Best Current Practice BCP (utvecklas i stort sett som standard track)

Non-standards track

  • informational
  • experimental
  • historic

Den officiella platsen för RFC:er finns på www.rfc-editor.org.

Under flera år innehöll var hundrade RFC, de som slutar på 00, referensinformation om vilken status och typ olika RFC:er hade. RFC 3700 innehöll sådan information, den ersattes år 2008 av RFC 5000. Idag är det säkrast att kontrollera statusen på www.rfc-editor.org.

Framtidens IP-nät

Hur ska internetprotokollen utvecklas i framtiden? Man kan titta på IETF:s (internet Engineering Task Force) utvecklingsområden och arbetsgrupper för att få en uppfattning om vad som är huvudsakliga utvecklingsområden.

Område Antal arbetsgrupper
Applications Area 12
General Area 1
internet Area 29
Operations and Management Area 18
Real-time Applications and Infrastructure Area 14
Routing Area 16
Security Area 17
Transport Area 15

IETF:s (internet Engineering Task Force) utvecklingsområden och arbetsgrupper ger en bild av hur de anser att internetprotokollen ska utvecklas i framtiden.

Det exakta antalet varierar med tiden. Tanken är att en arbetsgrupp ska ha begränsad livslängd för att lösa en specifik uppgift. Antalet arbetsgrupper har varit mellan 100 och 150 i flera år.

Vill man titta på lite längre sikt kan man undersöka vad som är på gång inom IRTF, internet Research Task Force (www.irtf.org). Man arbetar inom ett tiotal områden med siktet inställt på lite längre avstånd i både tid och rum…

De principer som används på internet när design och protokoll tas fram ska vara skalbara. Samma teknik ska fungera för 100 såväl som 10 000 000 användare.

Användningen av internet har ändrats flera gånger sedan TCP/IP blev standard. E-post var drivande i början men det var i början av 1990-talet news-grupper som stod för huvuddelen av all trafik. När sedan webben slog så förändrades trafikmönstret. Från 1990 till 2000 räknar man med att antalet nätverk anslutna till internet gick från storleksordningen 1 000 till 100 000, antalet användare ökade även de med en faktor 100. När sedan fildelning och peer-to-peer-nät återigen förändrade hur internet används har vi alltså ett nätverk som är mångdubbelt större än när protokoll och principer fastställdes.

När det här skrivs har uttrycket ”webben 2.0” använts i ett par år. Webben skulle ha kommit till en ny nivå där främst bloggar, podcasting, chat, wiki och virtuella världar är de drivande krafterna. Detta är möjligt tack vare den generella arkitekturen i TCP/IP och på internet. Alla mekanismer för detta ligger bakåt i tiden: möjligheten för vem som helst att sätta upp en server och/eller vara publicist. Meddelandetjänster typ IRC har funnits länge. Det är främst tidsperspektivet (med wiki kan vem som helst ändra innehållet på webbsidor snabbt) och den stora mängden publicister som är nytt. Och detta hade inte varit möjligt om inte tekniken varit lättanvänd.

internet, TCP/IP och RFC:er är inte bara arkitektur och standard. Det är även ett arbetssätt med öppenhet och med ett arbetssätt som tillåter flera parallella utvecklingsspår. TCP/IP står inför en mängd utmaningar om ett och samma protokoll ska bli både bättre på att fungera i realtid, bättre på säkerhet, kunna hantera mångdubbelt större nät och samtidigt bli bättre på trådlös överföring. Men arbetssättet inom internetgemenskapen gör att vi kan prova flera parallella utvecklingsspår. Och den här guiden handlar till stor del om hur vi ska utveckla TCP/IP mot bättre funktioner för trådlöshet, realtid och säkerhet. Det är en komplex fråga.

Om jag skulle göra några gissningar utöver detta skulle jag tro att vi måste adressera hur lagar ska appliceras på internet. internet befinner sig i en slags medeltid. Ute i de stora skogarna finns det gott om stråtrövare. Vi skyddar oss med att bygga stadsmurar och fästningar (brandväggar). Men är detta rätt lösning? Det är inte säkert att vi kommer att få vara anonyma när vi använder internet om ett par decennier.

Man kan tycka vad man vill om de direktiv som EU och svenska staten vill använda för att tvinga operatörer att logga varje uppkoppling, men en regel som man har nytta av är att internetoperatörer tvingas filtrera trafik så att avsändaradresserna inte manipuleras. Som internet fungerar idag kan en avsändare på vissa delar av internet enkelt manipulera sin avsändaradress på IP-nivå. Detta är ett skäl till att det är enkelt att uppträda anonymt på internet.

Operatörerna skulle enkelt kunna kontrollera att avsändaradress alltid stämmer med de IP-adresser som anslutningen tilldelats och jag tror att vi kommer hamna där. (Intressant nog visade det sig under 2007 att svenska myndigheter och ambassader själva använde anonymiseringstjänster för att minska spårbarheten. Detta blev uppmärksammat då en anonymiseringstjänst delvis blev avlyssnad och en mängd inloggningsuppgifter blev utlagda på internet.)

Vi vet heller inte om alla operatörer kommer fortsätta att byta trafik med varandra så oreglerat som det sker idag (det tekniska begreppet mellan operatörer är peering). Idag utbyter i stort sett alla operatörer trafik med varandra i ett världsomspännande nät. Det här är fundamentalt inom internet. Men det är från ett fåtal nät i världen som huvuddelen av all spam kommer. Begreppet peering kommer från att vi ska mötas som jämlikar men det fungerar inte då ett fåtal operatörer inte får ordning på hur deras nätverk användas. Alltså finns risk att vi i framtiden sätter upp stora ”tullhus” eller karantäner mot dessa nätverk. Eller också får de inte vara med alls och internet fragmenteras.

Ur teknisk synvinkel tror jag att trafiken kommer att omfatta mer och mer realtidsöverföring av audio och video, med andra ord IP-telefoni och IPTV (ingen ovanlig gissning...). IP är tänkt att kunna hantera multicast men det är först på senare år som vi kunnat hantera det i större skala. Och i framtidens internet måste vi använda multicast om vi ska använda nätets resurser effektivt.

Nästa version av IP, IPv6, har funnits i flera år men införandet har gått långsamt. På senare år har det blivit allt mer uppenbart att adressbristen inom IPv4 kommer att begränsa tillväxten för internet. För närvarande delas det ut ungefär 80 miljoner IPv4-adresser per år i hela världen. De IP-adresser som inte delats ut ännu räcker bara i ett par år till.

Under 2008 skickade IANA, och ett flertal andra organisationer som arbetar med internets infrastruktur, ut ett meddelande där man uppmanar organisationer att planera för och börja använda IPv6. När IPv4-adresserna blir en bristvara får man göra något drastiskt. Flera möjligheter har diskuterats som att börja ta betalt för adresser, att börja ta tillbaka adresser som inte annonseras på internet eller att lappa och laga i IPv4. Man har även diskuterat att börja använda adressöversättning i ännu större grad eller att vara ännu mer restriktiv i utdelningen.

Inget av dessa alternativ är problemfritt. Det kanske enklaste är att börja ta tillbaka adresser. När organisationen ISOC under 2009 frågade sina medlemmar visade det sig dock att cirka 75 procent tyckte att någon annan skulle lämna tillbaka adresserna, bara 25 procent kunde lämna tillbaka delar av det egna adressutrymmet. En övergång till IPv6 är inte problemfri men vi har egentligen inga problemfria alternativ.

Referenser

Where Wizards Stay Up Late av Katie Hafner, Matthew Lyon 1996

De byggde internet i Sverige av Inga Hamngren, Jan Odhnoff 2003

RFC 1958 från Architectural Principles of the internet

RFC 3700 med flera från internet Official Protocol Standards