Sluta lappa internet!

Internets brister kostar miljarder.

I juli 1992 höll en av internets förgrundsgestalter, David Clark, ett föredrag om den tekniska uppbyggnaden av nätet. Det är visserligen bara 14 år sedan, men mätt med internettid är det länge sedan. Då var nätet mest en angelägenhet för tekniker. I den mån någon fick ett datorvirus kom det med en diskett. Spam var bara en brittisk köttkonserv – odödliggjord av Monty Python-gänget – och ännu inte oönskad e-postreklam. Och ingen oroade sig för att knappa in sitt kontokortsnummer, för det fanns ännu inget att köpa på nätet.

David Clark berättade i stället om tilldelning av adresser och om hur nätet kunde fortsätta att växa. Bara på en punkt nämnde David Clark nätets mörka sida: bristen på inbyggd säkerhet. Han anade problem i fjärran.

Vi anpassar oss

Sedan dess har det som bekant blivit betydligt värre. Men förändringen har skett långsamt och vi har anpassat oss. Frågan är hur länge till det håller:

– Vi är vid en punkt där nyttan med nätet håller på att överskuggas av dess problem, säger David Clark.

Enligt företaget Messagelab, som filtrerar ut e-post från virus, innehåller ungefär vart trettionde e-brev någon form av farlig kod. Analysinstitutet Pew Internet & American Life Project rapporterade förra året att 43 procent av de amerikanska internetanvändarna trodde sig ha blivit smittade med spionprogram eller annonsprogram bara genom att besöka olika webbplatser. Hela 91 procent hade utvecklat strategier för att undvika dessa problem.

– Gå till en bar och du hör folk tala om brandväggar. Det hände aldrig för tre år sedan, säger Susannah Fox, en av de ansvariga för studien.

Till det kommer den oönskade reklamposten: spam. Det är svårt att säga hur stort problemet är, men uppskattningsvis är 40-60 procent av all e-post spam. Men oavsett den exakta siffran tar oönskade e-brev alltmer tid från användarna och gör e-post till ett allt mindre effektivt verktyg.

På senare tid har också nätfiske, på engelska phishing, vuxit dramatiskt. Nätfiske går ut på att lura av användarna känsliga uppgifter, som lösenord och kontokortsnummer. Ofta går det till så att du får ett e-brev som ser ut att komma från ett känt företag. Du uppmanas att klicka på en länk för att uppdatera viss information. Länken går dock till en webbplats som är förfalskad. Bluffwebbplatsen är enbart till för att lura av besökaren känsliga uppgifter som bedragaren vill åt.

Ytterligare ett nytt hot är så kallade botnets: samlingar av kidnappade datorer som utför fjärrstyrda uppgifter, som att skicka e-post eller attackera webbplatser. Denna typ av olovliga datorlån – som ökat genom att allt fler har bredband och aldrig stänger av sina datorer – har öppnat för en ny typ av kriminalitet, digital utpressning. Hackare hotar helt enkelt att attackera företag via webben om de inte får betalt. Enligt en undersökning vid Carnegie Mellon University hade 17 av 100 tillfrågade företag i USA blivit utsatta för denna nya typ av utpressning.

Cyberterrorism

I själva nätet finns inget som kan stoppa virus, spam, nätfiske eller botnets. Brandväggar och antivirusprogram har lagts till i efterhand. De är motmedel i en digital kapprustning, men de ligger alltid steget efter.

Och då har vi ännu inte sett något riktigt stort utslag av cyberterrorism, ett digitalt elfte september. Vad händer när en terrorattack riktas mot internet? Om internet hade stannat år 1992, när David Clark höll sitt föredrag, hade inte mycket påverkats. I dag skulle ett utslaget internet få konsekvenser långt utanför datorvärlden.

Att systemet ändå fungerar beror bland annat på att de som ägnar sig åt kriminella aktiviteter, faktiskt inte fullt ut lyckas utnyttja sina skapelsers möjligheter. Det finns studier som visar att ett virus skulle kunna spridas snabbare och få allvarligare konsekvenser med ytterligare några få rader kod.

Internet hänger inte med

Spam, virus och andra brister i säkerheten är de problem på internet som märks för användarna, men det finns faktiskt ytterligare skäl att fundera på om internet bör byggas om från grunden.

Internets originalprotokoll – reglerna för hur komponenterna på internet ska kommunicera med varandra – designades på 1960-talet för att göra en enda sak: underlätta datakommunikationen mellan ett par hundra akademiska och statliga användare. Systemet förutsatte att man kan lita på samtliga användare och att användarna sitter vid stora datorer som står stilla.

Sedan dess har nätet växt, med datorer som rör sig, datorer som man inte kan lita på, innehåll som inte bör spridas och som man inte kan lita på. Dessutom kommer nya tilllämpningar hela tiden: fildelning, bloggar, podradio, internettelefoni.

Och för att klara det har nya komponenter lagts ovanpå det ursprungliga nätet. Teknikerna har lappat och lagat och hittat tillfälliga lösningar för att kringgå de problem som uppstått. Nästan uteslutande har bristerna åtgärdats först när de uppstått, och då med resultatet att den från början enkla kommunikationstekniken har blivit snårig och invecklad.

Bilar talar med bilar

Nya tekniker knackar dessutom på dörren för att kopplas upp mot nätet, och de kräver nya lösningar, nya tillägg.

– Framtida nät kommer inte att bestå av persondatorer som kopplar upp sig mot stordatorer. Det kommer att vara en bil som talar till en annan bil, en maskin som talar med en annan maskin, och inte en människa som talar med en annan människa, säger Dipankar Raychaudhuri, chef för Wireles Information Network Laboratory vid Rutgers University.

De nya tilläggen är ett problem i sig. Olika användare och olika program använder olika tillägg för att lösa samma problem. Vissa personer installerar inte tilläggen, trots att de skulle behöva det, andra installerar tillägg de inte behöver. Dessa tillägg utgör, både när de finns och inte finns, ett system som är mycket mer komplext än det ursprungliga internet.

– I 30 år har vi stegvis lagt till förbättringar och korrigerat fel vi upptäckt. När vi ser en svaghet försöker vi laga den, säger Larry Peterson, datavetare vid Princeton University.

Det är en metod som visserligen har fungerat i 30 år. Men hur länge kan man hålla på utan en långsiktig plan? Tilläggsstrategin är dessutom dyr.

– Vi håller på att täta hål i en vall, säger Tom Leighton, grundare och forskningschef vid Akamai, ett företag som ser till att webbplatser alltid är tillgängliga. Han är också medlem i president George Bushs Information Technology Advisory Committee.

– Det blir fler och fler hål, och mer och mer resurser ägnas åt att täta dem, vilket betyder att resurserna för att förändra internet från grunden blir mindre och mindre.

När Tom Leighton säger resurser menar han tiotals miljarder kronor. Ta bara Microsoft. Företaget satsar 40 miljarder kronor årligen på forskning och utveckling. Ungefär en tredjedel av pengarna satsas på säkerhet.

– För tio år sedan designade folk program som gav nya funktioner, bättre prestanda och enklare handhavande. I dag satsar alla på säkerhet, säger Steve Lipner, chef för Microsofts säkerhetsstrategi.

Det är förstås lätt att invända att Microsoft självt har varit med om att skapa detta problem. Företaget får nu betala för att i åratal ha sålt osäkra produkter. Men inte bara Microsoft drabbas.

– Utgifterna för säkerhet är som en skatt på 30 procent, säger Eric Brewer, chef för Intels forskningslaboratorium i Berkeley, Kalifornien.

– Vi kan låta saker vara som de är, menar han, men ”skatten” kommer troligen att stiga.

Det nya nätet

Det finns med andra ord många skäl att ta David Clarks uppmaning på allvar och försöka bygga internet på nytt. Men hur gör man det?

– Det är inte så att det finns någon superteknik som vi glömde att installera. Vi måste ta de tekniker vi känner till och sätta ihop dem på ett annorlunda sätt så att vi får ett nytt, sammanhängande system, säger David Clark.

Det amerikanska vetenskapsrådet, National Science Foundation (NSF), har satt samman ett femårigt forskningsprogram som för två miljarder kronor ska ta fram en ny arkitektur för internet som är säkrare, öppnare och lättare att administrera.

– Om vi lyckas med det, är det större än något man någonsin gjort inom datavetenskapen, säger Guru Parulkar, som arbetar vid NSF med det nya forskningsprogrammet.

NSF hoppas att projektet samtidigt ska kunna utveckla en testmiljö där man kan kontrollera att den nya arkitekturen verkligen är bättre än den gamla. Att just det amerikanska vetenskapsrådet satsar stora pengar på att utveckla ett bättre internet är ingen tillfällighet.

– USA är angeläget om att behålla initiativet när det gäller en av vår tids främsta teknikutvecklingar, säger Björn Pehrson, professor i telekommunikationssystem vid Kungliga Tekniska högskolan i Stockholm.

Annars tycks Europa just nu ha försprånget när det gäller forskningen om ny arkitektur, bland annat inom EU-projektet Ambient Networks.

– Att Europa just nu har ett litet försprång beror nästan uteslutande på att de amerikanska forskarna haft mycket låg finansiering för denna forskning under några år, säger Bengt Ahlgren vid Swedish Institutet of Computer Science (SICS).

Bengt Ahlgren kommer att leda SICS Center for Networked Systems, ett centrum som startar i höst och ska arbeta med just konstruktionen av ett nytt protokoll för internet.

Fyra mål med nya internet

David Clark sätter själv upp fyra mål som han anser att ett nytt internet måste nå upp till för att bli tillräckligt mycket bättre än det gamla. Först måste nätet få en grundläggande säkerhetsstruktur – en möjlighet för användarna att kontrollera identiteten hos den de kommunicerar med.

Det andra målet är att internetoperatörerna ska kunna styra trafiken. Viktiga informationspaket ska kunna ges företräde, och de som betalar mer ska kunna få större tillförlitlighet. Det tredje målet är att alla typer av datorer ska kunna kopplas till internet, inte bara persondatorer, utan även sensorer och inbäddade system (små datorer som sitter i bilar, kylskåp, tv-mottagare och så vidare).

Det fjärde och sista målet är att göra internet lättare att sköta. Till exempel borde där finnas teknik som rapporterar när något på nätet gått sönder, när det är trafikstockning och när ett virus börjat sprida sig.

Inget av dessa mål är särskilt svåruppnåeligt. Det finns till exempel flera lovande tekniker som avgör om den som är uppkopplad är behörig, utan att identiteten röjs. Det finns också fungerande teknik som kan placeras i internetväxlar för att sniffa på passerande datatrafik och upptäcka virusmaskar som krälar förbi.

Visserligen används inte dessa tekniker i någon större utsträckning i dag – de är bara prototyper eller i bästa fall små kommersiella produkter – men de finns. Det största hindret för dem är dock inte om de finns eller fungerar, utan att de inte efterfrågas. Problemet är att internet trots allt fungerar som det ser ut i dag, krismedvetenheten är inte tillräckligt stor.

Är nya internet bättre?

Kanske vore därför den mest framkomliga vägen att bygga ett nytt internet parallellt med det nuvarande. Tanken skulle i så fall vara att först koppla upp användare med speciella krav, till exempel forskningsinstitutioner runt om i världen, och låta dem visa att det fungerar. Därefter kan fler flytta över som en följd av efterfrågan från användarna.

Det finns dock skeptiker som misstänker att detta nya, säkrare internet kommer att bli mer komplicerat och därmed mer felbenäget än det gamla raka och enkla nätet. Generellt brukar man säga att själva nätet ska vara dumt, men att de smarta prylarna i nätets ändar ska bli smartare.

– Tekniskt sett fungerar dagens internet förvånansvärt väl, säger Björn Pehrson. Förbättringar behövs förvisso på en lång rad punkter, men den grundläggande egenskap som har gett internet dess framgång, det standardiserade IP-paketet som används för alla tjänster och kan skickas över alla typer av länkar, kan jag inte se skulle kunna förändras i grunden utan att öka komplexiteten avsevärt och göra problemen värre.

Visst är problemen med virus, dataintrång och kränkningar allvarliga, men Björn Pehrson anser att bara en del av lösningen är teknisk.

– David Clark diskuterar tekniska lösningar för att lösa problem som inte bara är tekniska, kanske inte ens främst tekniska, säger Björn Pehrson.

Andra brister viktigare

Om han skulle upprätta en lista över punkter för att förändra internet kommer tekniska lösningar först på tredje plats. Betydligt viktigare är att lösa regelverk och policy för hur infrastrukturen ska byggas och vem som ska ha tillträde till den, liksom att användarnas roll måste stärkas.

Björn Pehrson får till viss del medhåll av Vinton Cerf, konstruktör till ett av internets protokoll och numera chefsevangelist för internet hos Google.

– Jag är inte nöjd med hur det är nu, säger han. Jag gillar inte spam, jag är inte glad över känsligheten för attacker, men det är i första hand datorernas operativsystem som inte skyddar sig själva. Man kan fråga sig varför nätet ska behöva göra det.

Enligt honom ska problemen i första hand lösas där de uppstår: i utrustningen och i programmen som ansluts till nätet.

Men även om det finns fler som tror att försök att bygga ett nytt smartare internet inte kan fungera, inser också många att situationen är bräcklig. Om det sker en stor digital terrorattack, kommer trycket på politikerna att begränsa möjligheterna på nätet att vara stort. Då får vi ett nät som visserligen blir säkrare men också mycket tråkigare och ointressantare. Och då är kanske ändå tanken att bygga något mer komplicerat från grunden inte en så dum medelväg.

Upptäck F&F:s arkiv!

Se alla utgåvor