Bild: Getty images

Årets fysikpristagare lade grunden till dagens AI

Geoffrey Hinton skrev under ett upprop om riskerna med AI. Nu delar han Nobelpriset i fysik med John Hopfield för deras banbrytande arbete inom maskininlärning och artificiella neuronnät.

I dag ligger maskininlärning bakom flera kända teknologier som är en del av vår vardag, som språkmodellen Chat GPT, eller som förutspås bli vardagliga i framtiden, som själv­körande bilar.

De metoder som årets fysikpristagare utvecklade har även vida tillämpningar inom forskning. Det gäller allt från biologiska modeller för proteiners uppbyggnad, som belönades med 2024 års kemipris, till algoritmer för att avbilda svarta hål. Men när John Hopfield och Geoffrey Hinton i början av 1980-talet lade grunden till dagens maskininlärning var det osäkert om de skulle bli framgångsrika.

Redan efter att de första datorerna togs i bruk efter andra världskriget frågade sig många om dessa maskiner kunde efterlikna mänsklig intelligens. Forskarna som försökte skapa en sådan artificiell intelligens, AI, följde framför allt två spår. 

Fysikpriset 2024: John Hopfield och Geoffrey Hinton

Bild: Niklas Elmehed © Nobel Prize Outreach

”för grundläggande upptäckter och uppfinningar som möjliggör maskininlärning med artificiella neuronnätverk”

John J. Hopfield föddes 1933 i Chicago, USA, och doktorerade 1958 vid Cornell University och är professor vid Princeton university, USA.

Geoffrey E. Hinton föddes 1947 i London, Storbritannien. Han doktorerade 1978 vid University of Edinburgh, Storbritannien och är professor vid University of Toronto, Kanada.

Här nedan kan du se direktsändningen av tillkännagivandet i efterhand.

Vissa undersökte möjligheten att utveckla AI med hjälp av symboliska metoder, som imiterade det mänskliga tänkandets sätt att hantera exempelvis matematiska och språkliga operationer. Andra utgick i stället från hjärnans nätverk av neuroner. De inspirerades bland annat av psykologen Donald Hebbs hypotes från 1959, där han föreslog att minnen och lärande uppstår då kopplingen mellan olika neuroner förstärks.

År 1982 publicerade John Hopfield en vetenskaplig artikel som beskrev hur ett nätverk av olika noder kan tränas till att minnas och återkalla mönster. Han hämtade inspiration dels från hjärnans biologi, dels från en fysikalisk modell som beskriver hur storskaliga mönster kan uppstå hos den magnetiska orienteringen av atomer, känd som Isingmodellen.

Att John Hopfield hämtade inspiration från två olika forskningsfält välkomnades inte automatiskt inom akademin.

– Du korsade inte disciplinernas gränser, berättade John Hopfield på en presskonferens.

Tränas på tidigare mönster

Men just mötet mellan biologi och fysik visade sig fruktbart. Eftersom minnen i hjärnan förmodligen lagras där länkar mellan neuroner har stärkts, resonerade John Hopfield att även datorer skulle kunna spara ”minnen” av olika mönster i ett nätverk som har tränats på tidigare mönster.

John Hopfield utgick från en central idé inom fysik: att flera system strävar efter att minimera sin energi. Noderna i Hopfields nätverk kan anta värdet noll eller ett. Mellan dem finns det förbindelser som kan anta olika värden. När nätverket tränas på ett givet mönster får dessa förbindelser ett värde så att den totala energin hos nätverket blir så låg som möjligt. När ett nytt mönster sedan matas in i nätverket introducerade John Hopfield en regel för att räkna ut hur detta mönster förändras tills nätverket når en minimal energi. På så sätt sparas ett ”minne” i nätverket i form av ett tillstånd med minsta energi. Om det ursprungliga mönstret exempelvis är en bild som föreställer en katt, och det nya mönstret är en något suddig bild av katten, så kan Hopfields nätverk identifiera den ursprungliga bilden utifrån den suddiga bilden.

Årets andra fysikpristagare, Geoffrey Hinton, och hans kollegor vidareutvecklade John Hopfields nätverk. För att skapa mer avancerade neuronnätverk använde han statistiska metoder som utvecklats under 1800-talets andra hälft, av bland annat den österrikiske fysikern Ludwig Boltzmann.

Delade upp noder i synliga och dolda

Medan Hopfield-nätverket alltid gav samma svar utifrån samma indata, så introducerade Geoffrey Hinton ett sannolikhetsmoment för när olika noder aktiverades eller inte. Han delade också upp noderna i en synlig och en dold del. Endast den synliga delen var tillgänglig för att skicka in och läsa av data såsom text, bilder eller ljud, medan den dolda delen kunde innehålla mer komplex information för hur nätverket reagerade på dessa data. I jämförelse med den suddiga bilden av en katt, så kunde Hintons nätverk säga med vilken sannolikhet det visade en särskild katt i stället för en annan.

Geoffrey Hintons modell gjorde det möjligt att skapa mer avancerade nätverk för att identifiera mönster i stora mängder data. Men när han och John Hopfield introducerade sina modeller var maskininlärning ett nischat område inom forskningen kring artificiell intelligens.

– Det var något irriterande att de flesta som forskade om AI sade att neuronnätverk aldrig skulle fungera. De var väldigt övertygade om att dessa nätverk var ett slöseri med tid och att vi aldrig skulle lära oss komplicerade saker som till exempel att förstå naturligt språk med neuronnätverk. De hade fel, berättade Geoffrey Hinton på en presskonferens.

Under 2010-talet gjorde omfattande beräkningskraft, tillgång till större mängder data och vidareutvecklingen av algoritmerna att de artificiella neuronnäten fick ett allt större genom­slag. Moa Johansson är docent i datavetenskap och AI vid Chalmers tekniska högskola och hon framhåller vikten av John Hopfield och Geoffrey Hintons grundarbete för de stora neuron­nätverken vi har i dag.

Minnen lagras i ett landskap

– I synnerhet bakåtpropagering är en helt nödvändig algoritm för att träna nätverken på ett effektivt sätt, säger Moa Johansson.

”Jämförbart med industriella revolutionen

I dag används maskinlärning inom flera olika områden, från hälsa och finansteknologier till bildigenkänning och algoritmer som förutsäger vad du kan tänkas vilja köpa online eller vilken film du kanske vill se härnäst på Netflix. Inom forskningen används maskininlärning för att hitta mönster i stora datamängder som skulle vara omöjliga att gå igenom för enskilda forskare.

– Det går att jämföra med den industriella revolutionen, sade Geoffrey Hinton vid Kungliga Vetenskaps­akademiens tillkännagivande av priset den 8 oktober.

Anders Ynnerman är professor vid Linköpings universitet, leder Wallen­bergs satsning på AI-forskning (WASP) och är medlem i Kungliga Veten­skapsakademien. Han poängterar hur det som var forskning som drevs av ren nyfikenhet för 40 år sedan har omfattande teknologiska tillämpningar i dag:

– Det som är spännande med det här Nobelpriset är att man går tillbaka till grunderna och tittar på de fundamentala upptäckterna. Det är viktigt för att se den långa cykeln av bidrag och upptäckter när vi betraktar samhällets utveckling. Forskningen som belönas med Nobelpriset var från början mycket grundläggande, men nu upplever vi dess konsekvenser som kommersiella och tekniknära, säger Anders Ynnerman.

Vid samma tid på 1980-talet som John Hopfield och Geoffrey Hinton utvecklade sina algoritmer för neuronnätverk hade Hollywoodfilmen Terminator premiär. För tidskriften The New Yorker har Geoffrey Hinton berättat att han blev nöjd över att filmens Skynet, som försöker tillintetgöra mänskligheten, var skapat av ett neuronnätverk.

Varnar för farorna med AI

Långt senare, då neuronnätverken hade fått stort genomslag och Geoffrey Hinton fått smeknamnet ”gudfadern av AI”, har han blivit en av de främsta kritikerna som varnar för farorna med AI.

Bland annat står han överst bland undertecknarna på ett upprop från 2023: Statement of AI risk, som även signerats av årets kemipristagare Demis Hassabis bland en lång rad AI-profiler. Där krävs det att det ska satsas lika mycket på att motverka de existentiella farorna med AI som det satsats på att motverka kärnvapenkrig och pandemier.

– Vi har ingen erfarenhet av hur det är att ha objekt som är smartare än vi är. Jag är orolig för att en konsekvens kan bli att de system som är mer intelligenta än vi faktiskt kommer att ta kontrollen, sade Geoffrey Hinton vid tillkännagivandet av priset.

Förra året lämnade han Google, där han hade varit anställd som råd­givare, för att fritt kunna påtala riskerna med AI.

– Jag vill att flera av våra bästa unga forskare arbetar med AI-säkerhet och att regeringar tvingar de stora företagen att erbjuda de beräkningsmässiga resurserna som krävs för det, sade Geoffrey Hinton.

Moa Johansson vid Chalmers konstaterar att maskininlärning är en kraftfull teknologi med många användningsområden. Att neuronnätverk beskrivs som en existentiell risk, att de kan bli illvilliga och förstöra hela mänskligheten, tycker hon är spekulativt och orealistiskt med nuvarande teknik.

Olika sorters nätverk

– Självklart finns det reella risker, till exempel om dessa metoder endast hamnar hos stora företag eller att man tränar på så stora mängder data från internet utan filtrering, eller hänsyn till upphovsrätt, säger hon.

För att hantera dessa risker har Europeiska unionen antagit AI Act, en uppsättning regler för vad som är tillåtet och inte med AI. I ett globalt perspektiv vill Anders Ynnerman dela upp risker i olika kategorier.

– Vi har akuta risker i dag med problematiken med autenticitet i informationsmängder och medieinnehåll som skapas, som inte är korrekt. Sedan har vi en skala av risker som ligger längre fram i tiden. För dem före­kommer en mer filosofisk debatt om teknologins utveckling, och i ett extremt scenario har vi den existentiella risken att AI hotar mänskligheten. Man ska inte förväxla dessa två risker, säger Anders Ynnerman.

Han tycker att det viktiga med Nobelpriset i dag är att det lyfter fram den bakomliggande kunskapen kring maskininlärning.

– Vi behöver den kunskapen för att kunna värdera riskerna på ett korrekt sätt, säger Anders Ynnerman.

Hur mycket fysik är fysikpriset egentligen?

Årets Nobelpristagare i fysik har en egenhet: De är inte professorer i fysik. John Hopfield är professor i molekylärbiologi och Geoffrey Hinton är professor i datorvetenskap. På en presskonferens sade Geoffrey Hinton:

– Jag är inte fysiker. Jag hoppade av fysiken efter mitt första universitetsår eftersom jag inte klarade av den komplicerade matematiken.

John Hopfield har däremot varit professor i fysik tidigare, men är sedan 1997 professor i molekylär­biologi.

Jens Jasche är universitetslektor i fysik vid Stockholms universitet.
Bild: Stockholms universitet

Det här har lett till en debatt om hur mycket fysik som egentligen ryms i årets fysikpris. Jens Jasche är universitets­lektor i fysik vid Stockholms universitet och expert på att tillämpa maskin­inlärning inom kosmologi. Han blev ”något för­vånad” av Nobelkommitténs beslut, och säger att han fortfarande försöker förstå dess implikationer för forskningen inom fysik.

– Reaktionerna bland fysiker och experter på maskininlärning har varierat, från entusiasm till stark oenighet. Många menar att maskininlärning är ett verktyg snarare än en fysikalisk upptäckt. De frågar sig om maskin­inlärning verkligen tillhör kärnan i fysikalisk forskning. Men som en fysiker som regelbundet använder maskininlärning i mitt arbete ser jag möjligheterna med maskininlärning, säger Jens Jasche.

En fråga är om maskin­inlärning har lett till några stora genombrott inom fysik.

– Än så länge har maskininlärning inte lett till några grundläggande upptäckter som inte kunde ha erhållits med traditionella metoder. Det finns också olösta frågor om transparens och för­klaringsgrad hos de modeller som bygger på maskinin­lärning, säger han.

– Kan vi verkligen lita på och förstå de resultat som modellerna leder till? Med sina rigorösa krav på reproducerbarhet och långsiktig validering, så är fysikforskningen ännu inte helt kompatibel med maskininlärningens nuvarande nivå. Många inom detta forskningsfält var osäkra på om dessa krav beaktades tillräckligt mycket vid Nobelkommitténs beslut.

Eftersom Nobelpriset påverkar allmänhetens uppfattning om vad som är forskning som har lett till stora genom­brott, kan fysikpriset påverka både forskningsfinansiering och unga forskares karriärval, poängterar Jens Jasche.

– Årets pris kan ha djupare implikationer för fysik och vetenskaplig utforskning än vad vi inser just nu. När mängden data växer och blir mer komplex kanske inte traditionella metoder räcker till. Då kommer maskininlärning att vara helt nödvändigt för att nå nya vetenskapliga framsteg. Priset kan därför vara ett uttryck för en bred insikt om att maskininlärning kommer att bli ett oundgängligt verktyg för vetenskapliga framsteg. Nobelkommitténs beslut visar hur AI kan förändra själva sättet som vi gör fysik på i framtiden.

F&F i din mejlbox!

Håll dig uppdaterad med F&F:s nyhetsbrev!

Beställ nyhetsbrev

Kunskap baserad på vetenskap

Prenumerera på Forskning & Framsteg!

Inlogg på fof.se • Tidning • Arkiv med tidigare nummer

Beställ i dag!

Upptäck F&F:s arkiv!

Se alla utgåvor