
Bild: Getty images
Därför resonerar AI inte som vi
En ny typ av språkmodell som kallas resonerande AI kan lösa problem i flera led. Men dess sätt att tänka skiljer sig från människors.
Det finns en gammal tankenöt som handlar om att transportera två par som vardera består av en svartsjuk man och hans hustru. De ska ta sig över en flod i en liten eka som bara rymmer två personer åt gången. Eftersom männen är svartsjuka får ingen kvinna vara kvar på ena sidan floden tillsammans med en man som inte är hennes make. Hur ska de gå till väga?
Det här är resonerande AI
Att lösa detta kräver ett resonemang i flera led (se infografiken). Den senaste varianten av stora språkmodeller som GPT eller Claude kan faktiskt klara av att lösa det här problemet – i alla fall vissa av dem och under vissa förutsättningar. Det är ett exempel på en av de senaste landvinningarna inom AI som har fått beteckningen resonerande AI. Eftersom det är en utveckling av de tidigare stora språkmodellerna – LLM som står för large language model – kallas de också för LRM, large reasoning models.
De resonerande språkmodellerna har gjort mycket bra ifrån sig på många sorters prov som utformats för människor, bland annat frågor från matematiktävlingar.
Betyder det att AI:n har börjat tänka? Vissa forskare har faktiskt tolkat de här framstegen som den första skymten av en mer generell intelligens i AI-modellerna. Andra är mycket mer tveksamma.

Bild: Kate Joyce
– Det är imponerande att se de här modellerna klara svåra matteproblem, men det är inte uppenbart att modeller som klarar sig bra i prestandamätningar också kan vara robusta och tillförlitliga i verkligheten, säger AI-forskaren Melanie Mitchell, professor vid Santa Fe Institute i USA.
Hon forskar själv bland annat på just detta. Modellerna gör många misstag som ser väldigt märkliga ut för ett mänskligt öga, säger hon. De är ofta känsliga för hur specifika ordval i problemen formuleras. Ibland kan ett problem lösas mycket bra, medan ett nästan likadant problem är mycket svårare.
Det är svårt att säga om en AI gör något som liknar det människor gör när vi tänker. Som Melanie Mitchell skriver i en kommentar i tidskriften Science har vi människor en hel rad kognitiva strategier för problemlösning: memorerade steg, specifika tumregler, analogier med tidigare lösningar, och ibland också ren deduktiv logik. Eftersom maskinen och människan fungerar så olika kanske det inte är meningsfullt att kalla det som händer för att de ”resonerar”.

Bild: Mikael Lundblad
Lätt att antropomorfisera AI
Människor som använder verktyg som bygger på stora språkmodeller, till exempel Chat GPT, Copilot eller Claude, har väldigt lätt för att antropomorfisera dem – det vill säga betrakta dem som om de vore som människor. Filosofen och kognitionsvetaren Peter Gärdenfors, Lunds universitet, diskuterar aspekter av detta i sin bok Kan AI tänka? (Fri tanke 2024).
– Det är en del av vår inlevelseförmåga. När jag pratar med dig förutsätter jag en gemensam grund av erfarenhet och förståelse, som jag bygger på när vi interagerar. Det här spiller över på AI-systemen också, så att vi omedvetet förutsätter att vi och AI-systemen har gemensamma erfarenheter, säger Peter Gärdenfors.
Mänskliga hjärnor är trimmade för att vara sociala, och det allra viktigaste att förhålla oss till i vår omgivning är andra människor. Det är också därför vi har så lätt att uppfatta ansikten i döda ting. Att chattbottarna tränas att svara så människolikt och tala om sig själva som ”jag” spelar in i detta, med syftet att människor ska ha lättare att använda dem. Men att antropomorfisera kan också göra det svårare att förstå hur de här verktygen faktiskt fungerar, och därmed hur de bäst kan användas och förbättras.
Låt oss ta en titt på vad modellerna faktiskt gör.
– Förut var det så att om du gav en språkmodell en instruktion eller en fråga så genererade den ett svar. Den nya varianten kan generera en massa mellanliggande text, säger Melanie Mitchell.
Språkmodeller tar omvägar
Det verkar märkligt, men redan för flera år sedan var det känt att det gick att få bättre svar på många sorters frågor genom att få en språkmodell att ta en omväg i stället för att ge svaret direkt. Det kunde åstadkommas genom att instruera modellen att tänka steg för steg och presentera ett resonemang. Nytt i de resonerande språkmodellerna är att de bygger vidare på de existerande systemen och lägger på en extra omgång träning för att generera mellanled.
Den som använder till exempel betalversionen av Chat GPT från företaget Open AI kan få tillgång till en sådan resonerande språkmodell. Vissa modeller visar delar av den extra, mellanliggande text som genereras, men Chat GPT döljer allt med hänvisning till att den texten skulle kunna innehålla känslig information eller annat olämpligt material, som modellen har tränats att inte visa i sina slutliga svar men som kan dyka upp i tankekedjan. I stället får användaren se en dröjande punkt i mellan några sekunder och upp mot en minut innan svaret kommer.
Grunden för de resonerande modellerna är alltså samma sorts stora språkmodeller som funnits tidigare. De är en form av generativ AI, som tränas på exempel och sedan kan skapa nya exempel på samma sorts material. De består i grunden av jättelika artificiella neuronnät, simulerade strukturer av noder med kopplingar emellan. De tränas genom att exponeras för enorma mängder exempel på mänskligt språk – man brukar säga att GPT och liknande modeller har tränats på allt som finns på internet.
Inuti modellen representeras språkets delar i form av ”token”, grundläggande informationsbärare som kan vara ord, delar av ord, skiljetecken, och andra komponenter. Språkmodellen skapar statistiska samband mellan dessa informationsbärare. När den är färdigtränad innehåller den alltså en enorm matris av ord och information om hur nära de står till varandra. Det här gör att modellen kan presenteras för en räcka med ord och använda det som utgångspunkt för att göra förutsägelser om vilket ord (eller token) som mest troligt ska följa härnäst. Det är så den svarar på frågor. Med hjälp av en funktion som inför ett mått av slump kan modellen variera sig lite, så att svaret inte blir riktigt likadant varje gång.
AI – en svart låda
Exakt vad som händer inuti är svårt att följa, och man talar om att de är som en svart låda. Användaren stoppar in text i lådan, och det kommer ut text ur lådan, men vad som sker däremellan är oklart. Forskare gör olika typer av experiment för att lista ut vad som händer inuti.
Även om den grundläggande tekniken bygger på att hela tiden förutsäga nästa ord finns det också mekanismer som håller koll på kontext och sammanhang. Forskare från företaget Anthropic har visat att deras språkmodell Claude lägger ut en sorts plan i förväg för vart den är på väg. Till exempel kan den sikta på ett rimord i en text och lägga in ord emellan, som ska passa in på det planerade rimmet. Sådant hjälper till att göra den text som produceras mer lik naturligt, mänskligt språk.
I de nya resonerande modellerna utnyttjas de här grunderna på ett nytt sätt, genom den extra träningen.
– Företag som Open AI eller Google avslöjar inte hur deras modeller tränas, men det finns andra som är öppnare. Till exempel finns det en artikel om hur den kinesiska modellen Deepseek tränades för att resonera. Vi kan anta att det finns likheter mellan den träningen och vad företag som Open AI gör, säger Melanie Mitchell.
Det är dyrt och svårt att ta fram exempel på resonemang i flera led för att använda som träningsunderlag. Därför används huvudsakligen förstärkningsinlärning som förstärker det mönster i neuronnätet som ger rätt svar, men utan att granska det som händer i mellanleden.
Den text som genereras under tiden kallas för tankekedja (chain of thought) eller tankespår. Namnen visar återigen hur svårt det är att låta bli att antropomorfisera. En forskargrupp som möjligen började bli rätt frustrerad över detta gav rentav sin artikel titeln ”Sluta antropomorfisera mellanliggande token som tankespår!” när de märkte att de inte hittade tillförlitliga resonemang. En möjlig risk är att leda forskningen in i återvändsgränder när fokus hamnar på missvisande idéer.
Egentligen är det förbluffande att ett verktyg som skapats för att känna igen och efterlikna språk kan göra något som liknar ett resonemang. Vad som händer i de extra stegen när modellen ”tänker” är ämnet för många studier för närvarande. Forskare är oeniga om hur den kedja av token som genereras på väg till svaret egentligen ska tolkas.
– Orden och meningarna de genererar låter delvis som en människa som tänker högt, men vi vet inte om det motsvarar vad modellen faktiskt gör för att lösa problemet, säger Melanie Mitchell.
Forskning pågår om hur AI når sina slutsatser
Forskare har undersökt olika sätt att förstå detta. En förhoppning är att mellanleden faktiskt representerar en sorts bokstavligt tankespår, där ett resonemang faktiskt sker. Det skulle hjälpa den forskningsgren som kallas explainable AI, som sysslar med att försöka få koll på hur AI-systemen når sina slutsatser. Om språkmodellerna ska användas som beslutsstöd eller till andra viktiga uppgifter vore det bra att kunna få motiveringar till svaren de ger. Därför är detta ett hett område nu. Precis som inom hela AI-fältet går diskussionen snabbt fram med inlägg, som ofta citeras och debatteras bland forskarkollegorna i form av förhandspubliceringar på nätet (”preprints”), innan resultaten hunnit gå igenom någon sedvanlig granskning och publicering.
Det här snackar AI-forskarna om just nu
Multimodal AI: Artificiella neuronnät kan tränas till många olika typer av uppgifter. Språkmodeller hanterar språkets delare, andra modeller är specialiserade på att generera bilder eller tolka ljud. När olika sådana modeller integreras med varandra för att gemensamt hantera olika typer av data kallas det för multimodal AI. Det används till exempel för att skapa en automatisk beskrivning av bilder, eller för att använda språkliga instruktioner för att generera ljud och bild.
AI-agenter: Vissa AI-verktyg kan ges möjlighet att söka på internet, styra ett datorprogram, skriva till filer som sparas på hårddisken, med mera. De kallas för AI-agenter, agentic AI, och kan fungera som assistenter i olika former av uppgifter.
Utvärdering: Det finns många olika uppsättningar av tester som används för att bedöma AI-system, men de kan vara svåra att sammanfatta och ge en delvis missvisande bild av modellernas förmåga. Bland forskare pågår intensiva diskussioner om hur olika aspekter av AI ska utvärderas, och vilka typer av prestandamätningar (”benchmarks”) som är bra i vilka sammanhang.
Det har visat sig att resonerande modeller inte alltid säger vad de tänker. Forskare har testat att lägga in ledtrådar som ändrar svaret på en fråga, och samtidigt kolla om modellen någonstans hänvisar till att den använder ledtråden. I de allra flesta fall gör den inte det. Det gör att det inte går att lita på att en människa som vill begripa vad som händer kan hänga med, och visar att det inte går att styra modellerna från oönskade beteenden genom att övervaka mellanleden.
Det skulle också kunna vara så att resonerandet fungerar bara för att processen med att ta fram mellanled ger modellen mer tid på sig att arbeta. I så fall skulle det inte alls spela någon roll vad tankespårets text innehåller. När forskare har bytt ut hela tankespåret mot meningslösa tecken kan de fortfarande få ett bättre resultat än utan de mellanliggande leden. Andra forskare hittar däremot inte någon förbättring i modellens prestation om de byter ut mellantexten. Den verkar alltså ha någon form av betydelse, om än inte alltid.
Kanske händer det något helt annat inuti modellen medan den arbetar med att skapa den text som kallas för ”tankespår”. I så fall skulle åtminstone delar av själva processen vara helt dolda för människor.
I vissa fall kan modellerna säkert dra nytta av att liknande problem och mönster finns i deras träningsdata. Så kan vara fallet med tankenöten i här artikelns början med paren som ska ro över floden, så forskare som undersöker modellerna måste vara noga med vilka problem de använder för testerna.
Det verkar också finnas gränser för hur långa resonemang de här modellerna kan föra. En forskargrupp från Apple tog tankenöten som en av flera för att testa hur en resonerande modell hanterar ökande komplexitet i ett problem. De visar hur den resonerande versionen av Claude hanterar det ganska bra i det enklaste fallet, med två par som ska över floden, men när ett till par läggs till havererar det hela. För de andra tankenötterna de testade sjunker resultaten lite långsammare, men det går fortfarande raskt sämre när problemen kräver fler steg.
Kunskap baserad på vetenskap
Prenumerera på Forskning & Framsteg!
Inlogg på fof.se • Tidning • Arkiv med tidigare nummer
Människor får kunskap genom interaktion
Forskare har alltså frågor kvar att bena ut för att förstå hur de nya resonerande modellerna fungerar och hur de kan förbättras.
Även om de är fantastiskt bra på många saker är det också många forskare som är tveksamma till att resonerande AI skulle vara på väg mot en mer allmängiltig artificiell intelligens.
– Den stora skillnaden mellan AI-modeller och människor är att de får sina data genom maskinen medan vi får dem genom att interagera i världen. Vi rör oss i en fysisk värld och tänker på orsaker, säger Peter Gärdenfors.
Melanie Mitchell resonerar om liknande saker sin bok Artificial intelligence: A guide for thinking humans (Penguin Books 2019).
Ett barn har massor av sinnesintryck innan det börjar lära sig att förstå och använda ord. Barnet vet att en kopp går att dricka ur och att den faller om den släpps. Barnet har hållit i en boll och sett den rulla över golvet. Orden kopp och boll hör då ihop med en värld. Vi har dessutom en intuitiv känsla för fysik som hjälper oss att tolka omgivningen.
– Vi vet inte riktigt hur människans inlärning fungerar, men vi är oerhört snabba på att generalisera, säger Peter Gärdenfors.
Ett barn kan lära sig ett ord efter att ha hört det en gång, påpekar han, till skillnad från språkmodellen som behöver kopiösa mängder med exempel.
Språkmodeller testas med kluringar
Det enda en språkmodell i grunden känner till är statistiska samband mellan abstrakta token. Därför kan man säga att de får betydelse först när de presenteras som ord på en skärm för människor som ska tolka dem. Då uppfattar vi en referens till en bok som inte finns som en ”hallucination”, trots att formuleringen var lika språkligt korrekt som en referens till en riktig bok. AI-företagen har fått arbeta hårt för att få modellerna att ge svar som har bättre kontakt med verkligheten, men de måste fortfarande hela tiden varna användarna för att svaren kan innehålla felaktigheter.
Resonerande språkmodeller har visat sig vara fantastiskt kraftfulla. Men skillnaden mellan vad de kan göra och vad vi kan göra kanske också håller på att lära oss något om vad som är speciellt med mänskligt tänkande.
Läs mer om AI
Artificial intelligence: A guide for thinking humans
Melanie Mitchell
Penguin books 2019

Melanie Mitchell börjar med att ge en lättsmält genomgång av AI-fältets utveckling fram till 2019, och sedan följer resonemang om vad det hela innebär. Ett kapitel handlar om etik och pålitlighet. Den senare delen av boken tar upp frågor om språk och mening, och skillnaden mellan människor och maskiner. Stilen är engagerad och skildringen lättas upp med personliga reflektioner och anekdoter.
Kan AI tänka?
Peter Gärdenfors
Fri tanke 2024

Vad gör människor och andra djur när vi tänker? Peter Gärdenfors grundar med en genomgång av biologi och psykologi innan han kommer in på djupinlärning med artificiella neuronnät. Boken är till en del en respons på böcker som Liv 3.0 av Max Tegmark och de farhågor som uttrycks där, om att AI kan ta över världen och vara ett hot mot människan. Peter Gärdenfors ser andra problem och risker med AI, som beror på hur människor använder de kraftfulla verktyg vi uppfinner.