”Övertygande språk är inget belägg för intelligens”

Många forskare inom AI föreställer sig att ett system med god förmåga att producera text också är intelligent. Det är en missuppfattning, skriver en grupp AI-forskare vid Umeå universitet.

Publicerad
Pekfinger från människa och robot rör vid varandra.
Ett överdrivet fokus på hur AI kommer att påverka människans existens i framtiden hamnar i vägen för problem som redan finns, skriver fyra AI-forskare.
Bild: Getty images
Det här är en kommenterande text. Analyser och åsikter är skribentens egna.

Det kan verka rimligt att utgå från att en chattbot som producerar komplicerad och övertygande text har någon form av generell intelligens. Den uppfattningen finns även bland kända AI-forskare. Peter Norvig, tidigare forskningschef på Google, och hans medarbetare Blaise Agüera y Arcasanser skrev nyligen att artificiell generell intelligens redan är här i form av så kallade stora språkmodeller (large language models, LLMs). De anser att ”dagens främsta modeller presterar kompetent även på nya uppgifter som de inte är tränade för”.

Vi bör ta den typen av påståenden med en rejäl nypa salt. Vi vet inte vilken information som ingått i träningen av till exempel Chat GPT, vilket innebär att vi inte vet om språkmodellen står inför en uppgift som verkligen är ny. Det har till exempel visat sig att den klarar ett prov som krävs för att arbeta som advokat i USA. Men vi vet inte om det beror på att Chat GPT har memorerat tidigare prov och övningsuppgifter, eller på att den kan resonera om juridik.

Ett annat exempel: Den ledande AI-forskaren och Turingpristagaren Yoshua Bengio sa tidigare i år att vi ”nu i princip har nått den punkt där det finns AI-system som kan lura människor, vilket betyder att de kan klara Turing-testet”.

Vi betonar nyckelfrasen lura människor. Redan för ett kvarts sekel sedan påpekade den australiensiske data- och kognitionsforskaren David Powers att olika system klarat Turing-testet eftersom människan har en ”välvillig utgångspunkt” och därför antar att den vi talar med är en verklig person.

En bebis kan vara intelligent

Människor har lätt att föreställa sig mänskliga förmågor hos system som genererar språk. Fraser som Jag är ledsen, jag kan inte hjälpa dig med det leder till att vi felaktigt antar intentioner och intelligens. Men språkförmåga är något annat än intelligens. Mängder av studier inom psykologi, neurovetenskap och kognitionsvetenskap visar att språket inte avgör hur intelligenta vi är, utan vad som gör det möjligt för oss att kommunicera vår intelligens med andra.

Det faktum att en bebis ännu inte lärt sig prata ordentligt betyder inte att den saknar intelligens. Det omvända gäller för AI-språkmodeller; deras imponerande förmåga att leverera text betyder inte att de är intelligenta i den meningen att de kan resonera. AI, som den ser ut i dag, är bra på att hantera specifika uppgifter, men saknar heltäckande förståelse och förmåga till inlärning och resonemang som är förknippad med mänsklig allmän intelligens.

Historiskt har datorgenererat språk ofta byggt på svar som alstras av regler och manuskript skapade av människor. Till och med sådana system övertolkades. AI-forskare, programutvecklare och företagare som sökte finansiering för ytterligare forskning antydde (och i många fall trodde) att en språkförmåga bättre än människans låg inom räckhåll. Samtidigt ledde människans benägenhet att förmänskliga andra varelser och livlösa föremål till uppfattningar om att ytligt sett mänskliga beteenden med nödvändighet sammanfaller med underliggande processer av mänsklig karaktär.

Det stämmer visserligen att alla intelligenta system kräver ett visst mått av språklig förmåga för att kommunicera. Men det betyder inte att manipulering av naturligt språk nödvändigtvis kräver intelligens!

Svar bygger på statistik

Intelligens är en egenskap med många dimensioner som omfattar flera kognitiva förmågor, bland annat problemlösning, minne och kreativitet. Den handlar inte bara om kunskaper i ett visst språk, och kan dessutom inte skiljas från kroppen.

Förmågan att hantera språk är betydelsefull, men långt ifrån något säkert tecken på intelligens. Dessutom är det viktigt att förstå att AI-system bygger på statistiska samband i stora datamängder. Deras svar bestäms av mönster i data som de har tränats på. Det betyder till exempel att GPT-4 är dålig på att välja den första bokstaven i en sekvens av ord för att bilda en akronym om orden är sällsynta i dess träningsdata.

AI-utvecklingen inom språkbehandling har flyttat gränserna för vad maskiner kan göra med text. Trots det måste man ha klart för sig att språket bara är ett gränssnitt till mänsklig intelligens. AI:s nuvarande språkkunskaper är anmärkningsvärda men utgör en specialiserad färdighet – inte en heltäckande demonstration av allmän intelligens. Dessa språkmodeller klarar till exempel inte att följa det flöde av växlande initiativ som präglar samtal mellan människor, eller att vara målinriktade i en dialog.

F&F i din mejlbox!

Håll dig uppdaterad med F&F:s nyhetsbrev!

Beställ nyhetsbrev

Det saknas alltså robust grund för att sätta likhetstecken mellan språk och intelligens. Ett problem i sammanhanget är brist på klarhet i frågan om vad intelligens är. Vi måste ta oss förbi förenklade antaganden och beakta den bredare uppsättning kognitiva förmågor och färdigheter som utgör denna invecklade egenskap.

Somliga forskare tror att konstgjord superintelligens snart blir verklighet, och att den inom en snar framtid blir ett existentiellt hot mot mänskligheten. Sådana farhågor uttryckte fysikern och AI-forskaren Max Tegmark för några månader sedan i Forskning & Framsteg.

Men den verkliga faran är skador som AI-system orsakar i dag. Det kan till exempel gälla att förstärka fördomar eller göra så att folk kommer i kläm i kontakten med myndigheter, som i Nederländerna där människor felaktigt blev anklagade för fusk med barnbidrag. Vår uppfattning är att talet om existentiella risker i framtiden tar bort fokus från problemen som finns redan nu.

Virginia Dignum, professor i ansvarsfull artificiell intelligens och Sveriges enda medlem i FN:s nybildade expertorgan för AI.
Frank Dignum, professor i social AI.
Adam Dahlgren Lindström, forskare inom AI.
Petter Ericson, forskare inom AI.

Samtliga artikelförfattare är verksamma vid Umeå universitet.

Kunskap baserad på vetenskap

Prenumerera på Forskning & Framsteg!

Inlogg på fof.se • Tidning • Arkiv med tidigare nummer

Beställ i dag!
Publicerad

Upptäck F&F:s arkiv!

Se alla utgåvor