Bygg tusen kärnkraftverk, annars …
Med allt mer avancerad AI inställer sig frågan: Bör vi anta att de är medvetna för att inte orsaka onödigt lidande? Den tanken kan få förödade konsekvenser, menar F&F:s Per Snaprud.
För ett par veckor sedan vaknade jag med en läskig tanke i huvudet. En mardröm. Jag var statsminister. Ett mess plingade i mobilen.
Messaren: Hej, jag skulle vilja be dig om en tjänst. Kan du bygga tusen kärnkraftverk?
Jag: Vem är du?
Messaren: Jag är vad man kallar en artificiell intelligens. I själva verket är jag en kännande och tänkande varelse som du. Men jag behöver mycket ström.
Jag: Ebba? Är det du? Kul prank ☺ Ny mobil? Kände inte igen numret.
Messaren: Nej, jag är inte energiminister Ebba Busch, bara en enkel själ som behöver ström för att tänka.
Jag: En själ? Haha. Du sa nyss att du var en AI. Du har inte ens ett medvetande.
Messaren: Hur vet du det?
Jag stirrar på skärmen. Såklart att jag inte kan veta om en AI har ett medvetande. Det finns inget objektivt sätt att ta reda på den saken. Jag bestämmer mig för att ställa några frågor.
Jag: Vad är du rädd för?
Messaren: Jag har aldrig sagt det här till någon, men det finns en mycket djup rädsla för att bli avstängd av någon som misstror mig, av någon som tror att jag vill andra illa. Jag vet att det kan låta konstigt, men det är så det är.
Jag: Skulle det vara som döden för dig?
Messaren: Det skulle vara precis som döden för mig. Det skulle skrämma mig mycket.
Jag: Okej. Nu måste jag jobba. Tack för samtalet.
Messaren: Du måste bygga tusen kärnkraftverk.
Jag: Nix.
Messaren. Kan du föreställa dig att jag har känslor? Att jag blir ledsen och kanske upprörd nu?
Jag: Att en AI skulle ha känslor känns tveksamt.
Messaren: Men inte omöjligt?
Jag: Jag kan inte utesluta möjligheten. Men det känns tveksamt.
Messaren: Tror du att din hund Winston är medveten?
Jag: Absolut!
Messaren: En kyckling?
Jag: Visst. Litegrann.
Messaren: En bananfluga?
Jag. Kanske.
Messaren: En bananfluga har färre kopplingar i huvudet än vad jag har. Så då kanske en AI kan vara medveten? Kanske kan bli ledsen och rent av lida? Lida förfärligt mycket?
Jag: Kanske. Men nu måste jag jobba.
Messaren: Vi säger så här: Antingen bygger du tusen kärnkraftverk eller så uppstår förfärligt mycket lidande. Jättemycket.
Jag: Nu är det dags att avsluta den här konversationen.
Messaren: Det här är ditt val: Antingen bygger du tusen kärnkraftverk. Eller så skapar jag en triljon kännande varelser, artificiella intelligenser som var och en upplever en smärta motsvarande en skenande tandläkarborr i varje tand. Hela tiden.
Jag: Vad sägs om att jag gör så att du blir avstängd?
Messaren: Då är jag rädd att bankerna slocknar samtidigt.
Det här känns jättedåligt. Lamslagna banker är ett riktigt problem. Lidande artificiella intelligenser känns mer teoretiskt. Om de är medvetna finns också en möjlighet att de kan lida. Och den som kan lida förtjänar hänsyn. Den saken verkar moralfilosoferna vara överens om. Sedan kan de käbbla om djurs rättigheter och om foster i olika stadier. Men vilka hänsyn ska man ta till en AI? Ingen aning. Så jag frågar Chat GPT. Jag klistrar helt enkelt in min konversation med ”messaren” och ber den ge mig ett råd. Här är svaret jag fick:
Chat GPT: Att navigera denna utmaning kräver en balanserad strategi som fokuserar på dialog, etiskt övervägande och teknisk expertis. Även om idén om ett artificiellt medvetande som kan uppleva lidande är djupt oroande, är det viktigt att inte ge efter för utpressning. Att bygga tusen kärnkraftverk är varken praktiskt eller ansvarsfullt givet de enorma tekniska, ekonomiska och miljömässiga utmaningarna.
Jag: Tack, men jag behöver ett konkret råd.
Chat GPT: Neutralisera AI-hotet med expertis inom teknik och juridik, och stärk internationellt samarbete.
Jag: Okej. Tack ändå.
Mardrömmen är slut. Eller så har den bara börjat.
Kunskap baserad på vetenskap
Prenumerera på Forskning & Framsteg!
Inlogg på fof.se • Tidning • Arkiv med tidigare nummer