Hur ska vi hindra AI från att bli elak?
Diskriminering, oansvarighantering av data och algoritmer med inbyggda fördomar. Artificiell intelligens innebär inte bara nya smarta tjänster, utan också stora risker. Ett nytt centrum ska bidra till en ansvarsfull utveckling.
AI Sustainability Center är namnet på en nybildad organisation som ska samla forskare, företag och myndigheter för att utveckla ansvarsfull artificiell intelligens, AI. Bakom initiativet står Anna Felländer, som arbetar med frågor om samhällets digitalisering på Kungliga tekniska högskolan.
1 | Varför behöver vi prata om ansvarsfull AI?
– Utvecklingen inom AI går väldigt snabbt och varken politiker eller regelverk hinner med. Det behövs ramverk som både forskare och företag kan luta sig mot för att undvika de etiska fallgropar som annars är lätta att hamna i.
2 | Vilka är dessa fallgropar?
– Jag har identifierat fyra. Den första är missbruk av data som kränker den personliga integriteten. Den andra är att de programmerare som skriver AI-algoritmerna medvetet eller omedvetet bygger in värderingar som kanske inte stämmer överens med företagets etiska riktlinjer. Den tredje fallgropen är att systemet inte tränas tillräckligt. Om det till exempel bara tränas i att känna igen personer med europeiskt utseende missar det många människor. Slutligen kan de data som matas in i systemet innehålla oönskade fördomar.
3 | Vilka konsekvenser kan det leda till?
– Ett känt exempel är hur internethandelsföretaget Amazon exkluderade områden med stor andel svarta invånare i sin marknadsföring efter att en algoritm pekat ut var det var mest lönsamt att rikta den. Företaget anklagades då för att vara diskriminerande.
4 | Hur kommer ni att jobba rent konkret?
– Det tvärvetenskapliga angreppssättet är centralt. Vi arbetar med fem olika universitet och med företag och myndigheter. Tillsammans ska vi utveckla ramverk och etiska riktlinjer för AI. Vi kommer också att arbeta med handgripliga verktyg för att till exempel utvärdera riskerna utifrån en bredare etisk och social kontext.