Under de senaste åren har forskare och konsumenter uppmärksammat flera fall där artificiell intelligens (AI) förstärker och replikerar snedvridna värderingar i samhället vad gäller kön och etnicitet. Vi tittar närmare på hur det ser ut i teknikbranschen – med utgångspunkt i USA – och hur en bransch med bristande mångfald i slutändan kan påverka miljontals liv.
”The diversity problem is not just about women. It’s about gender, race, and most fundamentally, about power. It affects how AI companies work, what products get built, who they are designed to serve, and who benefits from their development”.
Citatet är hämtat ur rapporten “Discriminating systems. Gender, Race and Power in AI” (AI Now Institute, New York University) och ringar väl in konsekvenserna av bristande representation inom de bolag som driver utvecklingen av AI-teknik framåt. De menar att problemet är överväldigande stort och benämns i nämnda rapport som en “mångfaldskris” inom AI-sektorn. Ett påstående som styrks av statistik över hur få kvinnor och svarta som arbetar med utvecklingen av AI på Facebook och Google:
● 15 procent av Facebooks AI-forskare är kvinnor.
● 4 procent av Facebooks AI-forskare är svarta.
● 10 procent av Googles AI-forskare är kvinnor.
● 2,5 procent av Googles AI-forskare är svarta.
En underrepresentation av kvinnor och svarta i utvecklingsteam är alltså ett genomgående problem i branschen. Det är också en av flera bakomliggande faktorer till att bias ofta finns närvarande i alla steg i utvecklingen av AI, vilket kan leda till diskriminering av kön och etnicitet i AI-system generellt. Vad innebär detta de facto för tillämpning av AI? Vi har samlat några aktuella exempel från de amerikanska teknikjättarna.
Kontroversiell ansiktsigenkänning
Amerikanska National Institute of Standards and Technology (NIST) publicerade 2019 en undersökning som visade hur 189 ansiktsigenkänningsalgoritmer, inlämnade av 99 utvecklare världen över, klarade av att identifiera människor med olika etniska bakgrunder. En av upptäckterna var att många av dessa algoritmer var 10 till 100 gånger mer benägna att felaktigt identifiera ett fotografi av ett svart eller östasiatiskt ansikte i jämförelse med ett vitt ansikte.
Di Digital kunde i somras rapportera hur Amazon förbjöd polisiär användning av Rekognition, bolagets kontroversiella mjukvara för ansiktsigenkänning. Ett förbud som sammanföll med en intensifiering av debatten om rasprofilering. Di Digital skriver att ”flera studier har kommit fram till att mjukvarorna felaktigt identifierar svarta oftare än vita, vilket har lett till felaktiga frihetsberövanden av oskyldiga.”
Effekten av underrepresentation
För några år sedan taggade Googles bakomliggande AI två svarta vänner som gorillor. Tonima Afroze, mjukvaruutvecklare på Klarna och forskare kring fördomar inom maskininlärning, berättar i en intervju med DN att ”en anledning till felet är att många av de stora bildsamlingar som används för att ’träna´ AI innehåller förhållandevis få bilder på svarta personer.”
Tonima Afroze ger ytterligare ett exempel i intervjun med DN, där en underrepresentation lett till felaktiga bildresultat: ”till exempel visar en sökning på ´grandmother´ nästan bara bilder på vita personer. Och så ser ju onekligen inte allas mor- och farmödrar ut i världen.”
Återskapade förutfattade meningar
Förra årets visade det sig att Facebook stridit mot den amerikanska konstitutionen genom att låta annonsörer medvetet rikta sina annonser efter kön, etnicitet och religion. Jobbannonser för roller inom omvårdnad, eller som sekreterare, riktades mot kvinnor medan jobbannonser för vaktmästare och taxichaufförer riktades mot ett högre antal män, specifikt män med minoritetsbakgrund.
Facebooks algoritm lärde sig också att annonser för fastigheter sannolikt skulle uppnå bättre statistik när de visades för vita människor. Resultatet: de blev inte synliga för minoritetsgrupper i USA. Precis som maskininlärningsalgoritmer skapade plattformen ett mönster utifrån de uppgifter som matades in.
Tekniken har stor inverkan på våra liv
I UNESCO:s rapport ”I’d blush if I could: closing gender divides in digital skills through education” fastslås det att teknikens räckvidd och inverkan på våra liv är så stor att den begränsade representationen av kvinnor i utvecklarteam hotar dels att upprätthålla befintliga stereotyper, dels att det bidrar till nya typer av ojämlikhet mellan könen.
Att aktivt arbeta för en jämställd bransch med mångfald ligger därför inte bara i teknikindustrins intresse, utan är även en avgörande faktor för alla vars liv påverkas av AI på ett eller annat sätt.
Källor
● “Discriminating systems. Gender, Race and Power in AI”, Sarah Myers West,
Meredith Whittaker, Kate Crawford, AI Now Institute, New York University.
● The New York Times
● The Verge
● SVT
● Dagens Nyheter
● Logically.ai
● Computer Sweden
● Scientificamerican.com
● Di Digital
● Artificiell intelligens och gender bias. En studie av samband mellan artificiell
intelligens, gender bias och könsdiskriminering, Hanna Lycken, Uppsala universitet
● I’d blush if I could: closing gender divides in digital skills through education, UNESCO.