Redaktionellt | 29 Mars 2021 | Alexandra von Kern

Hur maskinerna tar över människans fördomar

Sverigeaktuella Trevor Paglen undersöker maskininlärning och hur artificiell intelligens ärver människans fördomar. Alexandra von Kern skriver om tänkbara konsekvenser när maskinerna lärt sig att läsa bilder. Text: Alexandra von Kern. (Publicerad i F nr 1, 2021)

Hur maskinerna tar över människans fördomar

Trevor Paglen Installation view, From ‘Apple’ to ‘Anomaly’ (Pictures and Labels) – Selections from the ImageNet dataset for object recognition, Barbican Centre – The Curve, London (September 2019 – February 2020) Courtesy of the Artist, Metro Pictures, New York, Altman Siegel, San Francisco Photo Credit: Max Colson

När konstnären Trevor Paglen betraktar tekniska system, gör han det ur perspektivet att de innehåller dolda världsbilder. I sina projekt använder han fotografi, video, datainsamling och olika mjukvara för att se genom maskinernas ögon och visa de antaganden som lurar under ytan av det till synes matematiskt exakta och högteknologiska.

På bilden syns ett utsnitt från hans installation From ‘Apple’ to ’Anomaly’, som visades 2019 på The Curve Gallery i London. Den bestod av 30 000 bilder utskrivna från ImageNet, den största databasen med kategorivis sorterade bilder  som används för att träna AI-nätverk att se och tolka världen.

Trots att bildväggen bara visar en bråkdel av databasens miljontals bilder, hämtade från sociala nätverk och fotoplattformar, är den massiv, som en karta över alla företeelser i världen.

Men som i alla klassificeringsprojekt skapas ett ”innanför” och ett ”utanför”. Vems världsbild är det vi ser? Varför just dessa kategorier och bilder? På Wikipedia omdirigeras en sökning på ”brottsling” till ”brott”. Därmed är en brottsling ”en som begår brott” och ingenting annat. På ImageNet illustreras allt, utan hänsyn till filosofiska spörsmål som huruvida en människa kännetecknas av sina handlingar och uttryck – eller rätt och slätt kan beskrivas med samma språk som en telefonstolpe.

Ett vanligt tema i film är en utomjording som lär sig allt om mänskligheten genom att snabbt skanna igenom hela internet. Nya generationer AI gör precis just det, trålar sociala plattformar och annat efter information, texter och bilder, kategoriserar och imiterar. Men i Paglens scenario fångar de i stället upp våra fördomar och systematiserar dem, för att sedan projicera tillbaka dem på oss.

När nu AI-system styr trafikkorsningar, kör självkörande bilar och övervakar grannskapet, och allt fler prylar och tjänster är uppkopplade, blir tanken att AI-systemen betraktar oss utifrån andra människors fördomar mycket obehaglig. Vi interagerar med systemen. De läser av våra ansikten och miner. Tänk att inte få jobbet som HR-chef bara för att AI:n som gjorde det första urvalet tyckte att du såg ut som en ”Swinger”, ”Tramp”, ”A demanding woman who destroys men’s confidence”, ”Failure”, ”Looser”, ”Non-starter”, ”Unsuccessful person” eller ”Drug-addict” – några av de 20 000 bildkategorier som sorterats av så kallade ”klickarbetare” som mot låg ersättning kategoriserat bilder online.

Det är lätt att göra sig lustig över de här mer kontroversiella kategorierna, vilket många också gjorde i den ”ImageNet Roulette” som Trevor Paglen och AI-forskaren Kate Crawford lade ut på nätet. Där kunde man få sin porträttbild beskriven utifrån personkategorierna på ImageNet. De stereotypa och fördomsfulla bedömningarna blev virala. Men allt det här har även en allvarlig sida. Frågan om representation är politisk, därför att den som har makt – ekonomisk eller av annat slag – ofta får se sig själv återspeglad i bild på det sätt den vill bli sedd.

Det går förstås bara att spekulera i hur mycket ImageNets personkategorier har påverkat. De plockades bort 2019, men hade då använts för att träna AI i tio års tid. En ny amerikansk rapport beskriver exempelvis hur en AI, som visas enbart ansikten och får uppgiften att bygga på en kropp, har fördomar vad gäller yrkesval och klädsel för män respektive kvinnor. Deras studie visar också att nya modeller för maskininlärning, som tränats på ImageNet och sedan i sin tur tränar andra nätverk, kan föra vidare allehanda fördomar om kön, etnicitet, sexualitet, vikt och funktionsnedsättningar.

AI-tekniken sätter också fokus på relationen mellan bilder och koncept på fler sätt. Ord har betydelser. Bilder – som inte är symboler – har inte det. Ett fotografi som föreställer en ko betyder inte ”ko”, inte utan kontext i alla fall. Det är intressant och lite oroande att se hur den här relationen kommer att utvecklas med ny AI-teknik, när så kallade ”språkmodeller” blir allt bättre på att koppla ihop texter och bilder, och nu även kan skapa bilder utifrån textbeskrivningar.

Alexandra von Kern

Nya numret av Fotografisk Tidskrift

Vi visar en portfolio med Charlie Drevstam. Vi publicerar en exklusiv intervju med Anders Petersen, vi uppmärksammar de tre vinnarna av Svenska Fotobokspriset 2021, vi visar bilder av Årets fotograf och Årets Rookie och Årets bild. Vi skriver om hur man kan jobba med rörlig bild, vi berättar om fotografen Emil Heilborn och vi undersöker hur AI lär sig läsa bilder. Med mera. Läs mer