Generic filters
Exact matches only
Search in title
Search in content
Search in excerpt

Den dåliga stämningen som uppstår när din AI-kollega visar sig vara rasist

Händer det att en släkting till dig häver ur sig något rasistiskt under släktmiddagen? Och du måste välja mellan att säga något och förstöra den goda stämningen eller att få ont i magen för att du inte sagt något. Tips – säg något. Det är den som sa det rasistiska som förstörde stämningen. Men din nya AI-kollega då? Hen är väl ändå en rationell och objektiv typ, eller? Nej verkligen inte. 

Lästid: 3 min

 

 

De stora språkmodellerna tränas på den text som mänskligheten har producerat digitalt. Det innebär att de speglar maktstrukturer och vilka liv som dokumenteras. De speglar inte mänskligheten utan den digitalt dokumenterade mänskligheten. Här är exempel på fyra grupper som är underrepresenterade i de vanliga modellerna, vad risken med det är och hur du kan hantera det.

 

Grupp 1: Personer från låginkomstländer och Globala syd

Orsak: Historiskt lägre internetnärvaro och till viss del språk som inte prioriteras i kommersiell AI-utveckling

Risk: AI får sämre förståelse för lokala kontexter och genererar stereotypa, exotifierande eller förenklade beskrivningar. Fler “hallucinationer”

 

 

Grupp 2: Äldre personer

Orsak: Internetkulturen är generellt yngre än befolkningen. Äldre generationer publicerar mindre online och har mindre närvaro i sociala medier

Risk: AI kan ha svagare förståelse för äldres perspektiv, ökad risk för stereotyper

 

 

Grupp 3: Kvinnor inom vissa kunskapsfält

Orsak: Inom områden där kvinnor historiskt (och i nutid) varit underrepresenterade i verkligheten som t.ex. inom STEM är även det som är dokumenterat digital överrepresenterat av män

Risk: Könskodade antaganden och överrepresentation av manliga perspektiv

 

 

Grupp 4: HBTQI-personer

Orsak: Det finns representation online men ofta i kontexter av polarsierade diskussioner och subkulturella forum.

Risk: AI-modellerna förväxlar identiteten med debatten och saknar vardagliga och nyanserade beskrivningar

 

För alla de här grupperna gäller att underrepresentation inte betyder osynlighet. En grupp kan vara numerärt underrepresenterad men överrepresenterad i kontroversiella diskussioner eller i ett visst sammanhang. Det kan skapa skevheter i hur AI “förstår” gruppen

 

Alla snygga människor avslöjar AI-modellerna

Ett tydligt exempel på hur bias fungerar i praktiken syns i AI-genererade bilder av människor. När AI skapar en bild av “en kvinna”, “en man” eller “en person” blir resultatet oftast en person som uppfyller klyschiga “snygg-kriterier”. Normativt attraktiv. Det är inte en slump. Och det är inte heller ett medvetet beslut att “göra människor snyggare”. Det är ett resultat av hur modeller tränas och optimeras. Så ett tips är att testa vilken världsbild modellen du jobbar med har genom att låta den generera lite bilder och se hur den “tänker”.

 

Hur man kan förhålla sig till att AI är biased

Viktigast av allt är att du förstår att tekniken inte är objektiv utan att det som genereras är färgat av en massa saker och att vissa modeller är mer färgade än andra . Undvik t.ex. Grok som är medvetet “anti-woke” och välj hellre t.ex. Claude som aktivt jobbar med att att navigera etiska frågor. Om du har kontroll över vilka data din modell tränas på kan du också komplettera med det som saknas. Om du inte har det kan du komplettera med data på andra sätt. Genom att ta det du får från AI-modellen som en källa men även gå till andra källor. Var inte rädd att ifrågasätta. Det är AI-modellen som genererade den stereotypa beskriningen som får ta ansvar för den dåliga stämningen.

Sara Nero, säljchef

Hör gärna av dig om du vill veta hur vi kan hjälpa dig!

Sara Nero, säljchef

Sara Nero

073-066 20 36