
De stora språkmodellerna tränas på den text som mänskligheten har producerat digitalt. Det innebär att de speglar maktstrukturer och vilka liv som dokumenteras. De speglar inte mänskligheten utan den digitalt dokumenterade mänskligheten. Här är exempel på fyra grupper som är underrepresenterade i de vanliga modellerna, vad risken med det är och hur du kan hantera det.
Grupp 1: Personer från låginkomstländer och Globala syd
Orsak: Historiskt lägre internetnärvaro och till viss del språk som inte prioriteras i kommersiell AI-utveckling
Risk: AI får sämre förståelse för lokala kontexter och genererar stereotypa, exotifierande eller förenklade beskrivningar. Fler “hallucinationer”
Grupp 2: Äldre personer
Orsak: Internetkulturen är generellt yngre än befolkningen. Äldre generationer publicerar mindre online och har mindre närvaro i sociala medier
Risk: AI kan ha svagare förståelse för äldres perspektiv, ökad risk för stereotyper
Grupp 3: Kvinnor inom vissa kunskapsfält
Orsak: Inom områden där kvinnor historiskt (och i nutid) varit underrepresenterade i verkligheten som t.ex. inom STEM är även det som är dokumenterat digital överrepresenterat av män
Risk: Könskodade antaganden och överrepresentation av manliga perspektiv
Grupp 4: HBTQI-personer
Orsak: Det finns representation online men ofta i kontexter av polarsierade diskussioner och subkulturella forum.
Risk: AI-modellerna förväxlar identiteten med debatten och saknar vardagliga och nyanserade beskrivningar
För alla de här grupperna gäller att underrepresentation inte betyder osynlighet. En grupp kan vara numerärt underrepresenterad men överrepresenterad i kontroversiella diskussioner eller i ett visst sammanhang. Det kan skapa skevheter i hur AI “förstår” gruppen
Alla snygga människor avslöjar AI-modellerna
Ett tydligt exempel på hur bias fungerar i praktiken syns i AI-genererade bilder av människor. När AI skapar en bild av “en kvinna”, “en man” eller “en person” blir resultatet oftast en person som uppfyller klyschiga “snygg-kriterier”. Normativt attraktiv. Det är inte en slump. Och det är inte heller ett medvetet beslut att “göra människor snyggare”. Det är ett resultat av hur modeller tränas och optimeras. Så ett tips är att testa vilken världsbild modellen du jobbar med har genom att låta den generera lite bilder och se hur den “tänker”.
Hur man kan förhålla sig till att AI är biased
Viktigast av allt är att du förstår att tekniken inte är objektiv utan att det som genereras är färgat av en massa saker och att vissa modeller är mer färgade än andra . Undvik t.ex. Grok som är medvetet “anti-woke” och välj hellre t.ex. Claude som aktivt jobbar med att att navigera etiska frågor. Om du har kontroll över vilka data din modell tränas på kan du också komplettera med det som saknas. Om du inte har det kan du komplettera med data på andra sätt. Genom att ta det du får från AI-modellen som en källa men även gå till andra källor. Var inte rädd att ifrågasätta. Det är AI-modellen som genererade den stereotypa beskriningen som får ta ansvar för den dåliga stämningen.





