AI-Etik

AI-Etik, så lever vi upp till våra värderingar.

Det är många som har haft allvarliga incidenter.

En av de väldigt svåra utmaningarna med AI, är att säkerställa att man lever upp till sina värderingar. Det är till och med så illa att om man inte lägger ner stor kraft på att undvika AI-bias kommer det att gå väldigt fel, väldigt fort. Och det finns gott om exempel på sådana olyckliga situationer:

  • Amazon: 2018 avslöjade en rapport från Reuters att Amazon hade utvecklat en AI-baserad rekryteringsalgoritm som skulle hjälpa till att sålla ut kandidater för jobb på företaget. Men algoritmen visade sig vara diskriminerande mot kvinnor eftersom den hade lärt sig att favorisera manliga kandidater, antagligen på grund av att företagets tidigare anställda och deras CV:er huvudsakligen bestod av män. Amazon tvingades avbryta projektet.
  • Google Translate: En studie från 2016 visade att programvaran tenderade att visa könsbias i översättningar från vissa språk till andra. Till exempel, när man översatte från engelska till arabiska, så översatte Google Translate “he” till “han” och “she” till “hon” i nästan alla fall, även när könet inte var känt eller relevant. Referens: Lui, M., & Baldwin, T. (2016). On the representation and generalization of gender (im) politeness in neural conversation models. arXiv preprint arXiv:1606.08340.
  • I oktober 2019 upptäckte forskare att en algoritm som användes på över 200 miljoner människor på sjukhus i USA för att förutsäga vilka patienter som troligtvis skulle behöva extra medicinsk vård gynnade kraftigt vita patienter över svarta patienter.
  • COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) används i det amerikanska rättsväsendet för att förutsäga risken att en åtalad skulle återfalla i brott. På grund av data som användes vid träning av modell, modellarkitektur som valdes och processen att skapa algoritmen som helhet, förutsåg modellen dubbelt så många felaktiga positiva fall för återfall i brott för svarta åtalade (45%) jämfört med vita åtalade (23%).
  • PredPol är en AI-algoritm som används av polisavdelningar för att förutse och förebygga brott. Studier har visat att algoritmen har en tendens att rikta in sig på områden med hög minoritetsbefolkning, vilket kan leda till rasprofilering och andra former av diskriminering.
  • Google Photos: År 2015 lanserade Google en funktion i deras foto-app som automatiskt kategoriserade foton baserat på innehåll, inklusive ansiktsigenkänning. Men det visade sig att funktionen hade svårt att skilja mellan personer med mörkare hudtoner, vilket ledde till att många afroamerikaner och personer med annan etnisk bakgrund felaktigt kategoriserades som “gorillor”. Google fick mycket kritik för detta och tvingades ta bort funktionen.
  • IBM: År 2018 avslöjade en rapport från ProPublica att IBMs AI-baserade brottsbekämpningsprogramvara hade en tendens att diskriminera personer med annan etnisk bakgrund genom att övervärdera risken att de skulle återfalla i brott. Detta ledde till att många oskyldiga personer hamnade i häktet eller fick högre borgensbelopp än vad som var befogat.
  • Twitter: År 2020 visade en studie från forskare vid University of Cambridge att Twitters algoritmer hade en tendens att favorisera bilder av vita personer framför personer med annan etnisk bakgrund. Studien visade också att algoritmerna hade en tendens att kategorisera personer med mörkare hudtoner som mer aggressiva eller hotfulla.

Så undviker vi att göra om liknande misstag.

Vad krävs för att vi skall kunna producera en ansvarsfull AI?

  • Datamaterialet som används bör representera “vad som borde vara” och inte “vad som är” (representerat av den delmängd data man förfogar över).
  • Vi måste aktivt se till att datan vi använder representerar alla på ett likvärdigt sätt och på ett sätt som inte diskriminerar en viss grupp människor.
  • En viss typ av datastyrning bör vara obligatorisk och genomdrivas.
  • Modellutvärdering bör inkludera en utvärdering av sociala grupper.
  • Kontinuerlig uppdatering och övervakning av AI-system är viktigt för att se till att de fortfarande är rättvisa över tiden.
  • Inkludera mångfald i utvecklingen av AI-system för att se till att olika perspektiv och erfarenheter beaktas.
  • Öppenhet kring AI-system är viktigt för att skapa transparens och öppen diskussion om eventuella bias som kan finnas.
  • Utveckling av etiska riktlinjer för AI-algoritmer som tar hänsyn till sociala, ekonomiska och kulturella faktorer för att säkerställa att algoritmerna är rättvisa och inte diskriminerande.
  • Undvik att använda AI-system för beslut som kan påverka människors liv på ett negativt sätt.
  • Ökad medvetenhet och utbildning om AI-bias för både utvecklare och användare av AI-system är nödvändigt.
  • Undvik att använda AI-system som är tränade på historiska data som innehåller diskriminering.
  • Att inkludera etiska riktlinjer i utvecklingsprocessen för AI-system är avgörande.
  • Användning av AI-system för att upptäcka och korrigera bias kan vara en effektiv strategi.
  • Ett samarbete mellan regeringar, akademiker, utvecklare och användare kan bidra till att minska dessa problem

Sammanfattningsvis, AI-bias är varken ett litet område, eller något som går att nedprioritera. Om man skall vara framgångsrik med sina AI-satsningar, utan att riskera att gå emot sin egen värdegrund och riskera sitt varumärke, krävs det att man lägger ner stor kraft, tid och energi på dessa frågor.