Blog

Når kunstig intelligens fører til diskriminering og brudd på menneskerettigheter

Bilde av Luis Quintero fra Pexels

I mitt forrige innlegg skrev jeg litt om fenomenet kunstig intelligens og noen eksempler på hva det brukes til. I dette innlegget har vi fått i oppgave av Arne Krokan å gå mer inn på temaet og skrive om sosiale konsekvenser ved bruk av kunstig intelligens.

Ansiktsgjenkjenning er en form for kunstig intelligens flere av oss møter på i hverdagen. Teknologien gir oss enkelt tilgang til telefoner, datamaskiner, og apper som krever verifisering. Den brukes også innenfor medisin, og av politiet i kampen mot kriminelle. Det kan virke som en “uskyldig” teknologi som gir oss muligheter vi ikke har hatt tidligere. Teknologien bringer derimot ikke bare med seg fordeler. For hva skjer når algoritmene bygges på gamle holdninger, og diskriminerer minoriteter? Og hvordan brukes ansiktsgjenkjenning i noen land til forfølgelse og overvåkning av befolkningen?

Fordeler ved bruk av ansiktsgjenkjenning

Selv om dette innlegget vil handle mest om negative konsekvenser er det også flere fordeler ved bruk av teknologien. Brad Smith, president i Microsoft, skriver blant annet på selskapets blogg hvordan teknologien ved hjelp av film og bilde fanget opp av overvåkningskamera kan identifisere personer i det offentlige rom. Dette kan være hjelpsomt i jakten på barn som er forsvunnet eller eldre med Alzheimers som har kommet bort fra hjemmet. Politiet kan også bruke teknologien til å avverge terrorangrep ved at de kan spore opp personer de mistenker er på vei inn i en folkemengde for å utføre angrep. Smith skriver også hvordan teknologien kan hjelpe blinde. Dette ved at telefonen eksempelvis kan lese opp navn på de som entrer rommet personen sitter i.

Gratis arkivbilde med årstid, blomst, blomster

Bilde av Abby Chung fra Pexels

Et annet eksempel er hvordan den ideelle organisasjonen Thorn brukte «Amazon Rekognition», for å utvikle Spotlight. Dette er et verktøy som gjør det mulig å identifisere mindreårige som var offer for menneskehandel. Spotlight har blitt mye utviklet de siste årene, og bruker blant annet ansiktsgjenkjenning for å sjekke bilder brukt i sex-annonser opp mot lister og bilder over savnede barn. I følge Thorn har Spotlight blitt brukt at rettsvesenet på rundt 40.000 saker i Amerika, og mer enn 9.000 barn har blitt funnet ved hjelp av systemet. Jeg anbefaler å lese mer om dette her.

Rasistiske algoritmer?

Selv med flere fordeler ved bruk av ansiktsgjenkjenning er det ikke uten grunn at den amerikanske teknologibedriften IBM valgte å avslutte bruken av ansiktsgjenkjenning, og ikke ønsker å tilby programvare for ansiktsgjenkjenning eller ansiktsanalyse. Dette begrunner selskapet med at teknologien i noen tilfeller blir brukt i overvåkning, diskriminering og brudd på menneskerettigheter. Arvind Krishna, administrerende direktør i IBM, trekker også inn hvordan utviklere og brukere av teknologien, må jobbe for at det skal bli mindre fordommer innenfor kunstig intelligens.

Algoritmene som brukes til ansiktsgjenkjenning har ved flere studier vist seg å bygge på gamle fordommer og verdier. Blant annet ved at den fungerer godt så lenge du er hvit og mann. Om du er kvinne, mørkhudet, eller har ikke-vestlige ansiktstrekk, er det større sjanse for at algoritmene vil feilidentifisere deg. I en studie fra MIT Media Lab og Microsoft kommer det frem at algoritmene gjenkjente hvite menn med 1% i feilmargin. Hos mørkhudede kvinner lå på mellom 25-35%. 

Gratis arkivbilde med afro, afrofrisyre, anlegg

Bilde av Nicholas Swatz fra Pexels

Når algoritmene feilidentifiserer en person kan dette få store konsekvenser for vedkommende. Selv om det er positive sider ved bruken av ansiktsgjenkjenning i jakten på kriminelle kan feilidentifiseringen føre til pågripelser av mennesker som ikke en gang befant seg på åstedet. Mennesker kan bli dømt for kriminalitet de ikke har begått. Et annet skremmende eksempel er hvordan algoritmene som brukes av rettsvesenet i USA til å regne ut gjentakelsesfare, kom frem til at mørkhudede Brisha Bordon hadde høyere gjentakelsesfare, enn den hvite mannen Vernon Prater. Dette til tross for at Bordon hadde begått én kriminell handling (med unntak av forseelse da hun var yngre). Prater derimot hadde bakgrunn som kriminell. Han hadde allerede begått to væpnede ran, et forsøk på væpnet ran, og hadde fem år i fengsel bak seg. Flere år senere kan en se at algoritmene tok feil. Bordon har ikke begått en kriminell handling igjen. Prater på sin side, ble dømt til åtte år i fengsel for å stjele varer av en høy sum fra ett lager.

Bruk av ansiktsgjenkjenning for å ta stilling til gjentakelsesfare av kriminelle kunne vært et godt hjelpemiddel for å skape mer rettferdighet. Når algoritmen derimot følger holdninger som ble ulovlig på 1970 tallet, da det ble forbudt å ta stilling til gjentakelsesfare ut fra etnisitet og hudfarge, er dette heller et steg i feil retning. Det er skummelt når faren for feilidentifisering gjør at mørkhudede får urettferdige høye straffer, og farlige kriminelle slipper ut i samfunnet tidligere enn antatt.

Et skritt i feil retning i kampen om likestilling

Det er ikke bare feilidentifisering som er et problem innenfor kunstig intelligens. Amazon eksperimenterte i en periode med et rekrutteringsverktøy basert på kunstig intelligens. Systemet skulle automatisere og forenkle ansettelsesprosessen ved hjelp av kunstig intelligens. Problemet oppsto derimot når det ble oppdaget at algoritmene rett og slett ikke likte kvinner, og dermed ikke var kjønnsnøytral når de valgte nye ansatt. Ut fra søknader selskapet hadde mottatt de siste ti årene oppfattet algoritmene at disse som oftest var fra menn. Algoritmene lærte dermed seg selv at menn var mer ønsket enn kvinner til jobbene. Utviklingen av rekrutteringsverktøyet ble derimot avsluttet, på bakgrunn av flere feil enn et at det ikke var kjønnsnøytralt.

Selv om ansettelsesverktøyet ikke ble tatt i bruk av Amazon, burde det uansett tas stilling til. Går en ut fra dette eksempelet, faren for feilidentifisering, og algoritmer som bygger på gamle fordommer, tror jeg det vil ta lang tid før vi kan stole helt på kunstig intelligens. Bruken av kunstig intelligens i fremtidige ansettelsesprosesser kan derfor dra oss flere skritt tilbake i kampen om likestilling, hvis teknologien skal diskriminere basert på hudfarge og kjønn.

Overvåkning og diskriminering

Er du av den glemsomme typen er du kanskje en av dem som setter pris på at det i noen tilfeller ikke er nødvendig med pass om du skal ut å reise. Da MacKenzie Fegan skulle fly med det amerikanske flyselskapet JetBlue, trengte hun ikke å vise frem pass som vi er vant med. I gaten ble heller ansiktet hennes skannet. Fegan tenkte ikke stort over dette med en gang, men begynte etter hvert å stille spørsmålene om hun egentlig hadde gitt tillatelse til dette og hvordan flyselskapet kunne gjenkjenne henne. Her svarte selskapet at de hadde fått informasjon som ga mulighet til å gjenkjenne ansiktet hennes fra amerikanske sikkerhetsmyndigheter.

Det høres kanskje ikke så skummelt ut at dataen ble brukt til ansiktsgjenkjenning hos et flyselskap. Det blir derimot skummelt når identifiseringen av personer blir brukt til forfølgelse og diskriminering.  Stanford University har en studie som sier at algoritmer kan finne ut legningen til en person ut fra ansiktet med opptil 91% riktig. Studien har fått kritikk, og anses også å være direkte farlig. I dag er det ulovlig å være homofil i hele 68 land. Om myndighetene vil, og har mulighet, i noen av disse landene kan det da tenkes at teknologien kan brukes til å forfølge og straffe homofile for deres legning. Dette er et stort skritt i helt feil retning i kampen om homofiles rettigheter verden over.

Det finnes allerede ekstreme eksempler på hvordan ansiktsgjenkjenning blir brukt av myndigheter for å spore opp minoriteter. Kina har blant annet blitt anklaget for å bruke overvåking og ansiktsgjenkjenning til å spore opp Uighurs, en muslimsk minoritet i regionen Xinjiang. Myndighetene påstår at det er for utdanning og bekjempelse av ekstremisme i regionen, men de blir også anklaget for å stenge inne og mishandle Uighurs. Dette kan leses mer om her.

I 2014 annonserte myndighetene i Kina at de innen utgangen av 2020 skulle ha implementert ett kredittsystem som skal brukes til å rangere befolkningen. Ved bruk av systemet vil de gi innbyggerne poeng ut fra deres oppførsel. Oppførsel som oppfattes som riktig av myndighetene vil gi høyere kreditt. Belønningen man kan vente seg er blant annet flere treff på datingnettsider, rabatter på strømregninger og bedre rente i banken. Dårlig oppførsel vil derimot gi konsekvenser i form av utestengelser fra skoler, treg nettilgang og reiseforbud med fly og tog, for å nevne noen. Landet innførte også i 2018 bruk av solbriller som kunne gjenkjenne ansikter hos politiet. Disse blir blant annet brukt på togstasjoner for å sjekke at ingen som var på «svartelisten» reiste ulovlig. På svartelisten kan man blant annet finne kriminelle, journalister og menneskerettighetsaktivister.

For eller i mot bruken av ansiktsgjenkjenning?

Det kan være vanskelig å vite helt hva man skal tenke rundt bruken av ansiktsgjenkjenning. Den ideelle organisasjonen Thorn har helt klart vist at det er store fordeler ved bruk av teknologien, og at den kan være med på å redde liv. Eksempelet fra Kina og deres bruk av teknologien viser derimot at det kan sette liv i fare. Det er store skiller mellom hvordan teknologien blir brukt, og det er derfor ikke mulig å være enten for eller i mot utviklingen av ansiktsgjenkjenning. Store tek-selskaper som Microsoft ber derimot om en regulering for bruken av ansiktsgjenkjenning fra myndighetene, og dette kunne blant annet hjulpet teknologien på riktig vei. På en annen side er det myndighetene i de ulike landene som bestemmer, og det blir derfor vanskelig når det er myndighetene selv som bruker teknologien til å begå brudd på menneskerettigheter.

Hva tenker dere om tema?

Som student setter jeg stor pris på tilbakemeldinger for å kunne forbedre meg på å blogge, og for å lære mer om teamene jeg skriver om.

-Thale

Du vil kanskje også like...

4 kommentarer

  1. Hei Thale!
    Dette var et kjempe fint innlegg! Du skriver godt, og det er fryd å lese innlegget ditt 😀 Jeg har svært lite å ta deg på her, eneste jeg la merke til er at du har glemt å inkludere en fullstendig kildeliste nederst i innlegget – ellers er alt helt topp! Stå på Thale!

    1. Tusen takk! Kildeliste skal jeg huske på fremover 🙂

  2. Jeg synes det er så morsomt å lese det du skriver Thale, for du skriver så levende og godt og du går ut over det som presenteres i forelesningene, gjør egen research, analyserer og kommer frem til en fin fremstilling. Stå på videre så vil du ikke bare ha en fin blogg, men også en verdifull digital faghistorikk som viser at du har jobbet systematisk og fint med de temaene vi går gjennom. Jeg vet ikke om noen arbeidsgivere som ikke vil sette pris på det!
    Lykke til videre fra
    -arne

    1. Så hyggelig å høre! Syntes temaene vi har gått i gjennom, og oppgavene vi har fått har vært interessante, så har vært gøy å gjøre litt ekstra research 🙂 Tusen takk for tilbakemelding!

Legg igjen en kommentar til Stine Sauro Hellsten Avbryt svar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

Social Share Buttons and Icons powered by Ultimatelysocial
Facebook
LinkedIn
LinkedIn
Share
Instagram