Home » Raseskjevhet i AI: Offiserer avhørte far i etterforskning av vakttyveri etter at han ble feilidentifisert av ansiktsgjenkjenningsteknologi | Vitenskaps- og teknologinyheter

Raseskjevhet i AI: Offiserer avhørte far i etterforskning av vakttyveri etter at han ble feilidentifisert av ansiktsgjenkjenningsteknologi | Vitenskaps- og teknologinyheter

by Edvard Munch

Robert Williams, 45, tilbrakte 30 timer i politiets varetekt etter å ha blitt feilaktig identifisert av ansiktsgjenkjenningsteknologi med kunstig intelligens i en etterforskning av tyveri av stjålne klokker.

Fra Arthi Nachiappan, teknologikorrespondent


Fredag ​​10. november 2023 03:14, Storbritannia

For tre år siden i Detroit kom Robert Williams hjem fra jobb for å finne politiet som ventet på døren hans, klar til å arrestere ham for en forbrytelse han ikke har begått.

Ansiktsgjenkjenningsteknologi brukt av offiserer hadde forvekslet Williams med en mistenkt som hadde stjålet klokker for tusenvis av dollar.

Systemet koblet et uskarpt CCTV-bilde av den mistenkte til det av Williams i det som antas å være det første kjente tilfellet av en ulovlig arrestasjon på grunn av bruken av Teknologi basert på kunstig intelligens.

Opplevelsen var «rasende,» sa Williams.

«Tenk deg å vite at du ikke har gjort noe galt … Og de dukker opp hjemme hos deg og arresterer deg i oppkjørselen din før du faktisk kan gå ut av bilen og klemme og kysse kona di eller se barna dine.»

Williams, 45, ble løslatt etter 30 timer i varetekt og anla et pågående søksmål mot Detroit Police Department med krav om erstatning og forbud mot bruk av ansiktsgjenkjenningsprogramvare for å identifisere mistenkte.



Bilde:
Robert Williams med familien

Det er seks kjente tilfeller av ulovlige arrestasjoner i USA, og i alle tilfeller var ofrene fargede.

AI gjenspeiler rasemessige skjevheter i samfunnet fordi den er trent på data fra den virkelige verden.

En amerikansk regjeringsstudie publisert i 2019 fant at ansiktsgjenkjenningsteknologi var 10 til 100 ganger mer sannsynlig å feilidentifisere svarte enn hvite.

Det er fordi teknologien er trent på overveiende hvite datasett. Dette er fordi han ikke har mye informasjon om hvordan folk av andre raser ser ut, så det er mer sannsynlig at han gjør feil.

Det er økende krav om at denne skjevheten skal adresseres hvis bedrifter og politikere ønsker å bruke den til fremtidige beslutninger.

En tilnærming til å løse problemet er å bruke syntetiske data, generert av en datamaskin slik at de er mer mangfoldige enn virkelige datasett.

Chris Longstaff, visepresident for produktledelse hos Mindtech, en Sheffield-basert oppstart, sa at datasett i den virkelige verden er iboende partisk på grunn av hvor dataene kommer fra.

«I dag bruker de fleste AI-løsningene som er tilgjengelige data samlet inn fra Internett, enten det kommer fra YouTube, Tik Tok, Facebook, noen av de typiske sosiale mediesidene,» sa han.

Dette er en begrenset versjon av historien, så dessverre er ikke dette innholdet tilgjengelig.

Åpne fullversjonen

For å vite mer:
Nye regler avslørt for å beskytte små barn på sosiale medier
Telefoner kan være i stand til å oppdage hvor full en person er basert på stemmen deres

Som en løsning skapte Mr. Longstaffs team «digitale mennesker» basert på datagrafikk.

Disse kan variere basert på etnisitet, hudtone, fysiske egenskaper og alder. Laboratoriet kombinerer deretter noen av disse dataene med virkelige data for å lage et mer representativt datasett for opplæring av AI-modeller.

En av Mindtechs kunder er et byggefirma som ønsker å forbedre sikkerheten til utstyret sitt.

Laboratoriet bruker de forskjellige dataene som genereres for å trene selskapets autonome kjøretøy til å gjenkjenne ulike typer mennesker på byggeplassen slik at de kan stoppe hvis noen er i veien.



Bilde:
Noen CCTV-kameraer er nå utstyrt med ansiktsgjenkjenningsteknologi. Arkivbilde

Toju Duke, en AI-konsulent og tidligere programleder hos Google, sa at bruk av datagenererte eller «syntetiske» data for å trene AI-modeller har sine ulemper.

«For en som meg har jeg ikke reist over hele verden, jeg har ikke møtt noen fra hver eneste kultur, etnisitet og land,» sa han.

«Så jeg kan ikke utvikle noe som representerer alle i verden og som kan føre til ytterligere kriminalitet.

«Så vi kan faktisk ha mennesker eller syntetiske avatarer som kan ha en manerisme som kan være støtende for noen andre fra en annen kultur.»

Problemet med rasemessig skjevhet er ikke unikt for ansiktsgjenkjenningsteknologi, men har blitt registrert i flere typer kunstig intelligens-modeller.

Klikk for å abonnere på Sky News Daily uansett hvor du får podcastene dine

Det store flertallet av AI-genererte bilder av «fast food-arbeidere» viste mennesker med mørkere hudtoner, selv om amerikanske arbeidsmarkedsdata viser at flertallet av fastfood-arbeidere i landet er hvite, ifølge et Bloomberg-eksperiment med Stability AI bildegenerator tidligere i år.

Selskapet sa at det jobber med å diversifisere treningsdataene sine.

En talsperson for Detroit Police Department sa at det er strenge regler for bruk av ansiktsgjenkjenningsteknologi, og den anser enhver kamp bare som en «etterforskningsleder» og ikke som bevis på at en mistenkt har begått en forbrytelse.

«Det er en rekke kontroller og balanserer for å sikre etisk bruk av ansiktsgjenkjenning, inkludert: bruk på direktesendt eller innspilt video er forbudt; veiledertilsyn; og ukentlig og årlig rapportering til styret for politikommisærer om bruk av programvaren,» sa de.

Related Videos

Leave a Comment