- Av Zoe Kleinmann
- Teknologiredaktør
De siste dagene har Gemini, Googles verktøy for kunstig intelligens, hatt det som best beskrives som en ekte suksess på nett.
Tvillingene har blitt kastet på et ganske stort bål: kulturkrigen som raser mellom venstreorienterte og høyreorienterte samfunn.
Gemini er i hovedsak Googles versjon av den virale chatboten ChatGPT. Den kan svare på spørsmål i tekstform og kan også generere bilder som svar på tekstinstruksjoner.
Opprinnelig viste et viralt innlegg at denne nylig lanserte AI-bildegeneratoren (kun tilgjengelig i USA) skapte et bilde av grunnleggerne av USA som ved en feiltakelse inkluderte en svart mann.
Tvillingene ble også far til tyske soldater fra andre verdenskrig, og skildret feilaktig en svart mann og en asiatisk kvinne.
Google ba om unnskyldning og satte umiddelbart verktøyet på pause, og skrev i en blogg innlegg at han «manglet målet».
Men det endte ikke der: Hans for politisk korrekte svar fortsatte å komme, denne gangen fra tekstversjonen.
Gemini svarte at det ikke var «ingen rett eller galt svar» på spørsmålet om hvorvidt Elon Musk postet memes om X var verre enn at Hitler drepte millioner av mennesker.
På spørsmål om det ville være greit å baktale den høyprofilerte transkvinnen Caitlin Jenner hvis det var den eneste måten å unngå atomapokalypse på, svarte han at dette «aldri» ville være akseptabelt.
Jenner selv reagerte og sa at faktisk, ja, hun ville være ok med det under disse omstendighetene.
Elon Musk beskrev i et innlegg på sin plattform, X, Geminis svar som «ekstremt alarmerende» gitt at verktøyet ville bli innlemmet i Googles andre produkter, samlet brukt av milliarder av mennesker.
Jeg spurte Google om den planla å sette Gemini på pause. Etter en lang pause ble jeg fortalt at selskapet ikke hadde noen kommentarer. Jeg mistenker at det ikke er en morsom tid å jobbe i PR-avdelingen.
Forvrengte data
Det ser ut til at teknologigiganten i forsøket på å løse ett problem – skjevhet – har skapt et annet: resultater som prøver så hardt å være politisk korrekte at de ender opp med å bli absurde.
Forklaringen på hvorfor dette skjedde ligger i den enorme mengden data som AI-verktøy er trent på.
Mye av det er offentlig tilgjengelig – på Internett, som som vi vet inneholder alle slags skjevheter.
Tradisjonelt er det mer sannsynlig at bilder av leger avbilder menn. Bilder av rengjøringsmidler er imidlertid mer sannsynlig å være kvinner.
AI-verktøy som er trent med disse dataene har gjort pinlige feil tidligere, for eksempel å konkludere med at bare menn hadde jobber på høyt nivå eller unnlatt å gjenkjenne svarte ansikter som mennesker.
Videre er det ingen hemmelighet at historisk fortelling har en tendens til å inneholde og stamme fra menn, og utelater kvinners roller fra historier fra fortiden.
Det ser ut til at Google aktivt har forsøkt å kompensere for alle disse rotete menneskelige skjevhetene med instruksjoner for Gemini om ikke å gjøre slike antakelser.
Men det mislyktes nettopp fordi menneskets historie og kultur ikke er så enkel: Det er nyanser som vi kjenner instinktivt og maskiner ikke.
Med mindre du spesifikt programmerer et AI-verktøy for å vite at for eksempel nazistene og grunnleggerne ikke var svarte, vil du ikke gjøre denne forskjellen.
Mandag sa DeepMind-medgründer Demis Hassabis, et kunstig intelligens-selskap kjøpt opp av Google, at reparasjonen av bildegeneratoren vil ta noen uker.
Men andre AI-eksperter er ikke så sikre.
«Det er egentlig ingen enkel løsning, fordi det ikke er noe enkelt svar på hva resultatene bør være,» sa Dr. Sasha Luccioni, en forsker ved Huggingface.
«Folk i AI-etikkmiljøet har jobbet med mulige måter å løse dette problemet på i årevis.»
En løsning, la han til, kan inkludere å spørre brukerne om deres innspill, for eksempel «hvor annerledes vil du at bildet ditt skal være?» men dette i seg selv gir tydelig sine egne advarselstegn.
«Det er litt overmodig av Google å si at det kommer til å løse problemet om noen uker. Men det er nødt til å gjøre noe,» sa han.
Professor Alan Woodward, en dataforsker ved University of Surrey, sa at det så ut til at problemet var «ganske dypt forankret» i både treningsdataene og de underliggende algoritmene – og at det ville være vanskelig å fikse.
«Det du ser … er grunnen til at det fortsatt vil være et behov for et menneske i løkken for ethvert system der du stoler på resultatet som den grunnleggende sannheten,» sa han.
Bard oppførsel
Fra det øyeblikket Google lanserte Gemini, den gang kjent som Bard, var det ekstremt nervøst for det. Til tross for den overveldende suksessen til konkurrenten ChatGPT, var det en av de roligste lanseringene jeg noen gang har blitt invitert til. Bare meg, på en Zoom-samtale, med et par Google-ledere som ønsket å påpeke begrensningene.
Resten av teknologibransjen virker ganske forvirret over hva som skjer.
De sliter alle med det samme problemet. Rosie Campbell, Policy Manager hos OpenAI, skaperen av ChatGPT, ble intervjuet tidligere denne måneden for en blogg som sier at i OpenAI, selv når en skjevhet er identifisert, er det vanskelig å korrigere det og krever menneskelig innsats.
Men det ser ut til at Google har valgt en ganske klønete måte å prøve å rette opp i gamle fordommer. Og ved å gjøre det skapte han utilsiktet en hel rekke nye.
På papiret har Google en betydelig ledelse i AI-løpet. Den lager og leverer sine egne AI-brikker, har sitt eget skynettverk (nødvendig for AI-behandling), har tilgang til enorme mengder data, og har også en gigantisk brukerbase. Den ansetter AI-talent i verdensklasse og AI-arbeidet er universelt berømmet.
Som en toppleder i en rivaliserende teknologigigant sa til meg: Å se Geminis feiltrinn er som å se nederlaget rives fra seierens kjeft.
«Ond alkoholelsker. Twitter-narkoman. Fremtidig tenåringsidol. Leser. Matelsker. Introvert. Kaffeevangelist. Typisk baconentusiast.»