Store teknologiselskaper signerte fredag en pakt om frivillig å ta «rimelige forholdsregler» for å forhindre at kunstig intelligens-verktøy brukes til å forstyrre demokratiske valg rundt om i verden.
Teknologiledere fra Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI og TikTok samlet seg på sikkerhetskonferansen i München for å kunngjøre et nytt frivillig rammeverk for hvordan de vil reagere på AI-genererte dype falske falske handlinger som bevisst lurer velgerne. Tolv andre selskaper, inkludert Elon Musks X, signerer også avtalen.
«Alle erkjenner at ingen teknologiselskaper, ingen myndigheter, ingen sivilsamfunnsorganisasjoner kan ta tak i bruken av denne teknologien og dens mulige ondsinnede bruk alene,» sa Nick Clegg, president for globale anliggender i Meta, l-organisasjonens morselskap til Facebook og Instagram. i et intervju før toppmøtet.
Oppgjøret er stort sett symbolsk, men retter seg mot stadig mer realistiske AI-genererte bilder, lyd og video «som forfalsker eller villedende endrer utseendet, stemmen eller handlingene til politiske kandidater, valgfunksjonærer og andre partier som er nøkkelinteressenter i et demokratisk valg, eller som gir falsk informasjon til velgerne om når, hvor og hvordan de lovlig kan stemme.»
Selskapene forplikter seg ikke til å forby eller fjerne deepfakes. I stedet skisserer avtalen metodene de vil bruke for å prøve å oppdage og merke villedende AI-innhold når det opprettes eller distribueres på deres plattformer. Den bemerker at selskaper vil dele beste praksis med hverandre og gi «raske og forholdsmessige svar» når slikt innhold begynner å spre seg.
Uklarheten i forpliktelsene og mangelen på bindende krav bidro sannsynligvis til å vinne over en mangfoldig gruppe selskaper, men kunne skuffe pro-demokratiske aktivister og portvakter på jakt etter sterkere garantier.
«Språket er ikke så sterkt som du kanskje forventer,» sa Rachel Orey, senior assisterende direktør for valgprosjektet ved Bipartisan Policy Center. «Jeg synes vi bør gi kreditt der det er på sin plass og anerkjenne at selskaper har en interesse i at verktøyene deres ikke blir brukt til å undergrave frie og rettferdige valg. Når det er sagt, er det frivillig og vi vil følge med på om de blir fulgt opp.»
Clegg sa at hvert selskap «med rette har sitt eget sett med innholdspolicyer.»
«Dette betyr ikke å prøve å bruke en tvangstrøye på alle,» sa han. «Og uansett, ingen i bransjen tror du kan nærme deg et helt nytt teknologisk paradigme ved å feie ting under teppet og prøve å spille «Whack-a-Mole» og finne alt du tror kan villede noen.»
Avtalen i den tyske byen årlig sikkerhetsmøte Det kommer ettersom mer enn 50 land forventes å gjøre motstand nasjonale valg i 2024. Noen har allerede gjort det, bl.a Bangladesh, Taiwan, Pakistanog mer nylig Indonesia.
AI-genererte valginterferensforsøk de har allerede startetsom når Robotic AI kaller som etterlignet USAs president Stemmen til Joe Biden prøvde å fraråde folk å stemme i New Hampshires primærvalg forrige måned.
Noen dager tidligere Valg i Slovakia i november etterlignet AI-genererte lydopptak en liberal kandidat som diskuterte planer om å heve ølprisene og rigge valget. Faktasjekkere var raske til å identifisere dem som falske, men de ble allerede mye delt som ekte på sosiale medier.
Politikere og valgkomiteer har også eksperimentert med teknologien siden den ble tatt i bruk AI chatbot å kommunisere med velgerne ved å legge til AI-genererte bilder i annonser.
I forkant av valget i Indonesia delte lederen av et politisk parti en video der han klonet ansiktet og stemmen til den avdøde diktatoren Suharto. Innlegget på X avslørte at videoen ble generert av kunstig intelligens, men noen nettkritikere kalte det misbruk av AI-verktøy for å skremme og påvirke velgere.
Fredagens avtale sier at, som svar på AI-genererte deepfakes, vil plattformene «ta oppmerksomhet til kontekst og spesielt til å ivareta pedagogisk, dokumentarisk, kunstnerisk, satirisk og politisk uttrykk.»
Han sa at selskapene vil fokusere på åpenhet for brukerne om deres retningslinjer for villedende AI-valginnhold og arbeide for å utdanne publikum om hvordan de kan unngå å falle for falsk AI.
Mange selskaper har tidligere sagt at de beskytter deres generative AI-verktøy som kan manipulere bilder og lyder, samtidig som de jobber med å identifisere og merkeinnhold generert av kunstig intelligens slik at brukere av sosiale medier vet om det de ser er ekte. Men de fleste av de foreslåtte løsningene er ennå ikke implementert, og selskaper har møtt press fra regulatorer og andre om å gjøre mer.
Dette presset er størst i USA, hvor Kongressen ennå ikke har vedtatt lover som regulerer AI i politikken, og lar AI-selskaper i stor grad styre seg selv. I mangel av føderal lovgivning vurderer mange stater hvordan de skal sette grenser for bruken av kunstig intelligens, ved valg og andre applikasjoner.
Den føderale kommunikasjonskommisjonen nylig bekreftet AI-genererte lydklipp i robocall er mot loven, men det dekker ikke lyddeepfakes når de sirkulerer på sosiale medier eller i kampanjeannonser.
Desinformasjonseksperter advarer om at selv om AI-drevne deepfakes er spesielt bekymret for deres potensial til å forbli uoppdaget og påvirke velgerne i år, er billigere og enklere former for desinformasjon fortsatt en stor trussel. Avtalen tok også dette til etterretning, og anerkjente at «tradisjonelle manipulasjoner («billige forfalskninger») kan brukes til lignende formål.»
Mange sosiale medieselskaper har allerede vedtatt retningslinjer for å motvirke villedende innlegg om valgprosesser, enten AI-generert eller ikke. For eksempel, Halv Den sier at den fjerner feilinformasjon om «datoer, steder, klokkeslett og metoder for stemmegivning, velgerregistrering eller deltakelse i folketellingen» så vel som andre falske innlegg som har til hensikt å forstyrre noens samfunnsdeltakelse.
Jeff Allen, medgründer av Integrity Institute og tidligere dataforsker ved Facebook, sa at avtalen virker som et «positivt skritt», men han vil fortsatt se at sosiale medieselskaper tar andre viktige handlinger for å bekjempe feilinformasjon, for eksempel å bygge innhold anbefalingssystemer som ikke prioriterer engasjement over alt annet.
I tillegg til de store plattformene som hjalp meglere fredagens avtale, inkluderer andre underskrivere chatbot-utviklerne Anthropic og Inflection AI; ElevenLabs, en oppstart av stemmekloning; Arm Holdings, chip designer; sikkerhetsselskapene McAfee og TrendMicro; og Stability AI, kjent for å lage Stable Diffusion-bildegeneratoren.
Merkbart fraværende i avtalen er en annen populær AI-bildegenerator, Midjourney. Den San Francisco-baserte oppstarten svarte ikke umiddelbart på en forespørsel om kommentar fredag.
Inkludering av X – ikke nevnt i en tidligere kunngjøring på den ventende avtalen – var en av de største overraskelsene i fredagens avtale. Musk kuttet innholdsmodereringsteam etter å ha overtatt tidligere Twitter og beskrev seg selv som en «ytringsfrihetsabsolut».
Men i en uttalelse fredag sa X-sjef Linda Yaccarino «enhver innbygger og enhver bedrift har et ansvar for å sikre frie og rettferdige valg.»
«X er forpliktet til å gjøre sin del, samarbeide med kolleger for å bekjempe AI-trusler, samtidig som ytringsfriheten beskyttes og åpenheten maksimeres,» sa han.
__
Associated Press mottar støtte fra flere private stiftelser for å forbedre sin forklarende dekning av valg og demokrati. Lær mer om APs demokratiske initiativ Her. AP er eneansvarlig for alt innhold.
«Ond alkoholelsker. Twitter-narkoman. Fremtidig tenåringsidol. Leser. Matelsker. Introvert. Kaffeevangelist. Typisk baconentusiast.»