WASHINGTON (AP) — Facebook og Instagram vil kreve at politiske annonser kjører på deres plattformer for å avsløre om de ble opprettet ved hjelp av kunstig intelligensderes morselskap kunngjorde onsdag.
Under Metas nye retningslinjer vil etiketter som gjenkjenner bruken av AI vises på brukernes skjermer når de klikker på annonser. Regelen trer i kraft 1. januar og vil gjelde over hele verden.
Utviklingen av nye AI-programmer har gjort det enklere enn noen gang å raskt generere realistiske lyder, bilder og videoer. I feil hender kan teknologien brukes til å lage falske videoer av en kandidat eller skremmende bilder av velgersvindel eller vold ved valglokaler. Når de er koblet til kraftige sosiale medier-algoritmer, kan disse forfalskningene villede velgere og skape forvirring i en skala som aldri er sett før.
Meta Platforms Inc. og andre teknologiplattformer har blitt kritisert for ikke å gjøre mer for å møte denne risikoen. Onsdagens kunngjøring – som kommer den dagen House lovgivere holder en høring om deepfakes – vil neppe dempe disse bekymringene.
Ettersom europeiske tjenestemenn jobber med omfattende reguleringer for bruk av kunstig intelligens, begynner tiden å renne ut for amerikanske lovgivere til å vedta reguleringer før deadline. valget i 2024.
Tidligere i år startet den føderale valgkommisjonen en prosess potensielt regulere AI-genererte dype forfalskninger i politiske annonser foran valget i 2024. President Joe Bidens administrasjon ble løslatt i forrige uke et dekret ment å oppmuntre til ansvarlig utvikling av kunstig intelligens. Blant andre bestemmelser vil det kreve at AI-utviklere gir myndighetene sikkerhetsdata og annen informasjon om programmene deres.
USA er ikke det eneste landet som holder høyprofilerte valg neste år: Nasjonale valg er også planlagt i land som Mexico, Sør-Afrika, Ukraina, Taiwan og Pakistan.
AI-genererte politiske annonser har allerede dukket opp i USA. I april ga den republikanske nasjonalkomiteen ut en fullstendig AI-generert annonse ment å vise fremtiden til USA hvis Biden, en demokrat, blir gjenvalgt. Han brukte falske, men realistiske bilder som viser lukkede butikkfronter, pansrede militærpatruljer i gatene og bølger av innvandrere som sprer panikk. Annonsen ble merket for å informere seerne om at AI ble brukt.
I juni delte Florida-guvernør Ron DeSantis» presidentkampanje en angrepsannonse mot hans republikanske primærmotstander, Donald Trump, som brukte AI-genererte bilder av den tidligere presidenten som klemte infeksjonseksperten Dr. Anthony Fauci.
«Det blir veldig vanskelig for en tilfeldig observatør å forstå: Hva tror jeg her?» sa Vince Lynch, AI-utvikler og administrerende direktør i AI-selskapet IV.AI. Lynch sa at en kombinasjon av føderal regulering og frivillig politikk fra teknologiselskaper er nødvendig for å beskytte publikum. «Bedrifter må ta ansvar,» sa Lynch.
Metas nye policy vil dekke enhver annonse om et sosialt spørsmål, valg eller politisk kandidat som inkluderer et realistisk bilde av en person eller hendelse endret ved hjelp av AI. Mer beskjeden bruk av teknologien – for eksempel for å endre størrelse på eller skarpere et bilde – ville være tillatt uten avsløring.
I tillegg til etiketter som informerer seeren når en annonse inneholder AI-genererte bilder, vil informasjon om annonsens bruk av AI inkluderes i Facebooks online annonsebibliotek. Meta, basert i Menlo Park, California, sier at alt innhold som bryter regelen vil bli fjernet.
Google annonserte en lignende AI-merkingspolicy for politiske annonser i september. I henhold til regelen vil politiske annonser som kjøres på YouTube eller andre Google-plattformer måtte avsløre bruken av AI-redigerte stemmer eller bilder.
«Kaffeaholic. Livslang alkoholfanatiker. Typisk reiseekspert. Utsatt for apatianfall. Internett-banebryter.»