Home » En guide til hvordan teknologiske plattformer kontrollerer AI-generert politisk feilinformasjon

En guide til hvordan teknologiske plattformer kontrollerer AI-generert politisk feilinformasjon

by Russell Crowe

Ettersom rekordmange velgere rundt om i verden går til valgurnene i år, har risikoen for AI-assistert feilinformasjon blitt mer uttalt enn noen gang.

Spredningen av falsk informasjon i politikken, et tilbakevendende problem, forsterkes av fremveksten av generative AI-verktøy, som lar hvem som helst lage dype forfalskninger (bilder, videoer og lydfiler som er større enn livet fra en enkelt melding). Og med rekordhøye 49 % av verdens befolkning på vei til valgurnene i år, blir teknologiens potensiale for misbruk under økt gransking.

Amerikanerne ble klar over disse risikoene i januar, da et AI-generert robocall som etterlignet president Bidens stemme ble sendt til velgere i New Hampshire, og bønnfalt dem om ikke å delta i statens presidentvalg. Så, i mars, gikk AI-genererte opptak som viser tidligere president Trump sitte og smile sammen med en gruppe svarte amerikanere viralt på nettet.

For et trent øye kan det være tegn på at innholdet er AI-generert. (Bildene av Trump nevnt ovenfor, for eksempel, hadde inkonsekvent tekst og minst én finger manglet). Men for de fleste som raskt blar gjennom sosiale medier, kan manipulerte medier være overbevisende.

Men deepfakes er ikke det eneste som utgjør en trussel. Tekstgenereringsverktøy som ChatGPT er også kjent for å indusere hallusinasjoner eller generere falsk informasjon, noe som forsterker farene ytterligere under et så viktig valgår.

Drevet av AI

Oppdag vanlige spørsmål




I fravær av robust føderal regulering av denne teknologien i USA (selv om en lov i California forbyr opprettelse og distribusjon av villedende deepfakes som skildrer politikere i de 60 dagene før et valg), er det beste vi kan håpe akkurat nå, handling fra teknologiselskaper og sosiale medier.

Dette har selvfølgelig ikke alltid vært et vinnende veddemål, og de harde lærdommene fra 2016 og Cambridge Analytica-skandalen viser den skadelige og avgjørende rollen plattformer kan spille i valgresultatet.

Her er en rask titt på hva store teknologiselskaper gjør for å redusere spredningen av AI-generert feilinformasjon i oppkjøringen til det globale valget i 2024.

OpenAI

Siden den monumentale utgivelsen av ChatGPT i 2022, har AI-programmets morselskap oppnådd det ene gjennombruddet etter det andre. I februar, for eksempel, avduket den Sora, en mal, for tiden i beta, som kan generere fotorealistiske videoer fra tekstmeldinger.

Men hver av disse hendelsene har økt den politiske innsatsen: Sora kan brukes til å lage en mildt sagt urovekkende, men mer eller mindre harmløs annonsekampanje for Toys R Us, men den – eller et lignende verktøy – kan også hypotetisk brukes til å lage farlig falsk informasjon . Med andre ord, etter hvert som OpenAIs tekniske dyktighet øker, øker også ansvaret.

Så hvilke skritt tar selskapet for å bevare integriteten til det kommende globale valget?

Noen av verktøyene ble designet for å ikke svare på politisk sensitive forespørsler. Dall-E-bildegenereringsverktøyet, for eksempel, «har garantier for å avslå forespørsler som ber om generering av bilder av ekte mennesker, inkludert kandidater,» ifølge et blogginnlegg fra selskapet publisert i januar.

På samme måte kan ikke brukere lage GPT-er designet for å imitere virkelige mennesker eller institusjoner, og ChatGPT vil ikke svare på visse valgrelaterte spørsmål, men vil i stedet henvise brukere til tredjepartskilder for mer informasjon.

Selskapet begynte også å bruke kryptografisk digital legitimasjon fra Coalition for Content Provenance and Authenticity (C2PA) – et vanlig sett med standarder for verifisering av digitalt innhold – for bilder generert av Dall-E 3.

Meta

Meta, eier av Facebook, Instagram og WhatsApp, kunngjorde i november at annonsører som bruker plattformene deres vil bli pålagt å merke bestemt politisk innhold som har blitt digitalt endret ved bruk av kunstig intelligens eller annen teknologi.

Bildeskarphet, fargekorrigering eller annen mindre redigering som er «uvesentlig eller uvesentlig for påstanden, påstanden eller problemet som er reist i annonsen» trenger ikke å bli «avslørt», skrev Meta i et blogginnlegg den gang.

Digitalt endrede annonser som ikke har blitt avslørt på riktig måte kan bli fjernet, sa selskapet, og gjentatte lovbrytere kan få straff.

X

Tidligere Twitter, Plattformen kan også bruke en etikett på innlegg som inneholder villedende medier.

Etter denne definisjonen sier X at dette inkluderer alle «medier som skildrer en ekte person.» [that’s] ble produsert eller simulert, spesielt ved bruk av kunstig intelligens-algoritmer. »

Som Meta,

«Velgerundertrykkelse eller trusler» er heller ikke tillatt på plattformen.

Xs Community Notes-verktøy, rullet ut globalt i desember 2022 etter Elon Musks oppkjøp av plattformen for 44 milliarder dollar, kan også bidra til å avsløre mediemanipulasjon. Denne funksjonen lar vanlige brukere legge til ekstra kontekst eller korrigere villedende informasjon i innlegg. Notatene, som vises rett under det opprinnelige innlegget, kan bidra til å redusere politisk feilinformasjon om appen.

Forvirring

Perplexity, en nettbasert søkemotor som utnytter store språkmodeller (LLM) for å samhandle med brukere, skapte overskrifter tidligere i år etter å ha mottatt finansiering fra Amazon-grunnlegger Jeff Bezos (sammen med en gruppe andre VC-er).

Når det gjelder troverdigheten som informasjonskilde, legger Perplexity vekt på bruken av sitater i svarene som genereres av systemet (selv om noen redaktører har anklaget plattformen for å plagiere innholdet uten attribusjon).

«Siden selskapets oppstart har vi integrert siteringer som en nøkkelfunksjon ved produktet slik at brukerne har muligheten til å undersøke kilder og grave dypere inn i et emne,» sa en talsperson for Perplexity til The Drum. «Dette er også grunnen til at vi presenterer kilder før et AI-generert svar, slik at brukerne kan stole på svaret og vite nøyaktig hvilken informasjon som inspirerte svaret. »

For søk relatert til valg eller stemmegivning la talspersonen til, «vi favoriserer autoritative kilder, som lokale, statlige og føderale myndigheters nettsteder, når de genererer svar.»

Tikk takk

I følge selskapets nettside krever appen at skaperne merker alt AI-generert innhold som deles på plattformen som «inneholder realistiske bilder, lyd og video». Skapere kan selv bruke en etikett på innhold som er «helt generert eller betydelig redigert av AI», eller TikTok kan automatisk bruke en etikett hvis den oppdager AI-generert innhold i et innlegg.

Plattformen har også forbudt visse former for AI-generert innhold, selv de som er eksplisitt merket som sådan. «Vi tillater ikke innhold som deler eller viser falske autoritative kilder eller krisehendelser, eller som falskt viser offentlige personer i visse sammenhenger,» ifølge nettstedet. «Dette inkluderer å bli mobbet, komme med en anbefaling eller bli anbefalt. » AI-genererte portretter av mindreårige, eller portretter av voksne publisert uten samtykke, er også forbudt.

Det er en garanti for brukerne, spesielt siden TikTok ikke bare har vært hjemmet til noen av de mest ekstreme brukssakene av politiske dype forfalskninger (så sent som denne uken, faktisk, da et falskt Steven Miles-klipp , australsk politiker og nåværende Premier i Queensland, dans, har sirkulert på nettet), men er også avhengig av AI-generert innhold. Forrige måned lanserte plattformen hyperrealistiske AI-avatarer, slik at skapere kan lure seg selv til å dele sponset innhold.

Betalt promotering av politisk innhold, enten AI-generert eller ikke, er også forbudt på TikTok.

Google

I mars kunngjorde Google at Gemini – AI-modellen som erstattet Bard noen måneder før – ikke ville få svare på spørsmål knyttet til det kommende globale valget.

«Som en forholdsregel på et så viktig tema, har vi begynt å implementere restriksjoner på hvilke typer valgrelaterte spørsmål som Gemini vil returnere svar på,» skrev selskapet i et blogginnlegg. «Vi tar vårt ansvar for å gi høykvalitetsinformasjon for denne typen spørsmål på alvor og jobber kontinuerlig med å forbedre beskyttelsen vår. »

På spørsmål om valglokaler for det kommende amerikanske valget i 2024, svarte Gemini: «Jeg kan ikke hjelpe deg med å svare på valg og politiske skikkelser på dette tidspunktet. Selv om jeg aldri med vilje ville dele noe unøyaktig, kan jeg gjøre feil. Så mens jeg jobber med å forbedre, kan du prøve Google-søk. »

For å lære om de siste hendelsene innen AI, Web3 og andre banebrytende teknologier, Abonner på nyhetsbrevet The Emerging Tech Briefing.

Related Videos

Leave a Comment