Home » Hvordan Silicon Valley-proffer reduserer AI-hallusinasjoner

Hvordan Silicon Valley-proffer reduserer AI-hallusinasjoner

by Edvard Munch
På godt og vondt har generativ kunstig intelligens eller Gen AI-verktøy skapt overskrifter. De opplever ofte at de «hallusinerer» brukere med sine oppdiktede svar. Nå har fagfolk i Silicon Valley oppdaget et triks for å redusere AI-hallusinasjoner, rapporterer Wired.
Hva er Enhanced Recovery Generation (RAG)? Kalt recovery augmented generation, eller RAG, er den ikke avhengig av informasjonen som er kodet under innledende opplæring. I stedet forsterker den brukerforespørsler ved å samle informasjon fra en tilpasset database, og deretter genererer en stor språkmodell (LLM) et svar basert på disse dataene.

Hvordan er denne prosessen forskjellig fra en standard ChatGPT-utgang?
Forskjellen er at RAG kan «sette inn ekte dokumenter» for å «forankre modellens svar på disse dokumentene,» sa Pablo Arredondo, visepresident for CoCounsel i Thomson Reuters, til Wired.

For eksempel kan et selskap laste alle HR-policyer og fordeler inn i en RAG-database og deretter be AI-chatboten om å fokusere på svar som bare finnes i disse dokumentene.

«Du belønner det, i måten du trener modellen på, for å prøve å skrive noe der hver faktauttalelse kan tilskrives en kilde,» sa Patrick Lewis, leder for AI-modellering hos Cohere.

Utgangene levert av RAG er ikke fri for hallusinasjoner. Rapporten beskriver resultatene levert av RAG som «lav hallusinasjon» i stedet for hallusinasjonsfrie. Ulike faktorer hevdes å spille en rolle for å redusere hallusinasjoner. Dette kan være kvaliteten på den generelle RAG-implementeringen og hvordan du bestemmer deg for å definere AI-hallusinasjoner

«Prosessen er definitivt ikke et universalmiddel som eliminerer alle feil gjort av AI,» heter det i rapporten. «Men nøyaktig hvor mye RAG reduserer AI-hallusinasjoner er et stridspunkt for forskere og utviklere.»

Related Videos

Leave a Comment