På godt og vondt har generativ kunstig intelligens eller Gen AI-verktøy skapt overskrifter. De opplever ofte at de «hallusinerer» brukere med sine oppdiktede svar. Nå har fagfolk i Silicon Valley oppdaget et triks for å redusere AI-hallusinasjoner, rapporterer Wired.
Hva er Enhanced Recovery Generation (RAG)? Kalt recovery augmented generation, eller RAG, er den ikke avhengig av informasjonen som er kodet under innledende opplæring. I stedet forsterker den brukerforespørsler ved å samle informasjon fra en tilpasset database, og deretter genererer en stor språkmodell (LLM) et svar basert på disse dataene.
Hvordan er denne prosessen forskjellig fra en standard ChatGPT-utgang?
Forskjellen er at RAG kan «sette inn ekte dokumenter» for å «forankre modellens svar på disse dokumentene,» sa Pablo Arredondo, visepresident for CoCounsel i Thomson Reuters, til Wired.
For eksempel kan et selskap laste alle HR-policyer og fordeler inn i en RAG-database og deretter be AI-chatboten om å fokusere på svar som bare finnes i disse dokumentene.
«Du belønner det, i måten du trener modellen på, for å prøve å skrive noe der hver faktauttalelse kan tilskrives en kilde,» sa Patrick Lewis, leder for AI-modellering hos Cohere.
Utgangene levert av RAG er ikke fri for hallusinasjoner. Rapporten beskriver resultatene levert av RAG som «lav hallusinasjon» i stedet for hallusinasjonsfrie. Ulike faktorer hevdes å spille en rolle for å redusere hallusinasjoner. Dette kan være kvaliteten på den generelle RAG-implementeringen og hvordan du bestemmer deg for å definere AI-hallusinasjoner
«Prosessen er definitivt ikke et universalmiddel som eliminerer alle feil gjort av AI,» heter det i rapporten. «Men nøyaktig hvor mye RAG reduserer AI-hallusinasjoner er et stridspunkt for forskere og utviklere.»
Hva er Enhanced Recovery Generation (RAG)? Kalt recovery augmented generation, eller RAG, er den ikke avhengig av informasjonen som er kodet under innledende opplæring. I stedet forsterker den brukerforespørsler ved å samle informasjon fra en tilpasset database, og deretter genererer en stor språkmodell (LLM) et svar basert på disse dataene.
Hvordan er denne prosessen forskjellig fra en standard ChatGPT-utgang?
Forskjellen er at RAG kan «sette inn ekte dokumenter» for å «forankre modellens svar på disse dokumentene,» sa Pablo Arredondo, visepresident for CoCounsel i Thomson Reuters, til Wired.
For eksempel kan et selskap laste alle HR-policyer og fordeler inn i en RAG-database og deretter be AI-chatboten om å fokusere på svar som bare finnes i disse dokumentene.
«Du belønner det, i måten du trener modellen på, for å prøve å skrive noe der hver faktauttalelse kan tilskrives en kilde,» sa Patrick Lewis, leder for AI-modellering hos Cohere.
Utgangene levert av RAG er ikke fri for hallusinasjoner. Rapporten beskriver resultatene levert av RAG som «lav hallusinasjon» i stedet for hallusinasjonsfrie. Ulike faktorer hevdes å spille en rolle for å redusere hallusinasjoner. Dette kan være kvaliteten på den generelle RAG-implementeringen og hvordan du bestemmer deg for å definere AI-hallusinasjoner
«Prosessen er definitivt ikke et universalmiddel som eliminerer alle feil gjort av AI,» heter det i rapporten. «Men nøyaktig hvor mye RAG reduserer AI-hallusinasjoner er et stridspunkt for forskere og utviklere.»
«Ond alkoholelsker. Twitter-narkoman. Fremtidig tenåringsidol. Leser. Matelsker. Introvert. Kaffeevangelist. Typisk baconentusiast.»