Home » Google-støttede Slang Labs vil bruke hybrid LLM-modell – Technology News

Google-støttede Slang Labs vil bruke hybrid LLM-modell – Technology News

by Edvard Munch

Med flere store språkmodeller (LLM), inkludert India-spesifikke, lansert nylig, velger Google-støttede Slang Labs en hybridmodell for å gjøre det beste ut av hver LLM. Den vil også gi ut sin egen versjon av noen åpen kildekode LLM-er i første halvdel av neste år som vil være domene- og Indiaoptimalisert.

Selskapet tilbyr taleassistenter som kan bygges inn i populære apper som e-handel eller banktjenester. Selskapets kunder inkluderer Nykaa, ICICI Direct, Tata Digital, Bigbasket's Fresho og andre.

For tiden bruker selskapet OpenAI som stemmeassistent. Kumar Rangarajan, medgründer av Slang Labs, sa at han har begynt å finjustere åpen kildekode LLM-er som Metas LLaMA og Frankrike-baserte generative AI LLM Mistral AI for til slutt å ha en hybrid LLM-modell for sin assistentvokal – CONVA.

«Det er tre nivåer for LLM: Det første kalles grunnleggende LLM, hvor det generelt trenes med mye internettdata og forskjellige språkdata for generelle formål. Denne modellen har god forståelse, men er ikke opplært til å bli en god assistent. Hvis du stiller spørsmål, vil han ikke kunne svare riktig på dem.

Selv om han har mye kunnskap, er han ikke så intelligent til å svare riktig, fordi han er veldig dårlig til å følge instruksjonene, sa Rangarajan.

Å lage en grunnmodell er en kostbar oppgave da det meste av kostnadene går til disse.

Å lage grunnmodellen er en kostbar oppgave, da det meste av kostnadene går til dem. Neste nivå er førtrening, der systemet lærer hva som er riktig svar og hvilket som er feil. Lær å si hvilket svar du foretrekker når det er flere svar. Det er mange teknikker for å sikre at modellen er i stand til å gi deg det riktige svaret.

Det tredje nivået er finjustering der LLM har blitt opplært til å svare riktig. Den gjennomgår finjustering der den er gjort egnet for spesifikke brukstilfeller. «Folk som oss eller andre selskaper som oss kan ta denne modellen på lavere nivå og bygge den og optimalisere den for spesielle formål eller brukstilfeller. Vi tar grunnleggende modeller fra LLaMA og Mistral og forhåndstrener og foredler dem,” forklarte Rangarajan.

Related Videos

Leave a Comment