Med Googles Flash Large Language Model (LLM) Gemini 1.5, vil indiske organisasjoner på tvers av alle sektorer, inkludert offentlig sektor, nå ha muligheten til å både lagre dataene sine i ro og utføre maskinlæringsbehandling helt internt i India. Dette trekket kommer midt i økende etterspørsel etter lokal databehandling fra indiske virksomheter.
Dette alternativet vil være spesielt nyttig for bedrifter i offentlig sektor og finanstjenester, på grunn av den sensitive naturen til dataene de håndterer, sa Bikram Bedi, visepresident og nasjonal administrerende direktør, Google Cloud India.
Klikk her for å koble til oss på WhatsApp
I en rundebordssamtale torsdag sa Bedi at lokal datalagring og prosessering med Gemini 1.5 flash også vil være til fordel for oppstart i landet ved å redusere kostnadene ved bruk av modeller og forbedre ventetiden i enkelte sektorer.
«Google er den eneste leverandøren der ute som leverer hele ende-til-ende AI-stabelen. Hver annen leverandør kjøper GPUer, merker dem og selger dem, eller outsourcer andre AI-teknologier, merker dem og selger dem. Grunnen til at jeg påpeker dette er at prisatferd blir en veldig viktig faktor når du begynner å gå inn i produksjon og skalering. Derfor Googles evne til å gi den riktige ytelsen til prisen, sa Bedi.
Han la også til at regulatoriske mandater og etterspørsel fra industrien var hovedårsakene til at Google startet lokal behandling.
Første utgivelse: 3. oktober 2024 | 21.50 IST
«Ond alkoholelsker. Twitter-narkoman. Fremtidig tenåringsidol. Leser. Matelsker. Introvert. Kaffeevangelist. Typisk baconentusiast.»