Home » Hvordan Apple brukte Googles hjelp til å trene sine AI-modeller | Teknologinyheter

Hvordan Apple brukte Googles hjelp til å trene sine AI-modeller | Teknologinyheter

by Edvard Munch

På scenen mandag kunngjorde Apple-sjef Tim Cook en splashy avtale med OpenAI for å inkludere den kraftige AI-modellen som en del av stemmeassistenten Siri.

Men i den fine print av et teknisk dokument som Apple publiserte etter hendelsen, gjør selskapet klart at Alphabets Google har dukket opp som en annen vinner i Cupertino, California-selskapets forsøk på å ta igjen innen kunstig intelligens.

For å bygge Apples kjerne-AI-modeller, brukte selskapets ingeniører sitt eget programvarerammeverk med en rekke maskinvare, spesielt sine egne lokale grafikkbehandlingsenheter (GPUer) og Googles bare skybrikker kalt tensor prosesseringsenhet (TPU).

Google har bygget TPU-er i ca. 10 år og har offentlig diskutert to versjoner av femte generasjons brikker som kan brukes til AI-trening; den femte generasjons ytelsesversjonen tilbyr ytelse konkurransedyktig med Nvidia H100 AI-brikker, sa Google.

Google annonserte under sin årlige utviklerkonferanse at en sjette generasjon vil lanseres i år.

Ferietilbud

Prosessorene er designet spesielt for å kjøre kunstig intelligens-applikasjoner og trene modeller, og Google har bygget en maskinvare- og programvareplattform for nettskyen rundt dem.

Apple og Google svarte ikke umiddelbart på forespørsler om kommentarer.

Apple diskuterte ikke i hvilken grad de stolte på brikker og programvare fra Google versus maskinvare fra Nvidia eller andre AI-leverandører.

Men bruk av Googles brikker krever vanligvis at en kunde kjøper tilgang til dem gjennom skyavdelingen, omtrent på samme måte som kunder kjøper datatid fra Amazon.coms AWS eller Microsofts Azure.

© IE Online Media Services Pvt Ltd

Først lastet opp til: 06/12/2024 kl. 08:39 IST

Related Videos

Leave a Comment