Tidlig i fjor fikk en hacker tilgang til de interne meldingssystemene til OpenAI, produsenten av ChatGPT, og stjal detaljer om utformingen av selskapets teknologier for kunstig intelligens.
Ifølge to personer som er kjent med hendelsen, stjal hackeren detaljer fra diskusjoner i et nettforum der ansatte snakket om OpenAIs nyeste teknologier, men klarte ikke å bryte seg inn i systemene der selskapet er vert for og utvikler sin kunstige intelligens.
I følge de to personene avslørte OpenAI-ledere hendelsen til ansatte under et plenumsmøte på selskapets kontorer i San Francisco i april 2023 og informerte styret, som diskuterte sensitiv informasjon om hendelsen på betingelse av anonymitet.
Men ledere bestemte seg for å ikke dele nyhetene offentlig fordi ingen kunde- eller partnerinformasjon var blitt stjålet, sa de to personene. Ledere anså ikke hendelsen som en nasjonal sikkerhetstrussel fordi de trodde hackeren var en privatperson uten kjente bånd til en utenlandsk regjering. Selskapet varslet ikke FBI eller noen andre i rettshåndhevelsen.
For noen OpenAI-ansatte reiste nyhetene frykt for at utenlandske motstandere som Kina kunne stjele AI-teknologi som, selv om det nå først og fremst er et forretnings- og forskningsverktøy, til slutt kan sette USAs nasjonale sikkerhet i fare. Det førte også til spørsmål om hvor seriøst OpenAI behandlet sikkerhet og utsatte brudd i selskapet på grunn av risikoen for kunstig intelligens.
Etter bruddet sendte Leopold Aschenbrenner, OpenAIs tekniske programleder for å sikre at fremtidige AI-teknologier ikke forårsaker alvorlig skade, et notat til OpenAIs styre, og argumenterte for at selskapet ikke gjorde nok for å forhindre til den kinesiske regjeringen og andre utenlandske motstandere for å stjele dens hemmeligheter.
Mr. Aschenbrenner sa at OpenAI sparket ham i vår for å ha lekket mer informasjon utenfor selskapet, og argumenterte for at sparken hans var politisk motivert. Han antydet bruddet i en nylig podcast, men detaljer om hendelsen er ikke tidligere rapportert. Han sa at OpenAIs sikkerhet ikke var sterk nok til å beskytte mot tyveri av nøkkelhemmeligheter hvis utenlandske aktører infiltrerte selskapet.
«Vi setter pris på bekymringene Leopold reiste mens han var på OpenAI, og dette førte ikke til at han ble separert,» sa en talskvinne for OpenAI, Liz Bourgeois. Med henvisning til selskapets innsats for å bygge kunstig generell intelligens, en maskin som er i stand til å gjøre alt den menneskelige hjerne kan gjøre, la han til: «Selv om vi deler forpliktelsen til å bygge sikker generell kunstig intelligens, er vi ikke d Jeg er enig i mange av utsagnene han har skrevet om arbeidet vårt siden da. Dette inkluderer hans karakteriseringer av sikkerheten vår, spesielt denne hendelsen, som vi tok opp og delte med styret vårt før han begynte i selskapet.
Frykt for at et hack av et amerikansk teknologiselskap kan ha bånd til Kina er ikke urimelig. Forrige måned vitnet Brad Smith, Microsofts president, på Capitol Hill om hvordan kinesiske hackere brukte teknologigigantens systemer for å starte et omfattende angrep på føderale myndigheters nettverk.
I henhold til føderal og California-lov kan ikke OpenAI blokkere folk fra å jobbe i selskapet basert på deres nasjonalitet, og politiske forskere har sagt at utestengelse av utenlandsk talent fra amerikanske prosjekter kan i betydelig grad hindre selskapets kunstige intelligens i USA.
«Vi trenger de beste og flinkeste hodene som jobber med denne teknologien,» sa Matt Knight, OpenAIs sikkerhetssjef, til New York Times i et intervju. «Det medfører noen risikoer, og vi må forstå dem.»
(The Times saksøker OpenAI og partneren Microsoft, og hevder at de krenker opphavsretten til nyhetsinnhold relatert til systemer for kunstig intelligens.)
OpenAI er ikke det eneste selskapet som bygger stadig kraftigere systemer ved hjelp av raskt forbedrende AI-teknologi. Noen av dem, spesielt Meta, eier av Facebook og Instagram, deler fritt designene sine med resten av verden som åpen kildekode-programvare. De mener at farene ved dagens AI-teknologier er små, og at deling av kode lar ingeniører og forskere på tvers av industrien identifisere og løse problemer.
Nåværende AI-systemer kan bidra til å spre feilinformasjon på nettet, inkludert tekst, stillbilder og i økende grad video. De begynner også å ta fra seg noen jobber.
Selskaper som OpenAI og konkurrentene Anthropic og Google legger til beskyttelse til AI-applikasjonene sine før de tilbyr dem til enkeltpersoner og bedrifter, i håp om å hindre folk fra å bruke appene til å spre feilinformasjon eller forårsake andre problemer.
Men det er lite som tyder på at dagens AI-teknologier utgjør en betydelig risiko for nasjonal sikkerhet. Studier utført av OpenAI, Anthropic og andre det siste året viste at AI ikke var vesentlig farligere enn søkemotorer. Daniela Amodei, Anthropics medgründer og selskapspresident, sa at den nyeste AI-teknologien ikke ville utgjøre noen stor risiko hvis designene ble stjålet eller fritt delt med andre.
«Hvis det var eid av noen andre, kunne det være ekstremt skadelig for en stor del av samfunnet? Vårt svar er «Nei, sannsynligvis ikke,» sa han til Times forrige måned. «Kan det akselerere noe for en dårlig skuespiller i fremtiden? Kanskje. Det er veldig spekulativt.»
Forskere og teknologiledere har imidlertid lenge fryktet at kunstig intelligens en dag kan gi næring til etableringen av nye biovåpen eller bidra til å trenge inn i statlige datasystemer. Noen tror til og med at det kan ødelegge menneskeheten.
Flere selskaper, inkludert OpenAI og Anthropic, blokkerer allerede deres tekniske operasjoner. OpenAI opprettet nylig en sikkerhets- og sikkerhetskomité for å undersøke hvordan den skal håndtere risikoene som fremtidige teknologier utgjør. Komiteen inkluderer Paul Nakasone, en tidligere hærgeneral som ledet National Security Agency og Cyber Command. Han ble også utnevnt til OpenAIs styre.
«Vi begynte å investere i sikkerhet år før ChatGPT,» sa Mr. Knight. «Vi er på en reise ikke bare for å forstå risikoer og forutse dem, men også for å styrke vår motstandskraft.»
Føderale tjenestemenn og statlige lovgivere presser også på for myndighetsreguleringer som vil forhindre selskaper i å frigi visse kunstig intelligens-teknologier og bøtelegge dem millioner hvis teknologiene deres forårsaker skade. Men eksperter sier at disse farene fortsatt er år eller tiår unna.
Kinesiske selskaper bygger sine egne systemer som er nesten like kraftige som store amerikanske systemer. Med noen beregninger har Kina overskredet USA som den største produsenten av AI-talent, med landet som genererer nesten halvparten av verdens beste AI-forskere.
«Det er ikke dumt å tro at Kina snart vil overta USA,» sa Clément Delangue, administrerende direktør i Hugging Face, et selskap som er vert for mange av verdens åpen kildekode kunstig intelligens-prosjekter.
Noen forskere og nasjonale sikkerhetstjenestemenn hevder at de matematiske algoritmene som ligger til grunn for dagens kunstig intelligens-systemer, selv om de ikke er farlige i dag, kan bli farlige og krever strengere kontroll av kunstig intelligens-laboratorier.
«Selv om de verste scenarier har relativt lav sannsynlighet, hvis de har stor innvirkning, er det vårt ansvar å ta dem på alvor,» sa Susan Rice, tidligere innenrikspolitisk rådgiver for president Biden og tidligere nasjonal sikkerhetsrådgiver for president Barack Obama. , under et arrangement i Silicon Valley forrige måned. «Jeg tror ikke det er science fiction, som mange liker å si.»
«Ond alkoholelsker. Twitter-narkoman. Fremtidig tenåringsidol. Leser. Matelsker. Introvert. Kaffeevangelist. Typisk baconentusiast.»