Utoljára frissült: 33 perce·Ma: 47 cikk feldolgozva
Kutatás

A Pentagon tervei szerint az AI-cegek titkosított adatokon fognak tanulni

Az Egyesült Államok hadserege tervezi, hogy az AI-vállalatok titkosított adatokon tanítsák modelleiket

A Pentagon tervei szerint az AI-cegek titkosított adatokon fognak tanulni
Forrás: MIT Technology ReviewSzerző: AI Forradalom szerk.

A Pentagon tervezi, hogy biztonságos környezetet hoz létre az olyan generatív AI-vállalatok számára, mint az Anthropic, hogy titkosított adatokon tanítsák modelleik katonai verzióit. Az AI-modellek, például az Anthropic Claude, már használatban vannak titkos környezetben, például Iránban végzett elemzésekhez.

De az, hogy az AI-modellek tanuljanak a titkosított adatokon, új fejlemény lenne, amely egyedi biztonsági kockázatokat jelentene. Ez azt jelentené, hogy érzékeny információk, mint a megfigyelési jelentések vagy a csatatéri értékelések, beépülhetnek az modellekbe, és az AI-vállalatokat közelebb hoznák a titkosított adatokhoz, mint valaha.

Az AI-modellek titkosított adatokon történő tanítása várhatóan növeli a modellek pontosságát és hatékonyságát bizonyos feladatokban, egy amerikai védelmi tisztviselő szerint, aki háttérbeszélgetésben nyilatkozott az MIT Technology Review-nak. A hír érkezésével egy időben nő a kereslet a még erősebb modellek iránt: a Pentagon megállapodást kötött az OpenAI-val és az Elon Musk által alapított xAI-val, hogy modelleiket titkos környezetben használják, és egy új programot valósít meg, hogy „AI-vezérelt harci erő” legyen, miközben az Iránnal való konfliktus eszkalálódik.

A tanítás egy biztonságos adatközpontban történne, amelyet titkos kormányzati projektekhez hagynak jóvá, és ahol az AI-modell másolatát titkosított adatokkal párosítják, két, a műveletekben jártas személy szerint. Bár a Védelmi Minisztérium továbbra is a tulajdonosa marad a adatoknak, az AI-vállalatok személyzete ritkán hozzáférhet az adatokhoz, ha megfelelő biztonsági engedélyük van, a tisztviselő szerint.

A Pentagon azonban azelőtt, hogy engedélyezné ezt az új tanítást, értékelni fogja, hogy milyen pontosak és hatékonyak a modellek, amikor nem titkosított adatokon tanulnak, például kereskedelmi célú műholdas képeken. A katonaság régóta használja a számítógépes látás modelleket, az AI egy korábbi formáját, az objektumok azonosítására a drónokról és repülőgépekről gyűjtött képekben és felvételekben, és a szövetségi ügynökségek szerződéseket adtak ki vállalatoknak, hogy az AI-modelleket ilyen tartalommal tanítsák.

Az AI-vállalatok, amelyek nagy nyelvi modelleket (LLM) és chatbotokat építenek, kifejlesztették modelleik kormányzati verzióit, például az Anthropic Claude Gov-ot, amelyek több nyelven és biztonságos környezetben működnek. De a tisztviselő megjegyzései az első jelei annak, hogy az AI-vállalatok, mint az OpenAI és az xAI, közvetlenül titkosított adatokon taníthatják a kormányzati verziókat.

Aalok Mehta, a Wadhwani AI Központ igazgatója a Stratégiai és Nemzetközi Tanulmányok Központjában, aki korábban az AI-irányelvekért felelt a Google-nál és az OpenAI-nál, azt mondja, hogy a titkosított adatokon történő tanítás, szemben azzal, hogy csak kérdéseket válaszolnak rájuk, új kockázatokat jelentene. A legnagyobb ilyen kockázat, hogy a modellek által használt titkosított információk felmerülhetnek bárkinek, aki használja a modellt. Ez probléma lenne, ha sok különböző katonai részleg, mindegyikük különböző osztályozási szintekkel és információs igényekkel, ugyanazt az AI-t használná.