OpenAI、Google聯手 抗陸蒸餾技術
提交報告至美國國會 DeepSeek大量使用引提防 陸將訂AI安全標準
全球科技戰開打,人工智慧(AI)亦成為國際關注焦點。外媒引述知情人士消息報導指出,美國多家人工智慧企業包括OpenAI、Anthropic、Google,傳出正聯手合作,共同防範競爭對手——北京,竊取其先進AI模型成果,並在全球AI競爭中取得優勢。
外媒報導指,有知情人士透露,OpenAI、Anthropic、Google,正透過「Frontier Model Forum」(FMF)共享資訊,該論壇由OpenAI、Anthropic、Google與Microsoft於2023年共同成立,屬非營利性質,主要目標是識別並防範違反服務條款的「對抗性蒸餾」(Adversarial Distillation)行為。
其中,OpenAI證實透過FMF參與對抗性蒸餾的資訊共享工作,近期提交給美國國會的備忘錄,指控大陸的「DeepSeek」試圖免費利用OpenAI,以及其他美國AI公司所開發的技術,試圖強化自己;而Anthropic、Google及FMF則未發表任何評論。
據悉,模型蒸餾(Model Distillation)是一種從現有模型中萃取知識的技術方法,過程就像是讓一個「教師模型」來指導「學生模型」:先向教師模型輸入資料,記錄它的輸出結果,再用這些資料來訓練學生模型。在AI模型的訓練領域中,蒸餾技術的使用可以說是相當普遍,對擁有模型完整使用權限的公司來說,執行蒸餾工序亦相對容易。
DeepSeek過去的訓練模型中,大量的使用了知識蒸餾(Knowledge Distillation)技術,旨在讓較小的「學生模型」,學習大型「教師模型」的推理能力與知識,從而以極低的成本,獲得類似頂尖大模型的效能。
然近期全球AI安全事件頻傳,3月底AI公司Anthropic旗下AI程式設計工具「Claude Code」原始程式碼洩露,被視為AI行業首次核心代碼洩露事件,今年備受關注的OpenClaw(大陸俗稱「龍蝦」),也被曝出存在多重安全隱患。
隨AI被廣泛應用,相關安全問題引發關注。大陸當局亦正在加快制定人工智慧安全標準,今年政府工作報告明確提出「完善人工智慧治理」,全國人大常委會工作報告提出「加強人工智慧領域立法研究」。此外,大陸工信部3月25日公開徵求《人工智慧安全治理模型情境協議應用安全要求》等業界標準計畫項目意見。
與此同時,大陸AI安全標準工作組4月初亦表示,將重點推動《網路安全技術 人工智慧安全能力成熟度評估方法》、《網路安全技術 人工智慧應用安全分類分級方法》等核心標準的落地實施。


