中國在人工智慧的快速發展始終伴隨著嚴密的國家管控,這不僅是一場技術競賽,更是一個關乎國家安全的戰略布局。2025年,隨著《生成式AI服務管理暫行辦法》與最新的《數據標註安全規範》(GB/T 45674—2025)進一步落實,中國已經建構出一套完整的AI訓練資料管制框架。
這套體系涵蓋資料的收集、標註、查詢到輸出審核,目的在於確保合規、倫理與安全,同時避免AI成為錯誤訊息或社會風險的放大器。 從《網路安全法》到《生成式人工智慧服務安全基本要求》,這些規範一方面守住國家核心利益,另一方面也凸顯中國在全球AI競爭中「一定要贏」的決心。透過鐵腕管制,中國鞏固資料主權,加快本土AI生態系統的成熟,力求不落後於美國或歐盟。
在AI模型的訓練階段,中國的管制尤其嚴格,直接影響訓練資料的品質與規模。企業必須隨機抽樣至少4,000筆資料,確保其中「非法」或「有害」內容不超過5%,否則整個數據庫將被禁止使用。這源自於對數據來源合法性、知識產權以及個人隱私的嚴格要求,並必須符合《數據安全法》與《個人信息保護法》。在數據查詢中,準確性、多樣性與客觀性都是核心要求,藉此避免歧視或偏見。
在資料標註方面,規範要求制定清晰的規則,包括目標、格式、方法與品質指標。功能性標註必須確保真實與多樣,而安全標註則要求每一類風險至少標註200筆樣本,佔總數至少3%。這些規格適用於文本、圖像、音訊等多模態資料,並參照GB/T 42755—2023標準。表面上看似繁瑣的規定,實際上是在確保中國的AI模型在訓練階段就具備高韌性,避免外部資料污染或安全漏洞,維持其在全球AI競爭中的優勢。
審查機制則是中國AI管制的核心,涵蓋從預訓練、優化到內容生成的全流程,體現出「一定要贏」的戰略思維。在開發階段,企業必須進行數據品質評估與驗證,標註準確性必須達標。
在用戶輸入與生成結果的管理上,企業需透過技術或人工審核,防止非法訊息傳播,一旦發現有害內容,必須立即停止傳輸、刪除並回報主管機關。內容生成測試則更加嚴格,企業需建立涵蓋31類安全風險的問題庫,至少2,000題,隨機選取1,000題測試模型,通過率需達90%以上。同時拒絕回應標準被區分為「應拒絕」與「不應拒絕」,前者如涉及顛覆國家政權的內容,拒絕率至少要95%,後者如涉及中國制度與文化,拒絕率則不得超過5%。
平台如微信在發布AI生成內容之前必須進行審核,並自2025年9月1日起施行「AI標註令」,要求所有AI生成輸出必須加上明顯標記或嵌入數位浮水印,使用者上傳時也需申報類型。
高風險AI活動更需成立科技倫理審查委員會,進行初審、專家複審並定期追蹤,且必須在國家平台註冊。這些機制不僅防範倫理風險,也確保政府能依據《國家情報法》調取資料,進一步強化國家對AI的掌控。
在中美AI競爭持續升溫之際,中國藉此鞏固資料壁壘、防止技術外流,並加速推動本土模型如「文心一言」的迭代,展現出不惜代價也要奪取主導權的決心。 隨著安全規範與實施細則的落地,管制的執行力進一步加強。平台需定期進行安全評估,完整記錄用戶操作與系統活動,並確保角色分工,像是標註者與審核者不得為同一人,相關人員也必須接受數據安全與風險情境的培訓。
如果使用者在單日輸入非法訊息達三次連續或五次累計,服務就會被暫停。這套體系的目標在於平衡AI創新與國家安全,防止誤信息、詐欺以及社會風險,但同時也為科技公司帶來合規成本與技術挑戰。
從全球視角來看,中國的管制是一個提前偷跑的資料管制措施。相較於歐盟GDPR強調隱私,美國偏重於創新自由,中國則結合兩者,強調國家安全與倫理紅線。這樣的模式使中國AI企業在國際市場上更具競爭力,同時避免因資料洩露而造成戰略弱點。
在AI競賽中,中國「一定要贏」的態度已被制度化,透過嚴格管制訓練資料,不僅守住了底線,也逐步爭取全球話語權,讓本土AI從追隨者逐漸躍升為領跑者。日後有一天大家都在網路上抓取訓練資料,中國管制下的資料就會變成數量龐大的可訓練資料,掌握著AI可訓練資料資訊來源的絕對優勢。
中國的AI管制框架,無疑是北京在數位時代的一種權力延伸,但也為全球AI治理提供了參考。雖然這些規範可能抑制部分創新,卻能確保中國在訓練資料管制上保持領先,鞏固其全球競爭地位。如果西方國家忽視這些挑戰,中國的鐵腕策略將進一步拉開差距。最終這場AI賽跑的勝負將取決於誰能更好地平衡管控與開放,而中國已經明確選擇前者,並誓言在資料主權的戰場上絕不退讓。這個發展的趨向值得所有關注AI的國家密切的注意。
轉載自《上報》作者為ESG碳減量聯盟理事長,中台灣教授協會理事長,任教於台灣師範大學。

















