根據中國與美國的專家都警告;生物武器、核武器…人工智能在許多領域都發揮着積極作用,但也可能使恐怖組織更容易獲得致命技術。中國專家指出,“可信賴人工智能的基本原則”之首便是“確保最終由人類控制”。
這是危言聳聽?或是瀰漫著與時俱進非理性的恐懼?人工智能(AI)已經融入我們的生活,既帶來了希望,也引發了恐懼。一些專家強調了它在諸多領域(工業控制、醫療健康等)的積極影響,而另一些人,有時甚至是同一批人,他們則對此感到擔憂。
尤其值得注意的是恐怖分子使用化學、生物、放射性和核武器(CBRN)的問題。這些武器構成的威脅,儘管有些人認為這些威脅只是幻想,但實際上已經持續了幾十年,而人工智能可能會進一步加劇這種威脅。至少,這是來自兩個截然不同領域的專家小組在2025年共同得出的結論。
第一個警告來自中國的那些人工智能領域的前沿者。但同時也是一個由共產黨鐵腕統治的大國,實行集中營的極權主義體制,全民監控政策的先鋒者。
2025年秋季,一份名為“人工智能安全治理框架2.0”的文件發布。這個略顯官僚的標題背後,隱藏着一份由黨國主導、彙集眾多專家的龐大計畫。拋開其同樣屬官僚性的措辭,細讀這份文件,你會發現它頗具啟發性。
必須在人工智能系統的關鍵階段實施人工監督制度,以確保人類保留有最終決策權。
因此,關於講到“現實世界風險”的那些篇幅段落,特別表達了對“失去對核武器、生物武器、化學武器和導彈的知識和性能的控制”的擔憂。
人工智能在“訓練”過程中會使用“廣泛的數據”,包括與這些高度敏感領域相關的“基礎理論知識”。如果這些數據得不到妥善管控,“極端主義和恐怖組織”就可能獲得“設計、製造、合成和使用”這些武器的能力。
失控
更廣泛地說,這份中國文件強調了“人工智能被用於傳統犯罪和非法活動”(包括恐怖主義,以及從非法賭博到毒品販運等常見犯罪)。這包括幫助“學習”犯罪技巧、掩蓋犯罪行為以及創建打造“犯罪人工智能”工具。
最後,措辭含糊的“AI 2.0 安全治理框架”譴責在“認知戰”中使用人工智能。這不僅包括傳播“與恐怖主義相關的內容”,還包括“干涉他國內政”及其“社會制度和社會秩序”,從而損害其“國家主權”。
得益於“社交機器人”(或“聊天機器人”),人工智能或許能夠影響社會價值觀和思維方式。對於精於數字控制的中國政府而言,這無疑意義極其重大。
最後,這份中國文件公開提出了人類可能失去對先進人工智能系統控制權的擔憂。文件指出,“必須在人工智能系統的關鍵階段實施人類控制系統,以確保人類保留最終決策權。” 為了應對這一風險,可以在“極端情況下”實施“熔斷機制”。
北京呼籲對這種失控風險採取“協調應對”。因此,“可信賴人工智能的基本原則”之首便是“確保最終由人類控制”,以防止“人工智能系統”在“無人監管的情況下失控運行”。
反恐模擬:6000萬人死於AI創新病毒
情況完全不同了,但擔憂卻如出一轍,正如幾位專家在去年緊隨巴黎人工智能峰會之後舉行的慕尼黑安全會議上所表達的那樣。
在美國非政府組織“核威脅倡議”的倡議下,專家們聚集在一起,在強調人工智能取得的進展以及不應阻礙研究的必要性的同時,討論了人工智能與生命科學融合所帶來的風險。
一次模擬演習將反恐和技術專家聚集在一起,探討一個噩夢般的場景:恐怖分子利用人工智能憑空創造出一種新的腸道病毒,引發了一場全球性流行病(8.5億例病例,6000萬人死亡)。
會議期間,一位美國參議員強調,人工智能部署的最大潛在風險在於生物安全領域。其中一場小組討論的標題就非常明確:“保護世界免受病原體侵害:變革性技術時代的生物安全”。
應對這些風險仍然需要建立保障措施和更有效的控制措施
問題依然存在:人工智能降低了獲取知識的門檻,這“使得越來越多的人能夠獲取製造病原體、儲存病原體所需的知識”,並且使病原體“更具傳染性、更致命,對疫苗和藥物具有抗藥性”。
然而,這不僅僅是降低門檻的問題,也是增加可能性的問題:例如,生物設計工具可以幫助我們預測其他類型的新型病原體。但過去曾引發大流行的舊病毒也可能因刺被“復活”。
一個具體的例子很能說明問題:如今,普通研究人員可以在網上訂購DNA樣本,並將其用於研究。雖然目前已有機制防止危險樣本被未經授權分發,但人工智能可以幫助繞過這些獲取的障礙。
應對這些風險仍需建立保障措施和更有效的控制手段。與時間的賽跑已經打響。雖然聖戰組織並非核生化領域的專家,但他們已展現出在宣傳方面適應新技術的能力。一旦有機會拓展自身能力,他們必將毫不猶豫。
轉載自《法廣》




















