最近,馬斯克與美國總統川普推動的「AI優先」(AI First)政策,特別是在政府機構中的應用,引起廣泛爭議。這種技術治理模式利用AI來削減行政成本、提升效率,並為決策提供數據支持。然而,這種方式卻反映著「工具理性」的極端化與絕對化,將人類價值與政治倫理簡化為效能與成本的數據計算,無視民主治理應有的審議機制與權力制衡。
「AI優先」政策:技術治理的加速試驗
根據《華盛頓郵報》報導,聯邦政府各部會已開始使用由馬斯克的政府效率部(DOGE)開發的AI技術,來審查機構支出並尋找削減開支的機會。此一政策是以大數據分析取代傳統的行政管理方式,甚至將政府運作轉變為類似矽谷新創企業的模式。這種技術治理方式代表著一種極端的工具理性思維,只關注結果與效能,忽視民主機制與治理正當性。
DOGE不僅推動用AI審查開支,還使用GitHub Copilot等AI程式編寫工具,意在減少人力需求。然而,這種做法的風險在於,AI技術不僅可能產生錯誤的財務決策,更可能因數據偏誤導致公共資源錯置。此外,DOGE成員還被爆料將敏感數據輸入AI系統以尋求決策建議,但這種作為可能涉及嚴重的資訊安全問題。
值得注意的是,川普政府再度上台後的第四天即發佈的《移除美國AI發展障礙行政命令》(Executive Order on Removing Barriers to American Leadership in Artificial Intelligence),已經進一步體現這種工具理性的決策思維。該行政命令取消拜登政府時期針對AI技術的監管措施,強調AI應不受任何阻礙地推動政府效率與經濟成長。
在2025年1月該行政命令頒布後,聯邦政府迅速取消了多項AI安全審查流程,包括原本針對AI數據收集、隱私保護及演算法偏見的審核機制。結果,DOGE能夠在短短數週內於多個政府部門部署AI工具,例如在教育部門的支出監控計畫中,AI分析系統過濾掉數千筆DEI(多元、公平與共融)相關計畫,這些計畫的資金削減幅度超過40%。此外,在美國總務署(GSA)的IT升級計畫中,AI決策系統以「效率優先」為原則,將部分長期合約取消,使得小型供應商損失了至少1.2億美元的政府合約。
此外,艾瑞克·薩爾瓦吉歐(Eryk Salvaggio)的一篇文章指出,DOGE的AI政策正在進一步侵蝕民主治理結構。DOGE的策略不僅是用AI取代人力,更是一種「AI政變」(AI coup),即透過技術手段繞過國會監督,直接由AI主導政府資源的分配。例如,DOGE試圖接管財政部的電腦系統來自動化預算分配,並在退伍軍人事務部(VA)執行數據挖掘,分析退伍軍人福利和傷殘補償記錄,這些行動引發嚴重的隱私和法律問題。
薩爾瓦吉歐指出,這種「技術治理」的風險在於它以效率之名,行弱化民主監督之實,並將政策決策簡化為數據分析。最終,這可能會導致政府機構的職能被重新定義,使其完全依賴於私人企業提供的AI技術,而公民將更加無法有效參與決策過程。此一發展態勢意味著,AI不僅僅是一種技術創新,更是一種政治權力重組的工具。
在同一政治脈絡下,Google近期更新其AI原則,刪除不將該技術用於武器或監控的承諾。根據報導,此一決策發生在Google執行長皮查伊(Sundar Pichai)與其他科技企業領袖出席川普總統就職典禮數週後,並與美國政府取消AI監管措施的趨勢相呼應。Google前後立場丕變亦顯示,AI技術的發展方向越來越受政治與國家安全考量支配,並可能被用來強化政府對社會的監控。
這些案例顯示,當政府決策完全仰賴AI時,技術所帶來的「效率」可能與社會公平正義產生衝突。技術治理模式的無限制推動,可能導致某些政策領域遭受不公平對待,甚至加劇社會不平等。當政府過度依賴AI決策而缺乏有效的監管時,社會可能面臨技術濫權與公民權益受損的風險。
再如Jay Caspian Kang在《紐約客》撰文進一步揭露的現實:科技巨頭正在接管美國政治。他指出,矽谷的影響力已經超越傳統的政治界限,科技巨頭如馬斯克、祖克柏、貝佐斯等人不僅支持川普政府的AI政策,更積極參與政府決策,成為政策的主要推動者。新的「科技寡頭政治」已經隱然成形,不僅影響經濟,也直接左右國家治理方向。
技術官僚與民主赤字
工具理性(instrumental rationality)與價值理性(value rationality)是社會科學的重要概念。工具理性關注的是手段與效率,優先考量如何達成目標,而不探討這些目標是否正當或符合倫理。而價值理性則關注行動是否符合更廣泛的價值與倫理標準,而非單純的功利計算。
法蘭克福學派的批判理論學者,特別是霍克海默(Max Horkheimer)與阿多諾(Theodor Adorno),對工具理性持強烈批判態度。他們認為,現代社會的技術發展與科學進步,逐漸使工具理性凌駕於價值理性之上,導致社會變得更加機械化與去人性化。當前美國政府治理完全依賴技術專家與AI決策的轉向,民主審議的空間將被進一步壓縮,公民參與被邊緣化,這些正是法蘭克福學派所擔憂的「技術官僚支配統治」(technocratic domination)。
這種「AI優先」的技術治理方式,與過去政府決策模式存在根本性差異。傳統上,政府決策需經過立法、行政與司法的多部門與多層級審查,而AI治理則是由技術專家主導,並以「數據驅動」的方式進行決策(例如:凍結支出、裁員或裁撤聯邦政府機構)。這使得決策過程更加封閉,公民參與與監督機制也更為薄弱。
這種治理模式的危險,是它賦予有權無責的馬斯克及一群未經選舉產生的技術人員過大的決策權力,並以「效率」為名,行「權力集中」之實。根據《WIRED》執行編輯布萊恩·巴雷特(Brian Barrett)的分析,DOGE正在將美國政府變成一個極端精簡化的機構,不僅破壞既有的行政程序與監管機制,甚至會影響公務員體系的穩定性。
誠如安愛波邦(Anne Applebaum)最近所批判的,馬斯克以效率之名及科技手段,真正想改變的是公務體系的「行為模式和價值觀」。於是,「突然間,而且並非偶然,美國聯邦政府公務員開始經歷與生活在外國佔領下相似的處境。」她指出,這一做法的目標都是打造一個方便任用親信的「分贓體系」(patronage system),忠誠度是第一考量,專業資格未盡符合亦無所謂。
安愛波邦批評,川普與馬斯克一方面用盡手段打擊公務員體系的士氣,另一方面用「忠誠測試」(purity tests)挑選新團隊成員:「有些測試看似荒唐——例如,你是否願意將「墨西哥灣」稱為「美國灣」?——但有些則極其嚴肅。根據《華盛頓郵報》報導,新政府的國安職位候選人已被要求表態是否接受川普『贏得 2020 年大選』的錯誤說法。」
這一套「無法無天」的弄權手段,可能比他們強調的AI科技手段本身更嚇人,也將造成巨大的「民主赤字」(democratic deficit)。當政府治理變成一種純粹技術性的決策過程時,公眾與民意代表將難以影響政策制定,變成盲目接受或只能默認這些決策是出於效率和防弊考量,從而削弱民主機制的運作。在這種情境下,AI不僅是一種生產工具,更可能成為政治權力集中的手段。
工具理性與政策風險
在馬斯克與川普推動的「AI優先」政策下,工具理性的極端化已成為政府治理的新常態。然而,這種模式並非沒有風險。例如,美國政府使用AI分析財政支出時,可能會基於不完整或有偏差的數據(例如馬斯克散播所謂150歲死人繼續領取社會安全保障福利金的「官方」謠言),導致公共資源錯置,甚至加劇社會不平等。
此外,如前所述,DOGE在審查教育部支出時,特別關注DEI相關計畫,並將其列為潛在的削減目標。美國國科會(NSF)也開始清查可能違反川普極右派意識型態的研究補助案。這種作法顯示,AI不僅是技術工具,也可能被用來推動特定的政治議程,限制思想與學術自由,甚至侵害某些社會群體的權益。
此外,DOGE的數據/資料管理方式也引起隱私與安全的重大疑慮。政府機構的大量敏感資料,如財政報表、人事檔案,甚至國安相關數據,都可能因AI技術的應用而面臨更高的風險。當極少數人如馬斯克掌控的政府決策變得過度依賴AI時,其透明度與問責機制將遭到嚴重削弱,甚至影響公眾對政府的信任。
需要更審慎的AI治理模式
AI技術的發展無疑為政府治理帶來新的可能性,但其應用不應淪為單純的成本削減工具,更不應成為權力集中的手段。目前在「美國優先」大旗掩護下如火如荼展開的「AI優先」政策,以工具理性為核心,已經對公共治理中的民主原則與權力制衡機制造成相當程度的破壞。
正如《WIRED》執行編輯巴雷特所指出的:「美國政府不是一家新創公司」。確實,美國政府不是、也不該是一家新創公司!如果我們無法在技術發展與民主治理之間找到適當的平衡點,那麼我們所迎接的將不是一個高效率的未來,而是一個被工具理性過度操控的政治現實。
轉載自《上報》作者為中正大學傳播系教授