歷史經驗顯示,教師和學者的技能喪失、職業詆毀和流離失所,一直是法西斯奪權的核心手段。
葛斯特(Olivia Guest),拉德堡德大學計算認知科學助理教授,范羅伊(Iris van Rooij),計算認知科學教授
現代人工智慧(AI)科技嚴重妨礙人類學習與維持技能的能力,同時也讓學者與專家幾乎無法再培養與傳播知識。包括我們在內的許多學者都強調「科技解決主義」(techno-solutionism)在教育領域構成的威脅:這些科技非但沒有拓展我們的思想視野,反而削弱讓我們得以獨立思考的根本要條。
透過AI牟利的企業,包括微軟、OpenAI、輝達與艾司摩爾,對於維持當前的熱潮都有切身利益。它們對硬體與軟體的壟斷控制,依賴一種誇大的說法:人類認知勞動完全可以外包給它們的模型。 事實上,這些系統看似驚人的成就,建立於對人類智識勞動的大規模竊取之上。尤其是大型語言模型(LLM)是利用未經作者或出版商同意的書籍與學術著作進行訓練,將其切割、重組為東拼西湊式的抄襲內容,然後被包裝成有如人類的回應。
依照AI產業的敘事,人類的一切創造力、創新與知識都可以被自動化,讓人類變得可有可無。即使是「以人為本的AI」支持者,也多半預設這種說法為真。 然而,自動化與認知科學相關研究,加上AI產業興衰周期的漫長歷史,都證明「近乎全面自動化」的說法被誇大、適得其反,甚至有害。自動化即使可以運作,其程度也勢必遠低於這些公司所聲稱的水平,才能在不侵蝕人類操作者技能與自主性的前提下取得成功。
最終,AI企業的整體策略將使那些對社會運作至關重要的人,喪失其專業能力。畢竟,藝術、思考或閱讀的自動化有何價值,特別是在教育與學術環境中?毫無價值。相反的,讓私人企業推動知識與文化的自動化帶來堪慮的前景:令人聯想到反烏托邦,甚至是赤裸裸的法西斯情境。
歷史經驗顯示,教師和學者的技能喪失、職業詆毀和流離失所,一直是法西斯奪權的核心手段。教育工作者向來是抵禦宣傳、反智主義與文盲的堡壘。而今,AI擁護者不僅認為自動化為必然,還積極宣揚他們的信念,進而替科技法西斯主義(techno-fascism)鋪路。
學術界存在的使命,有部分是對權力說出真相,而這需要學者獨立於政府與企業之外。如今,美國正展示學術自由、批判思維與公正性遭到掏空的後果:川普政府與大型科技公司沆瀣一氣,削弱學術機構以科學研究揭露AI虛假承諾的能力。
更糟的是,科技法西斯對大學的攻擊,越來越多是來自於內部。近年來,AI產業滲透校方管理層、拉攏教職員工會,甚至動員部分教師與研究者向同儕與學生推銷其工具。這些科技非但沒有帶來真正的解決方案,反而加劇社會不公,侵蝕人類知識的生態體系。
我們在最近的立場文件中,對AI產業的主張提出質疑。在企業敦促我們擁抱、甚至慶祝那個想像中、似乎不可避免的科技驅動型未來之際,學者與盟友應該堅守原則,透過禁止有害且令人上癮的科技進入教室,以捍衛大學與學術機構。 這個產業仰賴我們的健忘,忽視過去也曾發生類似情況。大學院校長期以來被用於洗白有害的產品,而在一輪又一輪的炒作當中,AI本身也一再獲得重新包裝。
事實上,「人工智慧」這個詞自1955年創造以來,其實更像是行銷口號,而非嚴謹的學術分類。 為了維持最新一輪的AI騙局,AI產業仰賴擬人化的障眼法,聲稱模型會「思考」、「推理」與「學習」,暗示它們擁有實際上根本不存在、也可能永遠無法發展的認知能力。這種修辭手法不僅誇大產品能力,也透過錯誤地賦予機器人性,導致人類非人化,這正是為何許多教育者與學生開始拒絕AI的原因。
作為回應,AI產業遊說政府機構強制使用其產品,聲稱若沒有這些工具,學生將無法為職場做好準備。然而,實際上我們需要的恰恰相反:具備AI相關專業的學者應該擁有批評這些科技的自由,而其他領域的教師則必須能在不受試圖牟利的企業干擾下授課。
無論是菸草、石油、製藥還是科技產業,其議程鮮少與人類福祉或無利可圖的研究方向一致,尤其在缺乏監管與制衡時更是如此。它們真正關心的是利潤最大化與市場支配力。AI產業亦然,教育者應該駁斥其虛假承諾。
轉載自《上報》,譯者:吳巧曦,責任編輯:國際中心
原標題為《AI Is Hollowing Out Higher Education》,© Project Syndicate

















