分析:AI引發三大擔憂 威脅到底多大
【大紀元2025年03月22日訊】(大紀元專題部記者惠虎宇新聞綜述)AI的飛速發展在給人類生活帶來便利的同時,也引發巨大擔憂。目前人類對AI的擔憂集中在三方面:一是AI「深偽」技術製造的各種騙局是否會給人類社會帶來難以收拾的混亂局面?二是AI在工業領域的應用是否會造成大量失業,引發社會動盪?三是超級智能是否會毀滅人類?
在OpenAI推出ChatGPT 4.0版本十多天後,2023年3月29日,馬斯克等上千名科技領袖和研究人員簽署一封公開信,敦促全球所有人工智能實驗室暫停最先進系統的開發。信中列舉的AI可能給人類帶來的一系列風險主要集中在以上三個方面。
AI在以上三大領域對人類威脅到底有多大?人類有能力應對這些威脅嗎?
「深偽」與數據洩露相結合 危害不可料
利用生成式AI製作假視頻進行詐騙的技術被稱為「深偽」(Deepfake)。「深偽」技術通過少量影像和聲音數據即可合成高度逼真的虛假視頻或音頻,其仿真程度足以欺騙親友和同事,這為詐騙提供極大便利。
2024年,香港Arup工程公司某職員接到自稱英國總部首席財務官的視頻會議邀請,聲稱要進行一次機密交易。會議中,多名「財務人員」的面貌和聲音與現實高度一致,實則是AI「多人變臉」技術所為。
該職員未起疑心,15次轉帳共2億港元至5個本地帳戶,後查詢總部才發現受騙。這是香港史上損失最慘重的AI「變臉」詐騙案。
除了財務詐騙以外,在傳播假資訊宣傳方面,「深偽」也是罪魁禍首。2023年12月,超百部模仿英國時任首相蘇納克(Rishi Sunak)的「深偽」視頻在Facebook上付費推廣。其中一部偽造BBC主播薩拉‧坎貝爾(Sarah Campbell)播報假新聞,稱蘇納克從某公共項目中私吞巨資。
「深偽」的危害不僅限於個體詐騙,其與數據洩露結合後,威力將成倍放大。個人隱私一旦落入不法分子手中,AI便可利用這些數據量身定製詐騙方案。
當「深偽」與數據洩露結合,像廣告推送般精準打擊每一個人,社會可能面臨信任崩塌、監管無力等危機,現有的預防措施恐怕再也難應對這種規模化、個性化的威脅。
而應對「深偽」的危害則需要多層次、多方協同的策略,涵蓋了技術、法律、教育和社會治理等多重方面。首先需要發展能迅速識別「深偽」的檢測技術;其次,在法律上要加強立法打擊;第三需要在社會層面上廣泛普及防範知識。
但是,由於AI是涵蓋多重高科技的產品,而社會大眾的知識結構又是分層次的,那些無法快速掌握這種技術的大量人群,依然會不可避免地成為「深偽」的受害者。
AI正打破技術和產業革命的歷史規律
AI引發的另一個擔憂是工作取代問題。從歷史經驗來看,每一次技術革命都伴隨著舊崗位的消亡和新崗位的誕生。例如,工業革命淘汰了手工匠人,卻催生了工廠工人和工程師;互聯網時代削減了傳統零售崗位,卻創造了程序員和電商運營等新職業。
雖然過去的歷史表明,技術進步和人類行業及工作形式的轉換一般都是相輔相成的,人們對新技術的出現也沒有表現出過多的擔憂。但是AI可能會打破這一歷史規律,給人類社會帶來深遠的影響。它表現在以下幾個方面:
一、AI取代崗位的速度與規模空前
過去的技術革命,如工業革命或互聯網革命,雖然也導致崗位的消亡與新生,但這種轉變通常需要數十年甚至更長時間,人類社會有足夠的緩衝期來適應。而AI的取代速度可能遠超以往。
根據SEO.AI的預測,到2030年全球8億個工作崗位可能被取代,這一規模和速度是前所未有的。相比之下,工業革命花了近一個世紀才徹底改變勞動力結構,而AI可能在短短幾年內就會完成類似規模的顛覆性變革。這種快速變化可能讓社會來不及調整教育體系、培訓機制或就業政策,導致大規模失業和傳統經濟的結構性失衡。
二、AI取代崗位的廣泛性與跨領域滲透
與之前的單一技術(如蒸汽機或互聯網)主要影響特定行業不同,AI是一種通用技術,能夠滲透到幾乎所有行業,包括製造業、服務業、創意產業甚至決策領域。例如,AI不僅能取代體力勞動(如自動化生產線),還能取代腦力勞動(如數據分析、法律文書起草、文案撰寫甚至醫療診斷)。
歷史上,技術進步通常只淘汰部分低技能崗位,同時創造需要人類創造力或判斷力的新崗位。而AI的強大適應性可能同時擠壓低技能和高技能崗位,導致「中間地帶」——即人類可以輕易轉型的新職業——大幅縮小。
三、新崗位創造的滯後性與不對等
技術革命通常遵循「破壞與重建」的模式,即舊崗位消失後,新崗位會隨之誕生。然而,AI可能打破這一平衡。首先,AI本身需要的維護和開發崗位(如AI工程師、數據科學家)高度專業化,要求較高的技術門檻,普通勞動者難以快速轉型。其次,AI的自動化特性可能減少對人力的總體需求。例如,一個AI系統可以替代數百名客服人員,而維護這個系統可能只需要幾名工程師。這種不對等意味著新崗位的數量和質量可能無法彌補被取代崗位的損失,從而導致就業市場的「空心化」。
四、社會不平等的加劇
歷史上,技術進步雖然帶來陣痛,但長期看往往提高了整體生活水平。然而,AI的紅利可能高度集中在少數掌握技術的大企業和個人手中,而普通勞動者面臨工資停滯或失業風險。AI的部署成本高昂,小型企業或發展中國家可能難以跟上步伐,導致全球範圍內的經濟差距進一步拉大。這種不平等不僅是經濟層面的,還可能引發社會動盪甚至政治危機,這是以往技術革命未曾面臨的系統性挑戰。
五、人類價值與心理層面的衝擊
AI不僅威脅就業,還可能挑戰人類在社會中的核心角色。過去的技術進步多是增強人類能力(如機械提升體力,計算機提升計算力),而AI可能直接取代人類的決策和創造功能。
例如,如果AI能在藝術、文學或科學研究中超越人類,人類可能會面臨自我價值感的危機。這種心理和社會認同的衝擊前所未有,可能引發對技術本身的抵制或更深層次的文化衝突。
AI「不可承受之重」人類尚無應對方案
綜合來看,AI在崗位取代方面突破歷史規律的潛在後果可能是:社會適應能力的崩潰。如果失業潮來得太快、範圍太廣,而新崗位無法及時填補空缺,教育與再培訓體系又跟不上節奏,那麼人類社會可能陷入長期的高失業率、經濟停滯甚至社會不穩定。
此外,AI對人類智力和創造力的挑戰可能動搖社會結構的基礎,導致倫理、法律和治理體系的全面重構需求,而這些調整的複雜性可能也是當前社會機制所難以承受之重。
而與此同時,面對AI可能對產業結構帶來的如此巨大衝擊,人類尚沒有拿出可行的應對方案。
全球都在聚焦「AI會毀滅人類嗎?」
AI會毀滅人類嗎?很多專家都認為這取決於人類如何解決倫理困境。自從核武器出現以後,毀滅的危機始終像一道陰影一樣深深刻在人類心頭。地球上現在有上萬件核武器,掌握在9個國家之手。截至目前人類還沒有爆發核戰爭,是因為人類依然能理性地掌控核武器,但是超級人工智能誕生後,這個局面會改變嗎?
通用人工智能AGI是AI的最終發展方向。這種人工智能的特徵是能夠在無需人工干預的情況下自我改進,具有高度的智慧,一些學者稱之為「超級智能」(即遠超人類智能的AI)。
2023年3月,在OpenAI推出ChatGPT 4.0版本後,美國加州大學聖塔芭芭拉分校學者、研究哲學和神經科學的塔姆林‧杭特(Tamlyn Hunt)在「科學美國人網站」撰文表示,隨著AI飛速發展,預計很快就會實現「通用人工智能」。
杭特認為,一旦人工智能發展到超越人類的階段,如果它決定毀滅人類,人類將無法反抗。因為人類試圖建立的任何防禦或保護措施,都會被其輕易預料到並被消除,這種超級智能的思考速度比人類快一百萬倍,人類無法控制它們。
對於人工智能出現的技術奇點和智能爆炸模型的學術討論,早在1960年代就已經開始,1980年代的電影《終結者》將這種「生存擔憂」搬上銀幕。
隨著21世紀互聯網和AI技術的發展,人工智能逐步走入實際應用領域,超級智能構成的威脅也更為學者關注,比較著名的有牛津大學哲學教授尼克‧博斯特羅姆(Nick Bostrom)2014年出版的暢銷書《超級智能:路徑、危險、戰略》。
博斯特羅姆在《超級智能》一書中,不僅對發展人工智能的風險進行了深入探討,還提出一些潛在的解決方案,如發展人工智能的倫理體系,以防止不可控的風險。博斯特羅姆的解決方案圍繞一個核心理念:我們可能無法阻止超級智能的到來,但可以通過深思熟慮的設計和準備,將其轉化為人類的助力而非威脅。
博斯特羅姆強調了「價值對齊」(value alignment)的重要性,即讓超級智能理解並尊重人類價值觀。
他提出的一個潛在解決方案是,在超級智能的初始設計中植入與人類兼容的目標,使其優先學習和內化人類的道德和倫理原則。只有人工智能學會重視人類和人類最珍視的事物,人類才可能真正享受這項技術帶來的好處。
博斯特羅姆認為,應該放緩AI能力開發的步伐,將更多精力轉向安全研究,而不是單純追求AI性能的提升。他主張促成跨學科的合作,召集哲學家、計算機科學家、倫理學家等共同解決AI的「價值對齊」問題,以避免技術發展失控。
博斯特羅姆的觀點代表了AI倫理的業界共識。但是該給AI設定什麼樣的倫理呢?這就涉及到人類社會自身的倫理問題。
人類對倫理的理解分成兩派,先天倫理和後天倫理。前者認為倫理、道德來自於超越人類的神和天道,是神為人類設定的生存規範,因此倫理和道德的標準具有永恆性;而後者則認為倫理是一種人為設定的公共規範,來自於傳統、習俗和權力結構,因而倫理具有相對性。
如果人類為AI設定先天倫理,讓AI學習天道和信仰體系的倫理概念,那麼,AI也許會遵守神的旨意,具有恆定的善惡和倫理判斷標準。例如,AI可能被編程為遵循「十誡」或儒家「仁義禮智信」等永恆原則。這樣AI失控的風險可能就會大大降低。
但如果是不信神的人為AI設置倫理,則AI學習的內容就是政治傾向和政治立場的集合,基於階層利益原則去判斷好壞。那麼,這樣的AI只會助長社會的分裂和增加戰爭的風險。
AI倫理難題其實是人類倫理困境的一種鏡像反映。如果兩種AI倫理在機器中相遇時,是否也會發生人類社會中正在發生的價值觀對立和衝突?
當今人類自身的倫理體系也面臨崩潰或者重建的關鍵時刻。AI在此刻的快速發展,給社會帶來的結果,可能不是增加了重建倫理的便利,也許更加速人類倫理崩潰的速度。果真如此的話,那麼,人類面臨的生存危機可能會被這種技術成倍放大。
責任編輯:連書華
沒有留言:
張貼留言