星期五, 7 11 月

為什麼使用AI的你,變得越來越笨?

過度依賴與認知卸載

為什麼使用AI的你,變得越來越笨?

ChatGPT在上線三年後,周活躍用戶數破8億,業已成為許多人工作不可或缺的生產力工具,融入日常生活的速度也在進一步加快。山姆·阿爾特曼在發布這一最新數據時說:「感謝大家,AI已從人們把玩的東西,轉變為每天用來構建東西的工具。」

然而大模型的火爆也衍生了一個非預期後果——出現對人工智慧的過度依賴。所謂「過度依賴」,是指人們對人工智慧系統的輸出過分信任或依賴,哪怕這些結果是錯誤的或不可靠的,也會照單全收。

換言之,用戶在沒有經過充分判斷或驗證的情況下,盲目採納AI的建議,從而導致錯誤——業界稱之為「執行性錯誤」。這種情況通常發生在用戶並不完全了解以下內容時:AI能做什麼(它的功能與適用範圍);AI能做得多好(它的準確性與局限性);以及AI是如何工作的(它的邏輯、數據來源或決策機制)。

過度依賴可能導致現實問題和錯誤叢生,最終令人們喪失對AI系統的信任。不過擔憂還不止於此。雖然AI能夠提升某些認知能力,但人們害怕,過度依賴
AI,或許會使自己變得懶于思考;遇到問題就求助於AI,可能會對長期認知發展和批判性思維能力造成影響。這一現象有時被稱為「認知卸載」(cognitive
offloading),指當AI接管更多任務時,人類獨立完成這些任務的能力可能會下降。

認知卸載是我們在日常工作和生活中經常採取的一種策略,個體通過利用外部資源來減少完成任務的認知需求。其形式可以很簡單(如寫購物清單、記筆記),也可以很複雜(如依賴高科技設備處理信息、使用GPS導航)。在今天,把認知負擔轉移給人工智慧已經成為我們的「第二天性」。

例如,在醫療影像診斷中,AI能通過深度學習識別X光片或CT影像中的病變。如果一名放射科醫生在看到AI系統標註出「疑似肺癌」區域後,並未仔細複核圖像,也沒有結合患者的病史,而是直接依據AI結論就下診斷。那麼,這位醫生就不僅是認知卸載,而且形成了對AI的過度依賴。

這方面的例子我們可以舉出很多:企業的HR人員依靠AI系統篩選應聘者;某些智能電動汽車用戶過度信任「自動駕駛模式」;學生要求AI生成整篇論文,未加審查便直接提交;客服人員不再閱讀用戶情緒或問題語氣,只是機械採納AI推薦答案,等等。

隨著AI使用頻率和依賴程度的增加,人類大腦的思考能力也隨之受到限制,導致人類的思維水平迅速下降。人類的智力能力被部分轉移到人工系統上,使得人類變得「更加人工化」。此外,與技術的高度互動使我們開始用類似演算法的方式思考,卻缺乏對過程的真正理解。

另一個問題是人類在生活的幾乎所有方面對AI技術的依賴。儘管這提高了生活水平並使生活更加便利,但也對人類活動產生了負面影響,使人變得急躁和懶惰。隨著AI深度介入諸如規劃與組織等活動,它會逐漸「餓死」人類大腦的思考深度和心理努力。高度依賴AI可能導致技能退化,並在需要身體或腦力操作時產生壓力。

在討論人工智慧對我們大腦的影響時,大多數研究都集中在生成式人工智慧(GenAI)上,這是一種讓我們比以往任何時候都更多地將認知負擔轉移出去的工具。任何擁有手機或電腦的人,都可以瞬間獲取幾乎任何答案、撰寫論文或編寫代碼、創作藝術或設計作品。然而,過度依賴AI完成創作等任務,可能抑制獨立思考,並導致語言和表達方式的多樣性下降。

AI對創造力的深層影響同樣令人擔憂。研究表明,AI確實能幫助個人產生比他們單獨思考時更多的創意,但在整個群體層面上,AI生成的創意卻較為單一,意味著真正的「靈光一現」的創新時刻變得更少。

康奈爾大學的心理學家羅伯特·斯特恩伯格(Robert
Sternberg)在《智力學刊》最近的一篇文章中總結了這些擔憂:「生成式AI具有複製性。它可以重新組合和重新排序已有的想法,但尚不清楚它是否能產生那種顛覆性範式的創新想法,而這正是世界需要用來解決諸如全球氣候變化、污染、暴力、收入差距擴大和漸進式專制等嚴重問題的關鍵。」

批判性思維面臨危險

關於生成式人工智慧如何通過提高收入、工作滿意度和科學進步等多種方式改善我們生活的潛力,已經有成千上萬的文章進行了探討。然而,令人擔憂的是,自動化任務使我們失去了自己練習技能的機會,導致支撐這些技能的神經結構被削弱。正如忽視身體鍛煉會導致肌肉萎縮一樣,認知努力的外包也會使神經通路退化。

其中最重要的認知技能之一——批判性思維,正面臨高風險。當問你喜歡莎士比亞的哪些特點,而你很容易就可以通過搜索大模型予以回答時,為什麼要自己絞盡腦汁去思考呢?研究支持了這樣的擔憂。瑞士克洛滕SBS商學院的邁克爾·格利希(Michael
Gerlich)對666位英國人進行了測試,發現頻繁使用人工智慧與較低的批判性思維能力之間存在顯著相關性——尤其是年輕參與者對AI工具依賴性較高,他們的批判性思維得分就明顯低於年長者。

類似地,微軟和卡內基梅隆大學的研究人員對319名每周至少使用一次生成式人工智慧的專業人士進行了調查。雖然AI提高了他們的工作效率,但同時也侵蝕了批判性判斷所需的「認知肌肉」,促使他們對這項技術產生長期依賴。研究人員預測,這可能導致他們在沒有AI支持的情況下解決問題的能力下降。

格利希研究中的一位參與者表示:「能夠隨時獲取所有信息當然很好,但我有時擔心自己其實並沒有真正學習或記住什麼。我對AI的依賴太大,以至於覺得如果沒有它,我根本不知道該如何解決某些問題。」長期依賴AI,可能使人們在沒有AI協助的情況下難以獨立完成任務,也更難適應沒有AI的環境。

這種批判性思維的侵蝕還被AI驅動的社交媒體演算法所加劇。格利希說:「社交媒體對批判性思維的影響巨大。為了讓你的視頻被觀看,你只有四秒鐘的時間去吸引別人的注意力。」結果是,大量易於消化但不鼓勵深入思考的碎片化信息蜂擁而來。大量的社交媒體給人的信息,是無需進一步加工處理的。

由於人們更多被動接受信息,而不是通過認知努力主動獲取知識,因此對所學內容的意義、影響、準確性和倫理的批判性分析能力極容易被忽視,當他們面對那些看似快速且完美的答案時,就更是如此。

根據2024年TollBit State of the
Bots報告,當AI被用來搜尋答案,95%的人會放棄進一步點擊。也就是說,人們如果改用AI查詢資料,相較於他們以前使用傳統搜索引擎查詢,為某些網站帶來的流量前後減少了95%!不論是Perplexity或ChatGPT,當答案在聊天框里用AI整理出來以後,就算帶有鏈接,人們會繼續往下點擊來源網站的比例只剩下5%。

所以,受此影響,健康信息平台WebMD、知識問答平台Quora、開發者社群平台Stack
Overflow與科技新聞與評論網站CNET等,流量紛紛下降。流量持平或成長的平台,只有Reddit這樣的在線論壇、線上百科全書Wikipedia以及個人電子報平台Substack等。

受到衝擊的平台被迫紛紛調整策略。比如,WebMD從單純的信息提供者,變身為服務精準客戶的健康教育平台。它企圖通過用新方向鎖定利基市場,讓流量不再像以往那麼重要。

而Substack的例子,更能反證AI時代批判性分析能力的重要性。這家成立於2017年的平台,讓獨立寫作者毋需架設網站,僅花5分鐘就能發行自己的電子報,且可設定付費訂閱功能,讓內容有價。它很快吸引了一群美國權威媒體人與知識網紅進駐。據《福布斯》報道,截至2021年8月,Substack擁有超過25萬付費用戶,其中前10名創作者的年收入合計高達700萬美元。

那麼,在ChatGPT問世、AI生成免費內容泛濫後,Substack是否受到衝擊?數據顯示,2025年2月,Substack的流量達到創立以來的新高,僅次於2023年1月的高峰。

這說明,生成式AI興起後,反而使人們更想要閱讀高品質、甚至需付費的電子報。Substack的創作者提供個人觀點與深度分析,這正是AI難以取代的價值。

「降智」與「懶思」的擔憂

對AI保持批判性是很難的——你必須具備自律性。不把批判性思維完全轉嫁給這些機器,是一項非常具有挑戰性的任務。

作為大學老師,我常常能在學生身上看到輕易轉嫁的行為。雖然這並不是我通過實證測試得出的結論,但我相信學生們太容易通過讓互聯網告訴他們該做什麼、讓大模型告訴他們該信什麼,來替代獨立思考。

缺乏批判性思維,就很難明智地消費AI生成的內容。儘管這些內容看起來很有說服力,尤其是在你越來越依賴它們的情況下,但不要被表象所迷惑。與人類相比,機器人聊天不僅產生更容易理解的信息,同時也生成了更具欺騙性的虛假信息。

AI語言模型擅長生成語法流暢、邏輯連貫、語氣自信的文本,這種「形式上的可信度」往往掩蓋了其「事實上的不可靠性」。AI的「可信外觀」與用戶的「自動信任」相互強化,使得虛假信息的傳播更加隱蔽和高效。長期依賴AI輸出可能導致判斷力鈍化、懷疑機制退化,由此來看,批判性思維的缺失,不僅僅是個能力問題,而是正在成為一種新的信息風險。

除了考慮使用人工智慧時發生的事情,還可以思考使用後的影響。就像其他令人愉悅的事物一樣,我們的大腦會因為突然的靈感閃現而產生興奮感,這種感覺來自於神經獎勵系統的活動。這些心理獎勵幫助我們記住改變世界的想法,同時也會改變我們的即時行為,使我們變得不那麼害怕冒險——這被認為能促進進一步的學習、創造力和機會。但由人工智慧產生的靈感似乎不會在大腦中引發如此強烈的反應。認知神經科學家相信,獎勵系統是大腦發育中極其重要的一部分,而我們到目前為止,還不知道使用AI技術在未來會產生什麼樣的影響。至今還沒有人對此進行過測試。

當然,作為媒介史研究者,我也十分清楚,歷史上,從文字到互聯網,每一次技術革命都伴隨著「降智」與「懶思」的擔憂。這一次,我們能簡單地沿用「技術悲觀論總會落空」的想法來化解當下的焦慮嗎?

並不能。這是因為,人工智慧與以往的技術相比,存在幾個根本性的不同:首先,它是認知功能的直接替代。過去的技術大多是擴展或輔助人類能力,比如文字幫助記憶,計算器輔助計算,而AI特別是生成式AI,正在直接替代甚至執行傳統上屬於人類「思考」、「判斷」、「創造」的核心認知功能。這種替代是質的飛躍,而非簡單的工具輔助。

其次是技術的規模與普及速度前所未有。AI的應用滲透極快,覆蓋面廣,許多日常生活和工作中的複雜決策都能被AI參與甚至主導,這使得「依賴性」風險比以往任何技術都更大。

再次,「智能」模擬的真實性與迷惑性也很致命。如前所述,用戶在面對AI生成文本時,往往被其語義連貫、邏輯嚴謹與表達自然的表象所吸引,從而逐漸形成認知依賴。這種「偽智能」可能降低人類對信息的質疑和批判意識,帶來新的認知風險。

最後是社會結構與價值體系的潛在重塑。AI不僅影響個體認知,更可能改變教育、工作、權力結構和倫理觀念,帶來深層次的社會變革。

因此,簡單用「技術悲觀論總是多餘」來否定對AI的擔憂,可能過於草率。雖然歷史教導我們,技術帶來的恐慌大多會被現實修正,但AI的獨特性質也提醒我們:這種新技術的影響必須被嚴肅、全面地審視和管理。

換句話說,我們不能簡單地忽視焦慮,而應積極正視AI帶來的挑戰,制定合理的監管政策,培養公眾的批判性思維和數字素養,確保AI成為人類智能的助力,而非替代或削弱。這樣才能真正把握AI帶來的機遇,避免重蹈以往技術革命中「盲目樂觀」或「盲目恐慌」的老路。

全球智商的下降

如此看來,我們必須認真地回答一個問題:AI時代,我們正在變得更聰明,還是被數字生活的重負慢慢鈍化?

智商(IQ)是衡量智力的一種量化指標。針對智商測量有一個概念,叫「弗林效應」(Flynn
effect),是以智力研究者詹姆斯·R.弗林(James R.
Flynn)來命名的。他在20世紀80年代經過研究發現,自上世紀30年代以來,全球多個高生活水平國家連續幾代人的平均智商在持續提升。換句話說,人類變得越來越聰明了。

這一上升趨勢足夠顯著,以至於使早期的智商測試標準隨著時間變得過時。智商每10年大約上升2到3分,這一模式在不同年齡組、測試類型和表現水平中均保持一致。每10年增加2到3分對個體而言變化不大,但在整個人口中累積起來則具有顯著意義。

是什麼原因導致了20世紀的智商上升呢?通過對超過73萬名挪威男性的分析,挪威研究人員伯恩特·布拉茨貝格(Bernt
Bratsberg)和奧勒·羅格伯格(Ole
Rogeberg)在2018年進行的一項研究得出結論,智商的上升與下降均源於家庭內的環境因素。這一發現排除了遺傳和人口學解釋,凸顯了社會條件變化的作用。教育水平、營養和公共健康的改善很可能推動了這一時期的智商增長。

然而,發達國家從1990年代開始,出現弗林效應的輕微逆轉(即智商分數下降),這有時被稱為「逆弗林效應」。在英國,弗林本人曾表示,1980年至2008年間,14歲青少年的平均智商下降了超過兩分。與此同時,全球性的國際學生能力評估項目(PISA)也顯示,許多地區的數學、閱讀和科學成績出現了前所未有的下降,年輕人的注意力持續時間縮短,批判性思維能力也變得較弱。

同上升的因素一樣,近期的下降原因也是社會性的,可能源於教育質量停滯、被動媒體消費增加以及認知參與度下降。換句話說,那些曾經提升人口智力的因素,如今可能正在促成其下降。

增加近期智商趨勢複雜性的是,新研究表明智力結構本身可能正在發生變化。維也納大學2024年的一項隊列研究追蹤了2005至2024年德語人口的智商測試結果,發現雖然在某些情況下智商仍有所上升——尤其是在最初得分較低的個體中——但不同認知能力之間的整體一致性卻在減弱。實際上,人口可能正在變得更加認知分化或專業化。

儘管這些趨勢在數據上是經得起統計檢驗且具有實證基礎的,但對其解讀卻遠沒有那麼簡單。芝加哥西北大學范伯格醫學院的伊麗莎白·德沃拉克(Elizabeth
Dworak)最近在對2006年至2018年間美國大樣本人群的研究中,發現了弗林效應可能出現逆轉的跡象。她指出,大家都想把人工智慧當作「替罪羊」,但這應當加以避免。智力能受到多種變數的影響——例如微量營養素碘已知會影響大腦發育和智力,此外產前護理的改善、受教育年限、污染、疫情以及技術發展等因素也都會影響智商,因此很難孤立地確定某一個因素的影響。德沃拉克認為:「我們的行為不是孤立發生的,我們不能只指著某一個因素說『就是它』。」

不過,雖然人工智慧對整體智力的影響難以量化(至少在短期內如此),但關於「認知卸載」導致特定認知技能下降的擔憂是合理且可測量的。研究表明,使用人工智慧來處理與記憶相關的任務,可能會導致個人自身記憶能力的減退。譬如,我們常見的情形是,過度依賴GPS等AI工具,會削弱空間記憶與導航技能,印證了「用進廢退」的原理。

在教育領域,研究顯示依賴生成式人工智慧的學生在測試中的表現更差,這表明其解決問題能力和概念理解能力正在減弱。在職場上,也出現了很大的擔憂:對人工智慧工具的持續依賴可能侵蝕員工的思維敏捷性和決策能力。隨著演算法接管原本需要人類判斷的任務——從診斷患者到管理投資組合——我們不僅面臨技能的流失,還可能喪失對自身推理能力的信心。

保持不可替代,不成為「多餘的人」

當平均智商得分開始下滑,當「腦腐」(brain
rot)這樣的詞語出現在公眾話語中,研究者、教育者與技術專家們正竭力理解:環境與技術的劇變,究竟如何重塑我們的思維方式。

那我們的腦力會走向何方呢?是得以解放,去從事更有深度的思考,還是會因將思考外包給無面孔的演算法而逐漸退化?

正如斯滕伯格所警告的,我們需要停止一味地問「人工智慧能為我們做什麼」,而應開始思考「人工智慧正在對我們做什麼」。他指出:「在生成式人工智慧盛行的當下,最大的擔憂並非它可能損害人類的創造力或智力,而是它實際上已經這樣做了。」

扭轉這一局面的關鍵並非拒絕人工智慧,而是將其作為認知夥伴使用——一個能夠解釋、增強並引導更深入思考的夥伴,而非替代我們的思維。最終,答案在於重新培養人類成為更有人性的人,通過養成批判性思維、直覺等目前計算機還無法實現的能力,使我們在人工智慧時代不會成為「多餘的人」。

發表回復

您的郵箱地址不會被公開。 必填項已用 * 標註