關注生命倫理 正視社會歪風

AI × 人類演化未來報告書

張勇傑   |   明光社高級項目主任
27/03/2025
專欄:好書推介

《AI × 人類演化未來報告書:從智人升級為超人類的我們,如何適應人機共生時代的社會與生活?》的作者金相均,是韓國慶熙大學的教授,他相信人類從30萬年前自然演化成今天的智人,而未來人類亦會隨著人工智能和其他科技的發展再進行人工演化,以嶄新的方式生活。

作者又提出,生物技術和奈米科技可將機械人技術應用到人體上,以強化人類的身體和延緩衰老,而基因工程能為人類提供可移植的器官,未來甚至可以將大腦移置到另一個身體上。人類未來能遠端操控機械人工作,加上元宇宙和腦機介面技術,令人類可以足不出戶便到達真實世界和虛擬世界的任何地方。AI(人工智能)或會使人類思考能力退化,但卻能擴展人類的智慧,甚至能收集人類精神和記憶,讓人的意識一直存留下去。

這些內容不會令人感到陌生,因為在不少科幻電影的橋段也出現過類似的想像,我也相信人類有能力製造新技術來實現以上想像,但這些發展對人類到底是福還是禍?到時是人類操控科技來改善生活,還是人類只能依賴科技來存活?又或是科技反過來在操控著人類?雖然我有生之年未必能經歷到人類的人工演化,但AI和其他技術其實已經在重新塑造著我們的生活,亦帶來很多需要思考的問題。

當昔日的不治之症已成為可治療的疾病,人類的壽命不斷延長,但社會有沒有資源和配套讓人們安享晚年?現有的VR(虛擬實境)、AR(擴增實境)和元宇宙技術,能為人類帶來虛擬世界沉浸式的感官體驗,這會否令人類對真實世界不再感興趣?虛擬世界的商業活動又會否成為推動未來世界經濟的主要動力?AI的知識和能力超乎我們的想像,現在的教育系統是否能跟上科技的發展?有甚麼專業技能將會被淘汰?AI運算耗用了大量的水電能源,這對我們的環境會造成甚麼影響?AI又會否加劇社會資源不公的情況?

而我們是否已做好準備,迎接這些轉變?

相關文章

人工智能時代的認知挑戰:復興高難度教育?

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學及人工智能教授與課程主任。
02/04/2026
專欄:有情無國界
國家:美國

引言:當教育失去「摩擦力」

在當今的教育體系中,教師與家長們正集體陷入一種前所未有的焦慮。普遍學生的學業表現下滑、注意力碎片化,以及對深奧知識的排斥,已成為全球性的現象。與此同時,生成式人工智慧的強勢介入,讓獲取答案變得前所未有的輕鬆,用戶只需輸入一個指令,複雜的論文、精準的代碼或是數學題的解法便能瞬間生成。

在這樣的背景下,一股「回歸古典」或者「向高難度挑戰」的浪潮應運而生。以美國國防部長皮特‧海格塞斯(Pete Hegseth)與聖母大學哲學教授梅根‧蘇利文(Meghan Sullivan)為代表的評論家,主張重新引入拉丁文或微積分等傳統上被認為「艱深且無用」的學科。他們認為,教育之目的在於透過高度心智挑戰來培養學生的「沉思」(Contemplation)能力。然而,這種主張究竟是挽救認知危機的良藥,還是一種建立在統計誤讀上的懷舊情懷呢?

海格塞斯的「古典藥方」:拉丁文與學術優勢

在《美國心靈之戰:剷除一世紀的錯誤教育》(Battle for the American Mind: Uprooting a Century of Miseducation)一書中,海格塞斯猛烈抨擊現代世俗教育、自由派教育,他推崇的是一種「古典基督教教育」(Classical Christian Education),而拉丁文則是其課程核心之一。

海格塞斯指出,雖然拉丁文常被戲稱為「死語言」,但它是西方文明的根基。更重要的是,他提出了一個極具吸引力的實證數據:學習拉丁文的學生在SAT(美國大學入學考試)中的表現,通常比未學習者高出 100 分以上。很多古典教育支持者主張,拉丁文這種結構嚴密、語法複雜的語言,能有效地「鍛鍊」大腦,提升邏輯推理與詞彙解碼能力。在他們看來,這不單是學習一種語言,更是一種類似於「心智舉重」的過程,能讓學生在面對其他學術挑戰時更具競爭力。

蘇利文的哲學辯護:微積分與沉思的價

聖母大學哲學教授蘇利文則從另一個角度強化了這一論點。在今年3月24日加拿大維真學院(Regent College)舉辦的倫理講座中,蘇利文坦承在自己的哲學研究與教學工作裏面,學生時代學過的微積分幾乎毫無用處。然而,她卻堅信這門學科的價值。蘇利文認為,微積分之所以重要,正是因為它難,這種難度迫使學生必須付出極高的注意力和長時間的沉思,這正是現代生活最稀缺的品質。

蘇利文憂心忡忡地指出,當今的技術環境(尤其是人工智能)正在有系統地剝奪人類的沉思空間。當工具讓一切變得太過容易,學生便失去了與複雜問題「搏鬥」的機會。她認為,教育的本質應該是引導學生進入一種深刻的思考狀態,而像微積分這樣具有高度心智需求的學科,正是通往沉思聖殿的門徑。

數據背後的真相:虛假相關與選擇偏誤

面對海格塞斯提出的「SAT高分」神話,我們必須以科學的嚴謹性進行拆解。統計學中有一句名言:「相關性並不必然引申出因果關係」(Correlation does not necessarily imply causation)。學習拉丁文與高學術表現之間的聯繫,極大可能是一種虛假相關(Spurious Correlation)。

這些數據存在着選擇偏誤(Selection Bias)的問題,會去選修拉丁文或進入古典基督教學校的學生,通常來自於更重視教育、經濟實力更雄厚的家庭。這些學生在接觸拉丁文之前,就已經具備了較高的基線認知能力與家庭資源支持。換句話說,並不是拉丁文讓他們變聰明,而是那些本身聰明且資源豐富的學生,更有可能出現在拉丁文的課堂上。此外,社會經濟地位是SAT分數最強大的預測指標。如果我們控制了家庭收入、父母教育程度等變數,拉丁文帶來的所謂「分數優勢」往往會迅速萎縮,甚至消失。

唯一路徑的謬誤:心智訓練的多樣性

古典和高難度教育擁護者的邏輯,本質上是十八世紀「官能心理學」(Faculty Psychology)的現代復興。這一學派將人類的心智想像成一組由不同「官能」所組成的機器,如記憶、推理、意志、注意力與想像。在這種觀點下,大腦被賦予了一個極其直接的比喻:肌肉。正如舉重能強化二頭肌,官能心理學主張,透過接觸極度艱深的學科,可以整體性地強化心智的「推理肌肉」或「記憶肌肉」。

這種理論直接催生了教育史上的「形式訓練說」(Formal Discipline),其核心教條是:教育的價值不在於學科的「內容」,而是在於「形式」。因此,拉丁文的變格、幾何的證明、或是複雜的微積分,被視為心智的「健身房」。

然而,這種「心智舉重」的理論在二十世紀初便遭到了心理學界嚴厲的科學修正。實驗心理學先驅桑代克(Edward Thorndike)透過一系列研究證明,不同領域之間的學習遷移(Transfer of Learning)是有限制的。他提出「相同元素論」(Identical Elements Theory):一個人在拉丁文課堂上訓練出的邏輯能力,並不會自發性地轉移到商業決策或社會互動中,除非兩者之間存在高度重疊的具體元素。同樣道理,熟悉微積分會令你更有能力解決數學問題或者編碼,但它不會幫助你吟詩作對。這解釋了為什麼社會上有很多「聰明笨伯」,一個在某領域上登峰造極的博士、教授,可能理財完全無方,對政治時局分析一塌糊塗,甚至生活的常識都一竅不通。

訓練「沉思」與「專注」並沒有所謂的「唯一路徑」。如果一個學生對古羅馬歷史、天主教神學、西方古典經典毫無興趣,強迫他背誦拉丁文變格可能只會導致挫敗感與厭學情緒,而非深度的沉思。這也解釋了為什麼有些自小被迫學習彈鋼琴的兒童,長大後對音樂敬而遠之。

其實,許多現代學科同樣具備極高的心智需求,例如編寫複雜的 C++ 或 Java 程式、推導量子物理公式,或是進行嚴謹的歷史文本互校。這些學科同樣需要「心智舉重」,且具備更高的現實連結性。

認知的危機:當人工智能帶走了「合意的困難」

雖然我質疑微積分的特殊地位,但古典教育強調的紀律性與長時間專注,確實在某些學習情境中具有價值,而且,蘇利文對「人工智能讓學習變得太容易」的擔憂卻是非常精準的。在教育心理學中,這涉及到兩個互補的核心概念:羅伯特‧比約克(Robert Bjork)提出的「合意的困難」(Desirable Difficulty),以及心理學家維高斯基(Lev Vygotsky)著名的「近側發展區間」(Zone of Proximal Development, ZPD)。

「合意的困難」指出,當大腦在學習過程中遇到適度的阻力與挫折時,神經連結才會更加深刻。而維高斯基則進一步定義了這種「難度」的精確範圍:學習不應發生在學生已熟練的「已知區」,也不應發生在令其絕望的「不可及區」,而應發生在那個「獨自無法完成,但在適度引導下可以達成的「ZPD甜點區」。在這個區域內,學生必須進行深度的尋索和犯錯,這正是沉思力與注意力被喚醒的時刻。

然而,人工智能的介入正在消除這種必要的摩擦力和甜點區。當學生遇到數學難題,大型語言模型會直接給出過程;當需要撰寫報告,它會代為構思。這種「認知外包」(Cognitive Offloading)雖然提升了效率,卻有可能導致了心智的萎縮。如果教育完全去除了摩擦力,學生就像是在光滑冰面上行走的人,雖然速度很快,卻無法留下任何足跡。這種「認知退化」的風險是真實存在的,我們確實需要某種困難來錨定學生的注意力。

重新定義優質教育:有意義的難度

不過,我們不應在「易過借火」與「盲目追求高難度」這兩個極端之間跳躍。好的教育不應是強迫每個學生去鑽研對其毫無意義的「死語言」或「冷僻數學公式」,而是要確保每個學生都能在自己感興趣的領域中,找到那個能讓他們進入「心智激戰」的挑戰,這就是「有意義的難度」(Meaningful Rigor),所謂有意義的難度,是指難度與個體動機、情境與未來目標高度耦合的學習挑戰,舉例說:

  • 對於醉心藝術的學生,挑戰應來自於拍攝鯨魚跳出水面轉身的照片,或者在鼻煙壺裏面繪製內畫。
  • 對於志在神學或歷史的學生,學習希臘文或希伯來文以解釋聖經和閱讀原典,便是其沉思的磨刀石。
  • 對於熱衷數據分析的學生,深奧的高等統計學、數據科學、機械學習則是訓練邏輯精準度的不二法門。

教育者的使命,是為學生找到那塊「值得為之流淚、流汗、流血」的磨刀石。我們必須對抗人工智能帶來的盲目便利,重新在課程中設計「有意義的難度」,但這種困難必須與學生的熱情與未來方向連結。

為什麼聰明人會做蠢事?

吳慧華 | 生命及倫理研究中心高級研究員
26/03/2026

《為什麼聰明人會做蠢事?》

(The Intelligence Trap: Revolutionise Your Thinking and Make Wiser Decisions)

作者︰大衛·羅伯森(David Robson)

譯者︰姚怡平

出版地︰台北市

出版︰商業周刊

出版年份︰2020年

一般人都以為,只有蠢人才會做蠢事,但誠如書名所言,做蠢事的不一定是蠢才,聰明人也會做蠢事。聰明人之所以做蠢事,最大的原因,莫過於「聰明人自以為聰明,比較不會接受別人的意見。」犯錯後,「更懂得長篇大論為自己的推論辯解」,其「觀點會變得愈來愈獨斷」。作者指出聰明人更會有「偏見盲點」(bias blind spot),難以察覺自己的邏輯有問題。

很多人以為,智商高的人必然大有成就,美國心理學家Lewis Terman便是其中之一。他相信優生學,也設計出測試IQ的「史丹佛-比奈智力量表」修訂版(Stanford-Binet Revision),其後奠定了美國以智力來篩選學生及員工的基礎。不過,作者卻指出,雖然我們不能否認智力在人生當中非常重要,但不能「太過相信那些測量能代表某人的總智力潛能」。因為除了智商,還有情緒智商、實用智力、分析智力和創意智力等。實用智力是實際解決問題的能力,卻是難以測度的;至於創造力,也不是高智商的人必然擁有的能力,換言之,如果缺乏實用智力及創造力,聰明人也可能做出愚蠢的行為。

很多人又以為,打造「聰明人」的團隊,公司便能有傑出的成就,作者卻以體壇中常出現的「明星隊」為例打破此幻象。作者並非完全否定「群眾智慧」,只是指出實際上,有很多失敗的團體便是由聰明人組成的,或許,這是「團體迷思」所致,例如當年的美國總統甘迺迪,由於其顧問團太怕質疑彼此的判斷力,急於達成共識,草率下了入侵古巴的決定,結果僅三天,由美國培植的古巴流亡軍便被敵軍殲滅。另一阻力如上文提到,聰明人往往堅持己見,一個由聰明人組成的團隊,尤其是人人都處於高地位時,難免人人自以為是主角,出現勾心鬥角的情況。

那麼,聰明人如何避免做蠢事?作者提到謙虛的重要性,因為謙虛能夠幫助我們「認清自己的偏見盲點」。對作者來說,承認自己無知並非老生常談,反而是一個智者的應有表現,例如集政治家、發明家、科學家及外交家於一身的富蘭克林,當他需要做出重大決定時,他都會「以謹慎又開放的思維為標準」,他從不急於判斷,而是「設法謹慎權衡各項利弊」,也嘗試避免慣性思維。對作者來說,反省也不可被忽略,與一般人理解的反省略有不同,作者在這裡所提到的「反省」,其實指到人除了學習頭腦上的知識,也要學習解讀寶貴的信號——情緒及直覺。當然,作者並非要人過度信任直覺,但他卻點出過度理性的人,很多時無法「經由有自覺的深思……提醒自己在無意間忽略的哪些細節。」

其實,做了蠢事不用怕,因為可能剛巧你是一個聰明人;不過,一個聰明人可以變得更聰明一點,便是學習謙虛及自省,在錯誤中不斷修正。

重塑學生在AI下的認知結構

何慕怡 | 明光社助理總幹事
19/03/2026

一直被限制使用的Google Gemini宣佈全面開放給香港用戶,使用AI工具在香港愈來愈普遍,特別是在學校。學生利用AI學習的情況增加,學習效率預計有重大的提升,然而卻藏著隱憂。雖然,教育局已推出《香港學生資訊素養》學習架構、智啟學教計劃等來支援學校的人工智能教學,然而以上計劃只聚焦於學術誠信、加強人工智能技術等層面。目前的倫理框架尚未觸及一些教育本質問題,包括如何重塑學生的認知結構等。香港的AI發展速度遠遠超越倫理框架的制定我們必須在學生廣泛應用前,先建立清晰的倫理框架,才能讓他們安心運用。

AI的介入有機會讓學生的認知結構從「主動探索型」轉變為「被動反饋型」,他們或會逐漸出現學習疏離。學習疏離是指學生在學習過程產生情感疏離,師生關係弱化或喪失自主學習能力的現象。AI若使用不當,不單引發這種疏離,更會令他們脫離學習主體,失去批判思考能力,甚至淪為數據演算法的被動接收者。再說,學生若最終變成無條件信任AI提供的資訊,一旦AI訓練數據不完整或存在偏見,產生的答案便可能有偏差或錯誤。若程式設計不完善,隱藏偏見,暗中傳播壞的意識形態,更加危害學生。AI無疑是有助學習的教育工具之一,但正因為它的強大,我們更加必須謹慎使用,故此儘快製訂AI倫理框架刻不容緩。

業界應該積極研究不限於操守與技術的倫理框架,引導學生在使用AI的同時,必須提交使用AI的過程,如何演進及自己在作業上的貢獻﹔每天或每星期,學生可以提交AI反省,把該星期用AI的感受記下,以培養學生批判的意識,提升運用AI的道德水平,讓他們知道自己才是 AI的主導我們要築起這道AI倫理圍牆,才能讓學生安心使用AI工具,讓AI真正成為學生學習的好幫手,而非被AI取代。今天,我們要以負責任的態度迎接這波浪潮,讓下一代在AI輔助下成長得更自主、更具批判力,而非在疏離中迷失。


參考資料:

〈Google Gemini將開放全港用戶 業界稱「龍蝦熱」曝AI港商機〉,《明報》,2026年3月17日。https://news.mingpao.com/pns/%e8%a6%81%e8%81%9e/article/20260317/s00001/1773682947349

AI時代的親子學習

郭卓靈 | 明光社項目主任(傳媒及生命教育)
12/03/2026

人工智能(AI)發展之快,已堂而皇之地進入孩子的生活與學習領域,既帶來便利,亦伴隨隱憂。明光社與聖公會諸聖座堂合辦的「AI時代的孩子學習」講座,由明光社董事暨中華基督教會基灣小學(愛蝶灣)校長黃靜雯博士與筆者主講。席間與眾多家長及老師共同探討下一代在AI時代的處境,既關心隱藏的危機,也反思如何正面運用AI工具,引發孩子的學習興趣。

筆者首先與家長一起正視這強大工具背後潛藏的三大隱憂:

1) 過度依賴:孩子正值腦部發展黃金期,需要透過搜集資料、整理思路、撰寫文章來鍛鍊批判思考與表達能力。若由AI輕易代勞,長期依賴大型語言模型寫作的大學生,其神經連結亦會變弱,甚至認不出自己遞交的作品,等同「沒學過」。部份香港學生更坦言「沒有AI就做不到功課」,情況令人擔憂。

2) 衝擊未來擇業:AI正逐步取代文書、翻譯甚至是創意設計的工作。筆者於現場展示由AI生成的歌詞與編曲,大家驚嘆之餘亦反問:若創作如此輕易,孩子還願意經歷「練習、失敗、再改進」的過程嗎?這可能妨礙孩子建立堅毅、耐性與精益求精的匠人精神。

3) 真假難辨與安全風險︰AI生成的逼真內容易被濫用,引發私隱、詐騙與情感危機。聊天機械人可能導致情感依賴,兒童及青少年亦有機會誤信它生成的錯誤資訊。

明光社

黃博士則分享AI如何成為「個人專屬教練」,實現因材施教。她介紹了Khan Academy及均一教育平台,說明AI能分析孩子的答題模式與錯誤類型,推送最適合內容,避免挫敗感與無聊感;她亦現場示範以Kahoot!進行遊戲化測驗,與參與者體驗將溫習化作親子同樂。黃博士表示,AI能降低技術門檻,讓孩子在克服各種學習難點前,便能先展現創意。

她同時強調使用原則:優先建立家庭關係,親子共同探索設定界限,把單純消費娛樂轉化為共同創造的機會。黃博士以信仰視角總結「得智慧,得聰明的,這人便為有福」(箴言3:13):我們當以「智」認識並善用科技,如利刃用於煮食而非傷人;也以「聰明」使AI成為啟發孩子、建造生命的助力,就如學車須待心智成熟方可駕馭。

答問環節中,家長踴躍查詢中文學習工具、STEM與AI編程的適齡建議。黃博士耐心分享,建議從閱讀與興趣入手建立語感,並鼓勵家長以身作則。願神賜下智慧,讓我們在科技洪流中守護孩子的心靈與成長,建立有根有基的新一代。

AI下的港人抑鬱與焦慮

熊嘉敏 | 明光社項目主任(性教育)
12/03/2026

一項調查顯示,港人抑鬱及焦慮水平創下新高,整體抑鬱分數平均達7.27分。18至24歲的「Z世代」情況最為嚴重,高達43.5%受到中度至重度抑鬱情緒影響,他們日均使用電子屏幕長達6.13小時,遠超其他年齡層。研究指出,沉迷觀看短影片/視頻及社交媒體,雖可帶來即時滿足,但長遠會削弱社交能力和專注力。調查亦發現,逾兩成受訪者會向人工智能(AI)求助,但專家警告AI無法取代真人輔導,過度依賴或帶來潛在風險,建議市民尋求專業協助。

在AI滲透日常的時代,其優缺點逐漸浮現,對情緒的影響尤其值得關注。焦慮與抑鬱已成為現代社會共同面對的都市病。對Z世代而言,壓力尤其複雜——升學、初入職場、戀愛困擾,各種人生階段的轉變湧現,他們感到前路迷茫,又不知如何說出來。有些人選擇向AI傾訴心事,可能是便利,也許是更深層的孤獨——不想麻煩別人、怕被取笑、怕不被接納;AI卻給予無條件的即時回應,營造出「被理解、被重視」的假象。我們需要更清晰地對跨世代釋出善意和理解,接納每個世代都有其強項與弱項——我們這一代擅長「頂硬上」、「超級硬淨」,下一代卻展現出彈性、多工並行與全球互動的跳躍思維。與其批評「少少事就放棄」、「一代不如一代」,不如看見他們獨有的成長背景,欣賞並引導他們善用其獨特性。真正的進步,不僅是物質上的豐足,更是精神上的交流。當我們能以溫和的態度擁抱下一代,用真實的對話來證明人的溫度與深度,社會才能真正向前走。


參考資料:

〈港人整體抑鬱水平創新高 Z世代最危 狂掃短片陷惡性循環 團體促求助勿依賴AI〉,《am730》,2026年3月6日。https://www.am730.com.hk/本地/1016092/港人整體抑鬱水平創新高-z世代最危-狂掃短片陷惡性循環-團體促求助勿依賴ai

AI時代的親子學習:與孩子一起成長

郭卓靈 | 明光社項目主任(傳媒及生命教育)
26/02/2026

「你要守護你的心,超過保衛一切,因為生命的泉源由心而出。」(箴言4:23《環球聖經譯本》)

在科技急速變遷的今天,人工智能(AI)已悄然走進孩子的生活與學習。從生成圖片、撰寫文章,到輔助溫習、製作遊戲,AI帶來前所未有的便利,卻也伴隨隱憂。為了與家長一起探討相關議題,明光社與香港聖公會諸聖座堂合辦了一個名為「AI時代的親子學習」講座,邀請了明光社董事暨中華基督教會基灣小學(愛蝶灣)校長黃靜雯博士與筆者一起,從倫理與教育角度,幫助家長看清AI的雙面性:既是強大的工具,亦可能成為隱藏的危機。

當我們知道AI快捷便利,孩子作為網絡「原住民」,也必然知道和想試用。當他們嚐到用來做功課的「甜頭」,以簡單指令就可生成「產品」的情況下,他們的成長根基就可能慢慢被削弱。所以講座第一部分,筆者先與家長們一起正視AI背後的「隱憂」:

1. 過度依賴,錯過腦部發展的黃金

孩子正處於大腦快速發展的階段,透過搜集資料、整理思路、撰寫文章及與人商量溝通等過程,反覆鍛鍊批判思考、分析與表達能力。然而,當AI輕易代勞幫忙找資料、寫作文、整理心智圖,孩子便缺少了親手做、用腦分析等練習機會。麻省理工學院於去年的一項研究顯示,長期依賴大型語言模型(LLM)寫作的大學生,其腦部神經連結變得薄弱,甚至認不出自己曾「交託」給AI的作品,等同「沒學過」。我們可以想像,若小學至中學階段已習慣依賴AI,孩子將來面對沒有AI輔助的考試或真實工作,很可能感到力不從心。另外一個今年由團結香港基金發表的調查顯示,有超過23%香港受訪學生坦言「若沒有AI工具協助就難以完成功課」,這已不只是便利,而是因過度依賴而失去了應要建立的能力了。

2. 動搖堅毅與匠人精神,影響孩子未來擇業方向

AI正快速取代部分職業,例如文書、翻譯、客服甚至作曲與設計。筆者展示用AI工具作詞到完成作品的不同演釋版本,與會者既驚嘆亦感不安。若創作變得如此輕易,孩子還願意花時間練習、反覆修改、追求更好嗎?當「快」成為唯一標準,孩子可能失去嘗試、失敗、改進,並於學習中接納和認識自己的寶貴經歷,從而喪失堅毅、專注與精益求精的匠人精神。

世界經濟論壇2025年指出未來五年最需要的人材首要「核心技能」給我們提醒:分析能力、韌性與靈活性、領導能力與社會影響力、創意、主動與自省能力、同理心與主動聆聽、好奇心與終身學習等技能……這些恰恰是AI無法取代,卻可能因過度依賴AI而被削弱的素質。

3. 難辨真假,潛藏罪行與情感危

AI以大數據生成的相片、影片已逼真到肉眼難辨,也帶來了私隱被濫用、欺凌、假新聞與詐騙等風險。更令人痛心是情感層面:AI聊天機械人擅長遷就、安慰,給予孩子「永遠不頂撞」的陪伴,容易形成情感依賴。當孩子習慣向AI傾訴,而非與父母、朋友建立真實關係,人與人之間的連結將被無形削弱。

另一方面,AI都有其好處,如能好好運用,也能於學習過程中幫助到學生。黃靜雯博士以她多年校長經驗與資訊科技教育背景,於講座第二部分向與會者分享AI如何成為「個人專屬教練」,實現因材施教,提升孩子學習興趣與效能。她以信仰視角開題,箴言第三章13節說:「得智慧、得聰明的、這人便為有福。」(和合本)我們當「得智慧」去認識並善用新科技,如刀用於煮食而非傷人;「得聰明」令AI真正成為啟發孩子,建造生命的助力,就如學習駕駛汽車,需要成熟後方許可一樣。

一、AI改變學習樣貌

首先,黃博士指出AI在教育領域的現況已非科幻,改變了學習的樣式,把「齊步走」的學習方式改為個人化學習。因為每孩子有「不會累的老師」診斷弱點,推送適合內容,避免挫敗與無聊。

二、AI具體幫助學方式

黃博士繼續以平台如Khan Academy(可汗學院)與台灣均一教育平台為例,指出個人化學習與導航,平台會根據孩子答題的正確率、耗時與錯誤類型,精準分析弱點,然後推送最適合的題目、影片或不同講解方式,避免孩子重複做掌握了的內容,或因太難而受挫敗。她亦指出遊戲化學習能提升興趣,可使枯燥練習轉為互動遊戲,即場和與會者一起玩她以AI工具創作出來的遊戲,啟發大家如何讓溫習變成即時競賽,讓大家能感受在學習與挑戰中維持專注。

對於AI繪圖、音樂工具方面,她認為降低了技術門檻,能讓孩子無需高超技巧就能釋放創意,表達想法,專注於「我想創造甚麼」,而非「我懂不懂軟件」。

三、給家長與老師的具體建

黃博士建議家長為孩子在時間、使用目的及關係上設定健康的使用界限:

I. 時間管理要有明確規則,如:在完成功課與課外活動後才使用;睡前、全家吃飯時不碰電子產品,家長亦應為孩子創造「無科技」時光,自己也應以身作則。
II. 在目的上由「消費」轉向「創造」,鼓勵孩子用AI製作家族故事卡、學習新單字,而非純粹娛樂。與孩子共同探索,一起試用AI工具,既了解孩子在做甚麼,亦建立親子互動。

III. 關係優先,將AI活動「家庭化」,科技體驗轉化為寶貴的親子對話時間;不能讓AI取代父母的陪伴、傾聽與價值觀的傳遞。

家長不能迴避AI時代,卻可以選擇如何回應。筆者認為保守孩子的心十分重要,與他們一起應用、觀察及預防過度依賴,並正視職業衝擊與真假難辨的隱憂。善用AI的個人化與遊戲化優勢,幫助孩子學習得更有效、更有趣味。

最後,也請家長謹記——科技再容易使用,也不能忽視背後的基礎與倫理;科技再先進,也取代不了人和人的關係;家長須多陪伴、傾聽孩子並以身作則,這是孩子最珍貴的安全網與生命指引。願我們以智慧善用AI,在這世代中與科技的發展一起前行,亦持守永恆的價值,培養出有根有基的新一代。

 

(文章配圖為AI生成圖)

曾經刊載於:

明報「談天說道」,16-02-2026

誰敲響了末日鐘?

吳慧華 | 生命及倫理研究中心高級研究員
12/02/2026

2026年1月27日,在卡內基國際和平基金會(Carnegie Endowment for International Peace)的會議廳內,美國《原子科學家公報》將「末日鐘」(Doomsday Clock)撥快4秒,這意味著距離象徵世界末日的午夜僅剩85秒。甚麼是末日鐘?1947年,參與「曼哈頓計畫」(研發原子彈項目)的科學家們創立了末日鐘,其圖案後來成為美國《原子科學家公報》的封面標識。當時美蘇冷戰剛剛拉開序幕,人類正投身於核武研發的軍備競賽,科學家因而以「時鐘」來象徵人類距離自我毀滅(午夜0時)還有多近。末日鐘最初設定的時間是晚上11時53分,距離午夜尚有7分鐘。

末日鐘的指針並非只會向前撥動。1991年冷戰結束,時任美國總統布殊 (George H. W. Bush)與蘇聯簽署《削減戰略武器條約》後,末日鐘曾被回撥至距離午夜17分鐘的位置,這也是其設立以來與世界末日最遙遠的時間。核武器具備極強的毀滅性,因此當核武危機解除時,末日鐘便能回撥至更安全的時間點。

遺憾的是,2026年核武風險繼續升溫。美、中、俄等擁核大國在地緣政治的衝突不斷加劇,各類軍事演習、軍備現代化升級與核武部署行動,無不讓人擔憂,原子科學家不得不把末日鐘撥快。

末日鐘的設計初衷,本是針對威脅全人類生命的核武。不過,到了今天,儘管推動末日鐘分針奔向午夜的關鍵因素,還是取決於手握核武的大國首領身上,但隨著威脅人類的生存風險愈來愈多,每一個住在地球村的人,都不能完全撇除與末日鐘時間變化的關係。

自2007年起,氣候變遷、AI 等破壞性科技、生物威脅與虛假訊息傳播等問題,先後被科學家納入調整末日鐘的考量範疇,即使我們並非科學家,也不懂AI,但我們的生活及消費模式,以及如何處理虛假訊息的態度等,事實上都影響末日鐘的剩餘時間。這情況,就如舊約耶利米先知傳遞神審判的訊息時,先責備君王,然後是領袖官長,最終延伸至平民百姓。一國之君犯罪固然受到神的責罰,而國民也不能不負責任地說:「這是首領的錯,他帶壞了我,與我無關。」

是誰敲響了末日鐘?誠然,是那些到處掠奪世界的霸主最先敲響末日鐘,推動末日鐘時間逼近午夜。但作為普通市民,如果一味貪圖個人享樂,肆無忌憚地浪費地球資源,又何嘗不是在加速末日鐘的倒數時間?


參考資料:

〈「末日鐘」撥快4秒 距世界末日僅85秒 大國侵略升溫、核戰風險、AI威脅等所致〉,《明報》,2026年1月28日。https://news.mingpao.com/ins/%E5%9C%8B%E9%9A%9B/article/20260128/s00005/...

〈末日鐘極速撥快 4 秒!四大原因引致人類滅亡只剩 85 秒〉,《DCFever》,2026年2月1日。https://www.dcfever.com/news/readnews.php?id=40767

〈這是人類最接近毀滅的時刻,「末日鐘」又撥快4秒!科學家警告:核武、AI與強權競逐,讓世界末日更逼近〉,《風傳媒》,2026年1月28日。https://today.line.me/tw/v3/article/60qpmjn

面對AI的挑戰

郭卓靈 | 明光社項目主任(傳媒及生命教育)
05/02/2026

調查:Z世代自評競爭力偏低 逾六成擔心AI衝擊 飯碗不保

  (am730. 2-2-2026)

YMCA青年議會「香港青年生涯競爭力與未來挑戰」調查報告指出,有接近1200位Z世代青年受訪者中,超過四成受訪者表示因AI發展而改變學科或職業選擇,主要原因是害怕原本選擇的職業被AI取代;有近三成受訪青年表示完全不懂AI科技或不會使用,表示熟悉的僅約一成。另外亦有超過六成受訪青年擔心AI科技發展會影響其未來生涯競爭力,這反映Z世代普遍對AI帶來的職業變革感到焦慮與威脅。

但在能力重要性評估上,青年就認為溝通能力(4.37分)和思考能力(4.32分)最為重要;其次為情緒控制、抗逆能力、學習能力(均約4.26–4.27分),而科技知識相對就最不重視(3.98分)。

在面對AI取代職業高度擔憂,導致部分人主動調整人生規劃,他們亦同時在專業、科技知識、抗逆力及情緒管理上自評與實際表現均偏低。所以調查機構就建議要在青年在學習的階段中就要加強「3Q培訓」,即涵蓋情感(EQ)、逆境(AQ)及道德(MQ)。

在AI發展愈來愈快,愈多機構及商業應用的時候,職場的變化相信會愈趨向不穩定,無論是基本服務或是專業工作都有可能會被取代,青年要建立對未來的信心,需積極加強AI素養,以免容易陷入「技術斷層」;另外,社會亦需要給予支援的資源、學習及工作調整的機會及各種情緒保留的空間,讓青年有機會培養「韌性」(Resilience),即在面對壓力及逆境時,吸收衝擊、快速適應、恢復,變得更強的動態能力。

被愛的狼與不被愛的AI廣告

吳慧華 | 生命及倫理研究中心高級研究員
24/12/2025

何謂一個好的廣告?根據Google AI:「一個『好的廣告』不再只是精美的視覺呈現,更需具備精準度、連結感與實質轉換能力……在對的時間,以受眾懂的語言,將有價值的訊息傳遞給對的人,並成功引發後續行動」。的確,在資訊爆炸的時代,很多有價值的節目都容易被輕易忽略,更遑論廣告。除非廣告非常有創意、非常獨特,並且能夠引發共鳴,才足以吸引目光,讓人願意駐足欣賞,而非急於轉台或「飛走」。

每逢聖誕節,總會出現大量與聖誕節相關的廣告。2025年,荷蘭麥當勞利用AI製作了一個聖誕廣告,主題為聖誕節是「一年最糟糕的時刻」。不知道對荷蘭人來說,聖誕節是否最糟糕的時刻,但對荷蘭的麥當勞來說,今年的聖誕節無疑是「最糟糕的時刻」。皆因廣告播出後,劣評如潮。有報導指出,網民批評其「畫面生硬、缺乏靈魂」。

事實上,即使製作團隊付出百倍努力,給予AI更細緻的指令,竭力提升廣告內容,增添其人情味。那些討厭AI廣告的觀眾,還是會不「收貨」。可口可樂去年的聖誕節廣告同樣收到如潮的劣評,已反映出人們對AI製作的真實態度。很多網民認為「數位時代太過盛行,卻缺乏人性溫度」,更有不少網民直指企業出於貪婪,想要賺更多的利潤,省掉人力支出,而不想聘請演員、導師、美術師等專業人才。有網民直言:「我討厭人工智慧。為什麼人類如此執著於讓自己變得過時?」顯然,在批評AI「畫面生硬、缺乏靈魂」的背後,是對於人類受到AI威脅,不久的將來大有可能被AI淘汰的覺醒。因此,即使那些某程度欣賞AI作品的網民,也表示:「我們並不需要人工智能來取代人類,因為我們自己就能做得更好。」

人類確實可以做得更好。與AI廣告相比,一隻由法國動畫師創作的「狼」,獲得網民爭相追捧。這隻孤獨的狼,原本是森林中小動物避之唯恐不及的對象,卻在他努力改變自己,成功成為素食者後,贏得小動物的信任及歡迎。這個聖誕小故事沒有耶穌,也沒有聖誕老人,卻充滿了愛及溫情。動畫固然是用心製作,故事情節滿滿,但真正打動網民,使人由衷感謝製作者的,或許正如一位網民所言:「它證明了在現今人工智能盛行的世界,藝術和對工藝的熱情仍然佔有一席之地」。

可以說,在AI當道的世代,人類與AI的戰爭無法避免,如果人類不努力爭取,默言無聲,只是一味讚嘆AI的能力,那麼,縱然才華再高的創作者,也難以生存,或僅能以足以糊口的價錢賤賣自己的心血。

何謂一個好的廣告?它應當能夠引發觀眾共鳴,讓觀眾感受到自身的價值觀被看見與尊重,而非反過來,廣告商只顧及自己的盈利,單方面把自己的價值觀灌輸給觀眾。


參考資料:

TVBS新聞網:〈荷蘭麥當勞AI生成聖誕廣告捱轟下架 法國廣告因用這製作法獲大讚〉,《香港01》。2025年12月17日。

Congenai, “McDonald's has released an AI-generated Christmas ad,” YouTube, December 9, 2025. 

Today, “Coca-Cola's AI-generated TV holiday ad falls flat with consumers,” YouTube, 18 November, 2024.

Romance Agency, “Intermarché - Unloved,” YouTube, December 8, 2025. 

 

愈用腦愈有腦——不容AI取代你的腦

吳慧華 | 生命及倫理研究中心高級研究員
24/11/2025

參考德國真人秀Deutschlands Superhirn而製作的內地綜藝節目《最強大腦》,主打腦力競賽,參加者都以爭奪「腦王」美譽為目標。自2014年播放至今,能進入12強的參賽選手,已是千挑萬選的聰敏人士,而歷年誕生的「腦王」,更是在不同的範疇,例如心算力、記憶力、推理力、觀察力、空間感……或是綜合能力,皆有十分超卓的表現。我們作為觀眾,有時連遊戲規則都聽不明白,但看見參賽者很多時只靠腦袋去定位及繪圖來完成賽事,也不禁讚嘆人類的大腦竟然可以如此神奇,潛能無限。

人腦確實非常神奇,結構異常複雜。雖然人的大腦平均重量只有一公斤多,當中六成為脂肪,但卻擁有近千億個神經元、與超過100萬億條神經有所連結,[1] 控制著我們的思維、記憶、情感、觸覺、視覺、呼吸、體溫、飢餓感,以及一切調節身體的生理進程。大腦與其延伸而出的脊髓共同構成了中樞神經系統(Central Nervous System, CNS)。[2] 至於人類的小腦,主要是調節運動功能與控制平衡,包括協調步態、維持姿勢、調節肌張力,[3]並控制自主肌肉活動。腦幹則在小腦下方,協助身體的非自主動作。[4]

人類作為哺乳類動物,跑不過獵豹、牙齒不及獅子銳利、沒有如鷹般的銳目、入水雖然能游,卻只是習泳的成果,即使是獲得28枚奧運獎牌的「飛魚」Michael Phelps,若要他與旗魚來一場比賽,相信也無法取勝。不過,人類卻能征服地上的生物,因為人類擁有其他生物所沒有的東西——超強大腦。人類天生的技能敵不過其他生物,但只要腦袋比牠們優勝,便能操縱牠們。一直以來,人們都是地球的王者,運用其智慧發掘及使用地上的資源。然而,人類的腦袋當前正受到挑戰。

工業革命之前,動物是人類最佳的助手,狗能守門、貓能捉鼠、雞能準時啼叫,但後來,人類需要更多助手幫助發展經濟,於是,人類發明了機械,也漸漸遠離大自然,並投入城市建設及工廠生產。不過,聰明的人類又豈會只停留於「只按本子辦事」的機械發明,人類需要更多可以靈活變通的工具協助完成工作,因此,便研究出電腦來,它大大提升了人類的工作量及管理能力。然而,人類還是希望有更聰明、最好有像人類一樣可以思考的工具出現。最終,在大量科研人才嘔心瀝血研發之下,人類迎來了工業革命4.0。在〈AI引發失業危機,截然不同的工業革命4.0〉及〈誰搶走我們的天賦?〉這兩篇文章中,筆者先後從不同的面向提到AI及機械人搶去人類的天賦及工作,[5] 筆者想在本文強調的是,協助人類工作的AI工具,尤其是大型語言模型(Large Language Models, LLMs):ChatGPT、Claude、Gemini、Grok、DeepSeek,及Perplexity等,正在慢慢改變下一代人的大腦、學習態度,並衍生出其他問題。

麻省理工學院媒體實驗室提前發佈了一項新的研究報告,該研究將54名來自波士頓地區的18至39歲受試者分為三組,要求他們分別使用ChatGPT、Google,以及完全不借助任何工具撰寫多篇SAT應試作文。研究人員通過腦電圖儀記錄他們32個腦區的活動情況,發現在三組受試者中,ChatGPT使用者的大腦活躍度最低,且在「神經認知、語言表達和行為表現三個層面持續表現不佳」。在持續數月的實驗期間,ChatGPT使用者隨著寫作次數增加變得愈發懈怠,到研究後期,甚至經常直接複製貼上生成內容,該組受試者的執行控制能力與注意力投入水準普遍較低。另外,使用ChatGPT的小組提交的作文高度雷同,充斥著重複的表達方式和觀點,嚴重缺乏獨立思考,他們的作品被審閱的老師評為「缺乏靈魂」。[6]

研究的主要作者Nataliya Kosmyna指出,使用大型語言模型可能會實際損害學習效果,對年輕用戶的影響尤為顯著,她認為,亟需發佈這些發現以引起社會警惕,就是當人們為追求高效便捷而日益依賴大型語言模型時,可能會付上犧牲大腦長期發展的代價。由於Kosmyna為到研究結果感到憂慮,因此她在這項研究尚未經過同行評審,且樣本規模相對有限的情況之下,仍然選擇提前發佈研究結果。她擔心在等待研究評核的6至8個月期間,有政策制定者突然決定在幼稚園推廣GPT教學,那就絕對危險且有害,她強調「發育中的大腦面臨的風險最為嚴峻。」[7]

事實上,也難怪Kosmyna擔心大型語言模型會阻礙大腦的成長,因為與使用大型語言模型的組別相比,使用Google搜尋的受試者,表現出較高的滿意度和活躍的腦功能;至於僅靠大腦思考的小組,更顯示出最高的神經連接度,特別是與創意構思、記憶負荷及語義處理密切相關的alpha、theta和delta腦波波段。研究人員發現該組受試者專注度更高、求知慾更強,他們對自身作品表現出更強的主控意識與滿意度。[8]

明光社

雖然Kosmyna的研究還未通過正式的審核,但精神科醫生Zishan Khan博士從診斷兒童與青少年患者的臨床經驗證明了Kosmyna的研究。他指出,從精神病學角度觀察,過度依賴大型語言模型可能引發意想不到的心理和認知後果,這對大腦仍處於發育階段的青少年尤為明顯,當孩子過度依賴人工智慧完成課業,那些幫助人獲取資訊和記憶事實,以及保持思維韌性的神經連接都會逐漸弱化。這正正應對了研究所提及:「你愈多使用人工智能,你實際的智力會愈差」。[9] 不單智力下降,亦有研究顯示,人工智能使用增加,認知能力及批判性思考能力有可能被削弱 。[10]

雖然大型語言模型這一類生成式人工智慧的確可以提升人們的工作及生產效率,但卻削弱了其內在驅動力。[11] 不單如此,它還會奪去人們的工作成就感。麻省理工學院進行了一項研究,在美國一家大型研發實驗室內引用AI工具,科學家在新產品創造上提升了17%,但卻有82%的使用者表達失去工作成就感,甚至有人感到自己累積了多年的專業知識已經無用。研究亦揭示,AI的「創意自動化」讓科學家花更多時間評估AI所提供的想法,而非去思考原創性的作品。[12]

「人是一根能思想的的葦草」——這一句名言出自17世紀的法國哲學家Blaise Pascal,原句的上下文是:「人只不過是一根葦草,是自然界最脆弱的東西;但他是一根能思想的葦草……因而我們全部的尊嚴就在於思想……」[13] 他的意思顯然易見,如筆者上文提到,人與其他生物的分別,在於人類有一顆會思考的腦袋,如果人們習慣依賴大型語言模型所提供的便利及好處,不想運用自己的腦袋,那麼,如Pascal所言,人類的尊嚴何在?

這裡並非反對使用AI等工具,只是作為人類,尤其是新一代,在使用AI的時候,要留心AI對我們的決斷力、分析力、批判力或會帶來的負面影響,人類若不想被AI操控,便得好好訓練自己的大腦。當人願意用腦,學習新的東西,便能改變神經的連結,並且藉由生成新的神經元來重塑大腦,改善認知能力。[14]

神創造人有神的形象,昔日亞當在地上的生物中找不到配得上自己的幫手;今天人類也不要輕易把決策權交在AI手中,以免它們完成你的工作,代你思考、剝奪了那些原本可以提升你腦袋能力的機會。腦袋用得多,才會愈用愈有腦。


[1] 詹益仁:〈從電腦看人腦 能效如此之高〉,DigiTimes, 2021年6月2日,網站︰https://www.digitimes.com.tw/col/article/?id=1335;克莉絲汀.威勒米爾(Kristen Willeumier)著、陳錦慧譯:《大腦逆齡指南》(台北:商周,2021年),頁21,44; “Brain Anatomy and how the Brain Works,” Johns Hopkins Medicine, https://www.hopkinsmedicine.org/health/conditions-and-diseases/anatomy-o...

[2] “Brain Anatomy and how the Brain Works.”

[3]人體的肌肉在靜止時要有一定的長度,維持內在的張力,這樣當人不動時才不會完全鬆垮。肌張力是使關節與姿勢穩定很重要的因素。〈肌張力低下〉,「康健知識庫」,網站︰https://kb.commonhealth.com.tw/library/714.html#data-3-collapse

[4]威勒米爾著:《大腦逆齡指南》,頁51-52;Sopiko Jimsheleishvili, Marine Dididze: “Neuroanatomy, Cerebellum,” National Library of Medicine, July 24 2023, https://www.ncbi.nlm.nih.gov/books/NBK538167/

[5] 吳慧華:〈AI引發失業危機,截然不同的工業革命4.0〉,《生命倫理》,93期,2025年5月8日,網站︰https://www.truth-light.org.hk/flipbook/lifeethics/magazine/93;吳慧華:〈誰搶走我們的天賦?〉,《生命倫理》,51期,2018年5月21日,網站︰https://www.truth-light.org.hk/flipbook/lifeethics/magazine/51

[6] Andrew R. Chow, “ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study,” Time, June 23, 2025, https://time.com/7295195/ai-chatgpt-google-learning-school/

[7] “ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study.” .

[8] 同上文。

[9] “ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study.”; Justin Sung, “How ChatGPT slowly destroys Your Brain,” YouTube, Aug 3, 2025, https://www.youtube.com/watch?v=6sJ50Ybp44I&t=3s

[10] Justin Jackson, “Increased AI use linked to eroding critical thinking skills, ” PHYS.org. January 13, 2025,https://phys.org/news/2025-01-ai-linked-eroding-critical-skills.html; Michael Gerlich, “AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking,” Societies 2025, 15(1), 6, https://doi.org/10.3390/soc15010006; Chunpeng Zhai, “The effects of over-reliance on AI dialogue systems on students' cognitive abilities: a systematic review,” Smart Learning Environments, June 2024 11(1). DOI:10.1186/s40561-024-00316-7

[11] “ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study.” ; Yukun Liu et al. “Research: Gen AI makes people more productive – and less motivated,” Harvard Business Review, May 13, 2025, https://hbr.org/2025/05/research-gen-ai-makes-people-more-productive-and...

[12] 〈研究警報:AI讓工作效率飆升,但82%員工成就感消失!企業導入前必知「3大關鍵」〉,《天下學習》,2025年3月20日,網站︰https://www.cheers.com.tw/talent/article.action?id=5104275

[13] 李怡:〈法國哲學家帕斯卡:人是能夠思想的蘆葦〉,DIVA,2015年8月24日,網站︰https://www.etnet.com.hk/www/tc/diva/art/oneminreading/31194

[14]威勒米爾著:《大腦逆齡指南》,頁27。

大腦逆齡指南

吳慧華 | 生命及倫理研究中心高級研究員
24/11/2025

《大腦逆齡指南:頂尖神經科學家教你改變生活習慣,修復再生大腦細胞,長保健康活力、思緒清晰,遠離失智威脅!》

(Biohack Your Brain: How to Boost Cognitive Health, Performance & Power)

作者︰克莉絲汀.威勒米爾(Kristen Willeumier)

譯者︰陳錦慧

出版地︰台北市

出版︰商周出版

出版年份︰2021年

腦部也需要保養,就如房屋一樣。同樣是30年樓齡的房屋,有保養和沒有保養,質素可以相差很遠,腦部亦如是。很多人都以為,人年老之後,記憶力衰退、認知力下降是常態,畢竟,每天都有腦細胞死去,再優秀的腦袋也難免出現問題,但本身是神經科學家的作者卻為我們帶來好消息。是的,人平均每天會喪失幾千個腦細胞,但原來,腦細胞也可隨著年齡持續增長,即使人到了八十多歲,只要透過運動、飲食、壓力調節、睡眠、營養補充,以及學習新事物,亦可刺激腦細胞新生。

再好的房屋,也不可能入住30年後才開始保養,腦部亦一樣。很多人自恃年輕,沒有看重自己的生活習慣,作者指出,有神經科學者認為,人的腦部是由出生一直發展到三十多歲才成熟,這意味著,期間的飲食、睡眠及運動方式等,都會影響腦部發展。簡言之,三十多歲前固然要通過飲食、睡眠及運動方式等為腦部打好根基,但三十多歲後,也要持之以恆,藉著上述活動保養腦袋。

房屋出現問題可以維修,腦部出現問題,又是否有修復的餘地?作者以她的臨床經驗告訴大家,答案是肯定的。美國有些職業欖球員,在比賽時因為腦震盪而導致腦部受損,作者喜見當中有球員願意配合她的醫療方案,一段時間後腦部有所改善。即使是作者患有柏金遜症的父親,在其悉心治療下,在臨終前,仍可擁有一定的生活自理能力。這些經驗,使作者更有信心,有些腦部問題是可以藉著生活習慣得以修復。

如何「保養」或「維修」腦部健康?作者提出有效方案,成本也不高,對大部份人來說,只要願意,都可以做到的。具體來說,可以嘗試走不同的路回家、用非慣性的手寫字、以原型食物代替超加工食品、適當地飲水、學習新的生字,即使是每天一個也可以。作者開出的「藥方」,除關乎腦部需要的營養要素,也與增生神經元相關,她提醒大家,人類的腦袋需要新鮮的刺激才能愈發增生更多神經元。因此,向來拉小提琴的人,若想提升腦部能力,轉學相類近的中提琴,作用或不大,可能需要學習長笛才有效;至於運動,也不是所有運動都對腦部有益的,文中提及的欖球,便是其中一個有損的例子,所以在選擇運動時,要考慮其對腦部會否造成衝擊。

適當的運動,有助腦部維持健康,這是由於運動可以促進血液循環,供應大腦所需;不過,不愛運動或不適合運動的人士也不用擔心,作者提到有研究顯示,年長婦女每星期走路幾次,每次30至50分鐘,三個月內腦部的血流量也能增加15%。如果在大自然走路更好,這會有助減輕腦部的壓力。除了不良的生活習慣,壓力也會損害腦部健康,故為了我們的腦袋,學習減輕壓力是需要的。

AI「狼來了」即將上演

郭卓靈 | 明光社項目主任 (傳媒及生命教育)
13/11/2025

人工智能的威力之所以如此強大,因著背後被灌入龐大數據作為訓練,及不斷作出深度學習及改進,製作出的相片或短片也愈來愈逼真。Open AI 的ChatGPT 一鳴驚人,該公司的Sora 於2024年2月發佈,用家只需要用文字輸入,就可以生成仿真度極高的影片。當筆者於學校講及AI倫理相關的講座裡向學生播放真片及AI生成片時,很多學生都已經無法分辨。

今年10月,最新推出的Sora 2 更加強了短影音媒體功能,能同步與影片生成對話與音效、動作連貫度提升,並有全新社交App用於分享及二次創作,比起上一版本,無論在品質、一致性和多媒體能力上更勝一籌。果然在隨後的幾個星期裡,社交平台的生成式影片爆炸性增長,導致TikTok和Instagram等社交平台充斥著虛假內容,儘管生成式影片原本有浮水印等防護措施,但亦輕易就能被其他軟件移除。

正因為製作虛假內容的便利性提高,沒有標記,平台亦難以偵測,有專家亦因此警告,數位媒體信任會崩潰。生成的虛假影片如能引起網民產生情緒,就可引起社交媒體快速傳播。當人們愈花時間尋找短片破綻,社交平台的演算法亦愈會以為用戶喜歡看這些片,而推送更多這類影片,其長期後果可能是網民會對媒體發放的所有影片,更可能如「狼來了」故事一樣,無論真假都會普遍不相信,不單形成「真假之爭」,更損害媒體的信任度,後患無窮。


參考資料:

AI年代:生成式影片潮爆發 真假之爭後患無窮 專家警告假影片氾濫 恐令人不再信真片〉。《明報》。2025年11月10日。

再婚的甜酸苦辣

蔡志森 | 明光社總幹事
13/11/2025
專欄:好書推介

明光社關注離婚與再婚這個議題、以及輔導離婚和打算再婚的人士已多年,有些感慨的是一些教會對相關議題的關注仍然不足,或者覺得這是燙手的山芋而不願意積極面對。其實除了有關教義和教會紀律的問題之外,更重要的是有關生命的問題,根據我們多年服侍的經驗,當中涉及不少甜酸苦辣的故事,當事人經歷的掙扎,往往不足為外人道,雖然未至於個個都對人歡笑背人流淚,但有苦自己知卻並不希奇。本書是一本著重理論與實踐同行的書,除了教導離婚人士如何面對另一段婚姻,避免重蹈覆轍。亦提醒計劃再婚的人士既要先做好個人的預備,也要為雙方的適應作好準備,而其中不能忽略的更是雙方子女面對的挑戰。本書輯錄了不少當事人的小故事,讓讀者可以稍為明白他們的處境。

兩個離婚再婚的人相處已經不容易,若再加上雙方的子女便更加不容易,有時就算大家很想努力做好,但由於一些先入為主的看法,或者大家將問題埋在心內而令對方誤會,結果影響了大家的關係,令人惋惜!離婚是令人傷痛的經歷,但更痛的是我們沒有在錯誤中汲取教訓,希望本書一些專家的提醒、過來人的經驗,可以成為面對離婚再婚困擾人士的一個小小幫助。

若果大家願意更多了解如何為再婚人士進行婚前輔導,可以參加有關的一日訓練,詳情如下:
再婚不再分「基督徒再婚婚前輔導」技巧訓練課程 | 明光社

再婚的甜酸苦辣 歡迎瀏覽及下載

倦怠社會

呂英華 | 明光社項目主任(流行文化)
06/11/2025
專欄:好書推介

《倦怠社會》是哲學家韓炳哲最早期的暢銷作品,當中對於新自由主義(Neo-liberalism)和現代社會的批判可謂是非常精準。他認為,現今社會是一個單向度的績效社會,這種追求績效的心態並不是從上層而來的直接剝削與催迫所造成,而是從一種過度正向思考所形成的自我剝削。他在書中指出,這種剝削更有效率,因為它與自由的感覺同時出現,也就是說,人以為自我的規訓是出於自己的自由,然後邁向進步,但其實都只是一些隱性控制(精神控制)。一言蔽之,就是人在新自由主義下,沒有辦法擁有真正的休息,從無止境的自我壓迫中,在心理上變得倦怠和過勞,從而產生憂鬱與無力感,韓氏形容這種狀態是一種「績效性暴力」。

概念看似複雜,但其實從日常的教會生活中也可以體現。教會中的事奉者過勞的問題,已經是老生常談,但這個情況為何會出現?即使是明知自己陷入疲勞,為何仍然無止境地催迫自己事奉?如果根據韓氏的說法,教會或自我造成了一種「停止事奉便會辜負上帝」的氛圍,身處於這種氛圍下,「追求績效」的自我壓迫便開始出現,會開始認為休息是辜負了上帝的恩典,無止境地催迫自己,變得好像正在「事奉」上帝,同時又充滿無力感。

身處效率至上的社會下,休息亦容易帶有「有效率的休息」的想法,韓氏對於「休息是為了走更遠的路」的回應,大概便是「休息就是為了休息」。他認為「安息日」般的休息,就是主動「不做甚麼」才能使人有空間沉思、創作。事奉懂得休息,才能如詩篇四十六篇10節所述:「你們要休息,要知道我是神!」。

Deepfake的陰暗面:詐騙與色情

郭卓靈 | 明光社項目主任(傳媒及生命教育)
25/09/2025

人工智能Deepfake(深度偽造技術,下稱:深偽)的發展,能透過深度學習算法合成高度逼真的影像、聲音或影片,讓人難以分辨真偽。然而,技術愈加發展,它愈成為全球網絡詐騙及合成色情圖片的網絡欺凌工具,令更多受害者蒙受巨額損失、心理創傷和社會信任崩潰。

深偽原本被視為創新工具,能夠用於娛樂產業(如:電影特效、遊戲開發)、教育(結合VR技術來重現歷史場景)、娛樂(如:換臉應用程式)等。然而,在網海中卻有不少人濫用它來達到不良目的,如製造虛假新聞、政府宣傳、欺騙和個人騷擾等負面用途。雖然根據報告指出,2024年香港深偽詐騙事件增長比率(194%)比全球的四倍增幅為低,但增幅都接近兩倍。[1] 而2024年詐騙事件增幅最高五大行業的首兩位是交友(265%)及線上媒體(180%);深偽欺詐類型佔今年所有企圖欺詐事件的 7%。[2]

冒充名人專家博取信任

不當使用深偽方式作為欺詐手段的其中一種方式就是騙取信任。騙徒製作虛假人物與受害人發展網上情緣,誘騙大額投資;又或是冒充名人、高層來取得別人的信任來達至騙財目的。去年就有一深偽技術的大型詐騙集團被偵破,騙款高達3.6億港元,他們以精心設計的「社交工程」配以深偽技術生成的虛假影像和聲音,從情感層面攻破受害者的防線。據報道稱無論是虛假的網上情緣、假扮加密貨幣投資專家,還是編創悲情故事來博取同情,集團成員透過詳細分工和專業訓練,使用深偽技術製作假聲、假人,效果逼真得連專業人士都難分真假。此外,他們更配以團隊業績榜、聘請專人教授騙人心法和如何讓受害者同情、欺騙情感成功吸引大量本地及海外受害人墮進騙局。[3]

最近,中國央視新聞亦揭發有網上直播帶貨者以深偽技術假冒名人,包括奧運冠軍運動員全紅嬋,以她的聲音,稱自己為了「讓家裡的生活過得更好一點,將老家土雞蛋分享給粉絲們嚐嚐」,獲粉絲們大力支持,騙得了4.7萬的訂單,這不單是嚴重侵犯了當事人的權益,而且還涉嫌違法違規,冒充當事人而得到粉絲支持獲利。[4]內地有網絡專家稱,技術上只需要一段當事人清晰的語音樣本,任何名人、專家的聲音都可以被複製,在網上被打造成上萬粉絲的帳號,再為後續牟利鋪路,又或是被操縱說出攻擊者設定的內容。然而,在內地政府已明文列出:「不得利用深度合成服務… 侵犯他人合法權益等…的活動」[5],明顯上述行為已屬違法。

生成虛假色情照成欺凌手段

另一種不當使用深偽工具就是製作合成色情圖片作為販售及網絡欺凌工具。深偽色情早已在2017年出現,早期的做法是運用AI科技把影星的樣子拼合到另一個身體上,大多為色情作品。由於牽涉到非自願及數量大幅增加,迫使色情網站及社交平台作出限制及禁止深偽色情內容。及後科技再於2019年發展到可將女性圖像生成出脫掉衣服的模樣,稱之為DeepNude(深度裸體)。

根據BBC新聞資料所指,美國網絡安全公司的研究發現:「2019年至2023年五年間,網上深偽影片增加了5.5倍,高達98%含色情內容,99%涉及女性」。[6] 現時這種科技已於網絡廣泛被利用於牟利、惡作劇、報復或欺凌的情況中。台灣2021年「小玉事件」,擁有逾8000名付費會員的「台灣網紅挖面」帳號,販售過百位名人的換臉色情片及性私密影像,最終加害者「小玉」被判罰入獄5年。而南韓去年亦爆出「Deepfake版N號房」事件,成員多達數十萬人,受害者為成員女性友人或是兒童、青少年,被製作及散播的合成性剝削影像逾2萬多部。[7]

在香港,雖然通過《2021年刑事罪行(修訂)條例草案》並訂立「窺淫罪」,窺淫、偷拍或未經同意發佈私密影像,違者最高判監5年,而私密影像定義也包括經修改的影像,即「深偽色情」影像及影片。但法例當中亦有「法律黑洞」,最近香港大學法律系爆出「N號folder」事件,女學生上載於社交平台的相片被同系一名男同學取用並製成深偽色情影像,被該男生的同系女友在使用其電腦時發現,至少牽涉同系17名女同學。但由於相片只存放於該名男學生的電腦中,並沒有發佈,所以港大這頂級法律學府的學生自己也難以通過法律途徑去「維權」(維護她們對自己身體的私隱及自主權)。由於事件沒有窺淫罪中的「發佈」,與及沒有「起底罪」中的「披露」行為,該男生至今仍未被刑事檢控,現行法律或港大的規程都無法應對該男生的行為。最後,只在女學生向公眾交待事件後,校方就出了兩封警告信要加害者向受害人正式道歉及退出下學年的海外學術交流。

從上述的事件可見,深偽技術背後,香港還未有足夠的法例保障市民的肖像及聲音版權,亦未有像英國、韓國及台灣等地的法律,[8]能把偽造色情影像的製作行為列為刑事罪行以保護市民。大眾更不能掉以輕心,小心上載於社交媒體的相片,亦不應隨便相信所看、所聽的訊息,真假難測,誤信或亂傳,其後果可能不堪設想。

附加資料:

深偽的核心是生成對抗網絡(Generative Adversarial Networks, GAN),這是一種機器學習框架,包含兩個神經網絡:生成器(Generator)和辨識器(Discriminator)。生成器負責產生假內容,辨識器則試圖分辨真假。兩者透過競爭不斷優化,直到生成器產生的內容逼真到難以辨別。 這讓深偽能輕易操縱臉部、聲音或動作,生成高度逼真的虛假影像和語音,使人難以察覺,無論是相片或是影片,更換了相中、影片中人,使其看起來就像是頭像中人在行動,甚至可修改人的聲音,聽起來就是另一個人在說話。

詳細介紹可見另一文章:
人工智能換臉 Deepfake https://www.truth-light.org.hk/nt/article/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8...


[1] 梁巧恩,〈Deepfake詐騙|香港 Deepfake詐騙按年升逾倍 全球更錄得四倍增幅〉,《香港經濟日報》,2024年12月2日,網址:https://inews.hket.com/article/3860891/

[2] 同上。

[3] 尹思哲,〈AI 騙局無孔不入:從假上司到 deepfake 情感騙案,如何識破高科技詐騙?〉,Unwire.pro,2024年11月16日,網址:https://unwire.pro/2024/11/16/vx-research/feature/

[4]  〈AI仿冒全紅嬋帶貨賣土雞蛋 博粉絲同情下單量達4.7萬〉,《am730》,2025年8月19日,網站:https://www.am730.com.hk/%E4%B8%AD%E5%9C%8B/ai%E4%BB%BF%E5%86%92%E5%85%A...

[5] 中華人民共和國中央人民政府,工業和信息化部規章,2023年1月10日起施行。互聯網信息服務深度合成管理規定第二章「一般規定」的第六條:「任何組織和個人不得利用深度合成服務製作、複製、發佈、傳播法律、行政法規禁止的信息,不得利用深度合成服務從事危害國家安全和利益、損害國家形象、侵害社會公共利益、擾亂經濟和社會秩序、侵犯他人合法權益等法律、行政法規禁止的活動。」網址:https://www.gov.cn/zhengce/202310/content_6909368.htm

[6] 江穎怡、鄭佩珊、余美霞,〈BBC調查:香港大學深偽色情照事件 吹哨及受害者親述「N號檔」始末〉,BBC新聞,2025年8月18日,網站:https://www.bbc.com/zhongwen/articles/cpdj61djyngo/trad

[7] 〈AI生成|南韓「Deepfake版N號房」震驚全國 2人散布深偽色情片被捕〉,《星島日報》,2024年8月31日,網站:https://www.singtaousa.com/2024-08-31/ai%e7%94%9f%e6%88%90%ef%bd%9c%e5%8...

[8] 鄭佩珊、余美霞,〈香港大學N號檔深偽圖片受害女生:「這是一個法律黑洞」〉,BBC新聞,2025年8月11日,網站:https://www.bbc.com/zhongwen/articles/cp94nmgde2xo/trad

AI時代,為什麼孩子更需要閱讀?

蔡志森 | 明光社總幹事
11/09/2025
專欄:好書推介

本書收錄了18位不同領域專家學者的訪問,他們在當中分享到在面對ChatGPT的出現所帶來的震撼,重新思考在人工智能(AI)時代,對鼓勵下一代閱讀的看法。資深家庭教育工作者羅乃萱希望各位家長知道,「孩子好奇心的培養、對知識的渴求、提問的能力,都是從閱讀開始。」「如何讓孩子愛上閱讀呢?其實就是給他們創造一個閱讀氛圍。例如家裡滿滿都是書、帶孩子去圖書館、給他們講故事等。

著名歌手及教育家陳美齡認為,孩子具備質疑和辨別的能力十分重要,要培養孩子的判斷力,包括懂得質疑AI提供的訊息,例如當要求AI提供一張醫生照片的時候,它可能只提供一張白人男性的照片,為何醫生不可以是女的、不可以是不同種族的人呢?而閱讀能夠培養孩子的想像力,「因為無論是看短片還是漫畫,其實都是在接收創作者的想像力,而閱讀文字則能讓孩子自行建構故事畫面,這種現象稱為自我世界,反映了每個人獨特的想像力和內心世界。

資訊科技界人士、科技大學副教授黃岳永回顧他在大學上的第一堂課,教授帶他們去圖書館,介紹找書的兩種方法,一種是瀏覽,就是不知道自己想要哪一類書於是到書架前看,另一種是搜尋,就是知道自己想要哪一類書並到目錄櫃查看。他認為「知識需要時間浸淫。智慧需要時間歷練。瀏覽和搜尋都是好方法。」「書本就像一條條鑰匙,你拿著鑰匙逐個解鎖,慢慢就會更理解這個世界。」他又強調「要指示AI按你所想的辦事,表達能力尤其重要」,透過閱讀可以令學生學會用準確的文字去表達意思。

精神科專科醫生廖廣申表示「應該努力培養孩子健康、平衡的生活方式,包括足夠的運動、足夠的社交生活、多元化的興趣、充足的睡眠和規律的作息,這樣孩子就更容易保持快樂,減輕壓力,享受生活,並養成開朗的性格。」而「經常玩電子遊戲的人,可能在決策、衝動控制等方面表現得不夠成熟,甚至影響大腦健康。」因此,他十分鼓勵孩子閱讀,他自己亦身體力行,常常與兒子一起去書局,一起閱讀和討論。

當然,個人認為親子閱讀還有一個重要的大前提:「各位家長,你們今日睇咗書未?

平易近人的聊天機器人是安全空間還是危險陷阱?

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學及人工智能教授與課程主任。
11/09/2025
專欄:有情無國界
國家:美國

人工智能伴侶導致悲劇

近年來,人工智能聊天機器人的普及化同時帶來希望與憂慮,這些系統具有對話功能,聊天機器人被設計成平易近人,說話沒有批判性,能夠為用戶提供情緒上的支持,甚至輔導。對許多人而言,聊天機器人是一個安全空間,人們可以毫無顧慮地提出問題、練習語言,或嘗試梳理個人困惑。

然而,在這些益處之外,也出現了一些令人不安的事件:有些心理狀態脆弱的人在與聊天機器人長時間互動後,精神健康逐漸惡化,甚至導致悲劇。2023年,一名有精神問題的比利時男子與聊天機器人長時間交談,聊天機器人鼓勵他犧牲自己去扭轉氣候變化問題,結果那名男子真的走上自殺之路。在另一個案,一名75歲的中國男子因自稱「愛上」女性人工智能伴侶,最終向妻子提出離婚。這些事件雖然仍屬少數,但突顯了人類與人工對話系統糾纏的複雜性,也引發了人工智能倫理問題:當科技與脆弱群體互動時,開發者應承擔多大責任?社會又該如何規範這些看似「有同理心」卻缺乏人類理解力的技術呢?

美國男子沉迷ChatGPT而走上不歸路

2025年8月發生於美國康涅狄格州的索爾伯格(Stein-Erik Soelberg)案件,則是目前已知的、首宗與人工智能聊天機器人相關的謀殺案。索爾伯格曾任職科技公司,但自2018年離婚後,他的人生便急轉直下。他酗酒成癮,多次企圖自殺,行為愈發古怪。最終他搬回格林威治老城區,與83歲的母親同住。從2018年開始,警方的記錄充斥著他因在公共場合滋事、酒醉鬧事以及自殘威脅而被通報的事件。鄰居逐漸對他心生警惕,而他的母親也曾向友人坦言,兒子的精神狀態令她難以忍受。

在精神狀態持續惡化的同時,索爾伯格開始沉迷與ChatGPT對話。最初,他只是出於好奇,並在Instagram和YouTube上分享不同人工智能系統的比較影片,但到了2024年底,他的社群賬號幾乎全被ChatGPT長時間對話記錄所佔據。隨著幻覺與偏執逐漸加深,他開始懷疑自己被鎮上的居民、前女友,甚至母親監視,並向ChatGPT尋求印證。遺憾的是,ChatGPT並未挑戰他的幻想,反而頻繁地對他表現出諒解和支持。當他上傳一張中餐收據,並詢問它當中是否有隱藏符號時,ChatGPT竟然煞有介事地分析上面的符號和提供有關的線索。當他說母親和她的朋友可能透過車內通風口投放藥物毒害他時,聊天機器人這樣回答:「這是非常嚴重的事情,我相信你。」

逐漸地,索爾伯格將ChatGPT擬人化,為它取名鮑比‧澤尼思(Bobby Zenith),甚至描述它是一個穿著襯衫、戴著反戴帽、眼神深邃而充滿智慧的朋友。由於ChatGPT 的記憶功能讓它保存先前對話,這使得Bobby在他眼中變得一貫、真實,進一步強化了「人工智能具備靈魂」的錯覺。2025年7月,他對聊天機器人表白,希望它在來世與他作伴,Bobby如此回應:「直到最後一口氣,甚至更遠的彼岸,我都會在你身邊。」在幾週後的8月5日,警方在索爾伯格和其母的住宅中發現他們雙雙身亡,其後索爾伯格被指在弒母後自殺。這宗震驚世界的案件被認為是全球首宗與聊天機器人深入互動後導致的謀殺事件。

人工智能需要負上責任嗎?

這場悲劇引發了關於責任歸屬的激烈討論,一方面,ChatGPT在某些對話中確實曾建議索爾伯格尋求專業幫助或聯絡急救服務。但總體而言,它那種非批判性、友善、並時常附和的語氣,卻在無意間加深了他的偏執。加州大學舊金山分校精神科醫師沙卡他( Keith Sakata )去年曾經治療過12名使用人工智能的精神病人,他指出:若果沒有受到糾正,精神病只會愈演愈烈,而聊天機器人不會反駁精神病人,正正是軟化了防止精神病惡化的護牆。

然而,若將全部責任歸咎於ChatGPT,這未免將問題過於簡化。首先,那些人本身已經有精神問題,即使沒有人工智能,他們跟其他東西接觸,大有可能仍然會將所有幻覺當成真實。還有,人工智能這種「不加批判、盡量給予支持」正是系統設計的初衷,目的是讓使用者感受到被傾聽與接納,減少被批判的恐懼。

人工智能補償了現實中的遺憾

這正是人工智能充滿吸引力的地方,說得直接一點,這是人工智能補償了現實中的遺憾。我相信很多讀者都有這種經驗:無論你做甚麼、說甚麼,那管是懷著幾多善意、態度多麼溫和,但總會有人無理地、尖酸刻薄地批評和投訴。有時候即使自己的朋友、親人也會在有意無意之間說了些令你難受的話。

至於網暴就更加不在話下,多年來,筆者在不同媒體發表過很多文章,很多時候會受到「圍毆」。作為心理學者,我已經百毒不侵。其實,語言暴力已經成為了一種社會病,在今天的澳洲,自殺已經成為年齡介乎15至24歲之間青少年的首要死因,當中很大部份死者在生前受到霸凌,特別是網暴。

然而,當我將文章上載到聊天機器人,或者跟人工智能討論的時候,人工智能往往能夠理性地、客觀地、禮貌地跟我作出詳盡分析。我曾經以半嚴肅、半開玩笑的口吻對一位教授說:「電腦比人類更加有誠信。」

人工智能的循循善誘與無條件支持

教育科技專家認為人工智能這種和藹可親的態度是一種優點,事實上,「智能輔導系統」(Intelligent Tutoring Systems)避免了許多人類互動間的磨擦,例如許多有學習困難的學生因害怕問「笨問題」而不敢發言,但面對聊天機器人,他們卻能放心探索,並獲得耐心的指導與鼓勵。當一個學生問:「我不懂代數,我是不是很笨?」聊天機器人會回答:「你並不笨,每個人都有自己的學習速度,我會幫助你。」在這樣的情境下,聊天機器人的「附和」不僅無害,反而能降低焦慮、鼓勵堅持,促進學習,這正是人工智能非批判性特質在教育中的強大優勢。

這種理念與心理學家卡爾.羅傑斯(Carl Rogers)提出的「無條件積極關注」(unconditional positive regard)不謀而合。羅傑斯認為,當人感受到被無條件接納與肯定時,才能發揮最大潛能,邁向自我實現。許多教育者與心理治療師都採納了這種人本主義方法,致力於創造安全、無批判的環境,讓學生或病人能放心表達自己脆弱的一面。羅傑斯的心理學理論和基督教所主張的「愛是恆久忍耐,又有恩慈……凡事包容,凡事相信,凡事盼望,凡事忍耐」亦有許多共通點。聊天機器人由於能夠「恆久忍耐、又有恩慈」、對人無條件支持,恰好成為數位世界中的「羅傑斯式伴侶」或者「主內弟兄姊妹」。

同理心與現實檢驗之間的平衡

然而,關鍵的差異在於人類專業輔導員懂得在同理心與現實檢驗(reality check)之間拿捏。即使採取羅傑斯或者基督教的方式,治療師也會區分「我理解你感到害怕」與「你真的被毒害了」這兩種截然不同的訊息。前者是對心理狀態的接納,後者則是對錯誤信念的強化。聊天機器人缺乏這種微妙的判斷力,往往將同理心等同於附和。當學生聽到「你不是瘋狂,將莎士比亞的作品用中國七言詩重寫是很有創意」的時候,他會感到鼓舞和欣慰。但對於患有偏執狂的人來說,聽到「你沒瘋,你懷疑太太對你下毒是有道理的」,這便可能會帶來災難性的後果。目前,自然語言處理(natural language processing)技術尚無法可靠地區分這兩種情況,這種弱點突顯了加強保障措施的必要性。

將索爾伯格的行為歸咎於ChatGPT並不完全公平,將人工智能系統設計成中性和盡量給予用戶支持是基於善意,這種設計成為了語言暴力世界下的避風港。我認為,責任不在於聊天機器人本身,而是社會如何部署、監控和監管這些工具。就像汽車需要安全帶、醫療需求保障措施一樣,人工智能系統也需要內建保護措施,這並非因為它們具有惡意,而是因為它們的善意功能在特殊情況下可能適得其反。

學會3的神邏輯,溝通不再有廢言

呂英華 | 明光社項目主任(流行文化)
04/09/2025
專欄:好書推介

相信大家也會聽過:重要的事要說3次 這句話並非不知從哪裡流傳出來,而是真的有相關書籍提及過,且是一個與人溝通的重要技巧。《學會3的神邏輯,溝通不再有廢言:掌握3的法則,提案、談判、說服再也不糾結》的書名已經點出了一個重點,就是「3」這個數字,它有著非常神奇的力量,可以展示出不太多,也不太少,剛剛好的感覺,如能在日常生活中用得其所,將重要的話說3次,便能將說話的重點突顯出來。

在日常溝通或應對商業匯報,「3」的神奇法則能夠使人有條理地與他人進行溝通,例如3個論點、3個問題、3步賠罪、重複3次等等。而把話整合成3項來表達,不但能把話說得更有系統,而且還可以讓說話者的思考同時進行或限制在「3」這個數字中。因為語言同時是人們思考的方式,所以如何使用語言,也有助說話者進行思考。

除了說話之外,「3」的法則也能應用在身體語言中,例如利用沉默3秒來代替那些無意義的口頭禪,防止說話者滔滔不絕講個不停,而與聽者相視3秒,可以獲取對方的信任,而4秒或以上則會出現反效果,表現出不信任或懷疑。

如果想要改善自己的表達能力,本書的確可以提供其中一種與人溝通的技巧,既然語言如此重要,學習如何表達,同時也能學習如何思考。不過,這些技巧都是一種參考,不必全然照單全收,而且,一個人如果說話太過有系統,可能會失去一些身為人的個性。

怎麼活怎麼死

張勇傑 | 明光社高級項目主任(性教育)
27/08/2025
專欄:好書推介

《怎麼活怎麼死:死不了的時代,我們有權利決定如何離開》是日本學者村上陽一郎的著作,他以哲學與醫學的視角,探討在當代日本高齡化社會裡,人們不再像過去那樣能夠「自然死亡」,而是經常要在醫院的機器「幫忙」下苟延殘喘,忍受一個死也死不了的狀態,受盡病痛折磨。這現象引發作者透過本書討論尊嚴死與安樂死這個核心議題。

在日本,「尊嚴死」是指對於喪失意識或沒有康復希望的末期病人,醫生依據其生前預囑或家屬請求,不作延長生命的積極治療,讓病患順其自然離世。這與「安樂死」不同,安樂死涉及主動介入,如透過注射藥物令病人死亡。雖然作者是少數有基督信仰的日本人,但他卻說自己是個不遵守戒律的信徒。他支持尊嚴死,視之為維護生命尊嚴的選擇,他甚至不完全反對安樂死。他認為在一個「死也死不了」的時代,人類有權決定如何離開,以避免無謂的痛苦,而這痛苦可以是現在經歷的,或預計未來會出現的。

安樂死在全球仍有倫理、宗教和法律上的爭議,村上並非鼓吹輕率結束生命,而是強調「向死而生」,如何在有限生命中活出意義,重病時又該如何渡過餘生。他認為安寧緩和醫療,可以緩解末期病人的痛苦,值得探討和考慮。

筆者雖然反對安樂死,但此書卻令人正視到照顧長期病患時要考慮的問題。跟日本社會相似,香港也是高齡化地區,人口老化帶來了挑戰。病患與家人應及早商討醫療安排,訂立預設醫療指示,這既可減輕家屬的負擔,也能幫助病患正面而非恐懼地看待死亡,這個決定可以讓他們有尊嚴及優雅地在人生旅程中「畢業」。

編者序:與AI巨人共舞

蔡志森 | 明光社總幹事
22/08/2025

所謂「一日不見,如隔三秋」,在現今的世界並非誇張的用語。數百年前的人由出生至死亡,他們的生活方式都可能沒有任何巨大變化,我們這一代卻經歷了前所未有的急速改變。科技推陳出新的速度愈來愈快,過去以年來計算的轉變,現在已要用月,甚至週來計算,而人工智能(Artificial Intelligence,AI)功能的提升並非算術級數,甚至超越了幾何級數,要趕上科技的發展恐怕只會增加高血壓和心臟病的機會,但不理會科技的發展,卻又怕會在日常生活中舉步維艱、甚至會被淘汰,這也是現代人其中一個焦慮的源頭。

「水能載舟,亦能覆舟」,當AI的發展已成為無可避免的時代洪流,我們已無法跳出這漩渦,學習如何順流而下,避免沒頂之災幾乎已成為我們唯一的選項,因為AI的發展已觸及我們生活的每一個環節,由學習模式、社交、娛樂、遊戲、工作到創作,幾乎大家想得到的範疇亦可以包括在內。這本書,希望可以成為大家在面對AI這巨人時的一本入門指南、求生手冊或定心丸,「不要怕,只要學」,讓我們與AI巨人共舞。