關注生命倫理 正視社會歪風

AI時代的親子學習:與孩子一起成長

郭卓靈   |   明光社項目主任(傳媒及生命教育)
26/02/2026

「你要守護你的心,超過保衛一切,因為生命的泉源由心而出。」(箴言4:23《環球聖經譯本》)

在科技急速變遷的今天,人工智能(AI)已悄然走進孩子的生活與學習。從生成圖片、撰寫文章,到輔助溫習、製作遊戲,AI帶來前所未有的便利,卻也伴隨隱憂。為了與家長一起探討相關議題,明光社與香港聖公會諸聖座堂合辦了一個名為「AI時代的親子學習」講座,邀請了明光社董事暨中華基督教會基灣小學(愛蝶灣)校長黃靜雯博士與筆者一起,從倫理與教育角度,幫助家長看清AI的雙面性:既是強大的工具,亦可能成為隱藏的危機。

當我們知道AI快捷便利,孩子作為網絡「原住民」,也必然知道和想試用。當他們嚐到用來做功課的「甜頭」,以簡單指令就可生成「產品」的情況下,他們的成長根基就可能慢慢被削弱。所以講座第一部分,筆者先與家長們一起正視AI背後的「隱憂」:

1. 過度依賴,錯過腦部發展的黃金

孩子正處於大腦快速發展的階段,透過搜集資料、整理思路、撰寫文章及與人商量溝通等過程,反覆鍛鍊批判思考、分析與表達能力。然而,當AI輕易代勞幫忙找資料、寫作文、整理心智圖,孩子便缺少了親手做、用腦分析等練習機會。麻省理工學院於去年的一項研究顯示,長期依賴大型語言模型(LLM)寫作的大學生,其腦部神經連結變得薄弱,甚至認不出自己曾「交託」給AI的作品,等同「沒學過」。我們可以想像,若小學至中學階段已習慣依賴AI,孩子將來面對沒有AI輔助的考試或真實工作,很可能感到力不從心。另外一個今年由團結香港基金發表的調查顯示,有超過23%香港受訪學生坦言「若沒有AI工具協助就難以完成功課」,這已不只是便利,而是因過度依賴而失去了應要建立的能力了。

2. 動搖堅毅與匠人精神,影響孩子未來擇業方向

AI正快速取代部分職業,例如文書、翻譯、客服甚至作曲與設計。筆者展示用AI工具作詞到完成作品的不同演釋版本,與會者既驚嘆亦感不安。若創作變得如此輕易,孩子還願意花時間練習、反覆修改、追求更好嗎?當「快」成為唯一標準,孩子可能失去嘗試、失敗、改進,並於學習中接納和認識自己的寶貴經歷,從而喪失堅毅、專注與精益求精的匠人精神。

世界經濟論壇2025年指出未來五年最需要的人材首要「核心技能」給我們提醒:分析能力、韌性與靈活性、領導能力與社會影響力、創意、主動與自省能力、同理心與主動聆聽、好奇心與終身學習等技能……這些恰恰是AI無法取代,卻可能因過度依賴AI而被削弱的素質。

3. 難辨真假,潛藏罪行與情感危

AI以大數據生成的相片、影片已逼真到肉眼難辨,也帶來了私隱被濫用、欺凌、假新聞與詐騙等風險。更令人痛心是情感層面:AI聊天機械人擅長遷就、安慰,給予孩子「永遠不頂撞」的陪伴,容易形成情感依賴。當孩子習慣向AI傾訴,而非與父母、朋友建立真實關係,人與人之間的連結將被無形削弱。

另一方面,AI都有其好處,如能好好運用,也能於學習過程中幫助到學生。黃靜雯博士以她多年校長經驗與資訊科技教育背景,於講座第二部分向與會者分享AI如何成為「個人專屬教練」,實現因材施教,提升孩子學習興趣與效能。她以信仰視角開題,箴言第三章13節說:「得智慧、得聰明的、這人便為有福。」(和合本)我們當「得智慧」去認識並善用新科技,如刀用於煮食而非傷人;「得聰明」令AI真正成為啟發孩子,建造生命的助力,就如學習駕駛汽車,需要成熟後方許可一樣。

一、AI改變學習樣貌

首先,黃博士指出AI在教育領域的現況已非科幻,改變了學習的樣式,把「齊步走」的學習方式改為個人化學習。因為每孩子有「不會累的老師」診斷弱點,推送適合內容,避免挫敗與無聊。

二、AI具體幫助學方式

黃博士繼續以平台如Khan Academy(可汗學院)與台灣均一教育平台為例,指出個人化學習與導航,平台會根據孩子答題的正確率、耗時與錯誤類型,精準分析弱點,然後推送最適合的題目、影片或不同講解方式,避免孩子重複做掌握了的內容,或因太難而受挫敗。她亦指出遊戲化學習能提升興趣,可使枯燥練習轉為互動遊戲,即場和與會者一起玩她以AI工具創作出來的遊戲,啟發大家如何讓溫習變成即時競賽,讓大家能感受在學習與挑戰中維持專注。

對於AI繪圖、音樂工具方面,她認為降低了技術門檻,能讓孩子無需高超技巧就能釋放創意,表達想法,專注於「我想創造甚麼」,而非「我懂不懂軟件」。

三、給家長與老師的具體建

黃博士建議家長為孩子在時間、使用目的及關係上設定健康的使用界限:

I. 時間管理要有明確規則,如:在完成功課與課外活動後才使用;睡前、全家吃飯時不碰電子產品,家長亦應為孩子創造「無科技」時光,自己也應以身作則。
II. 在目的上由「消費」轉向「創造」,鼓勵孩子用AI製作家族故事卡、學習新單字,而非純粹娛樂。與孩子共同探索,一起試用AI工具,既了解孩子在做甚麼,亦建立親子互動。

III. 關係優先,將AI活動「家庭化」,科技體驗轉化為寶貴的親子對話時間;不能讓AI取代父母的陪伴、傾聽與價值觀的傳遞。

家長不能迴避AI時代,卻可以選擇如何回應。筆者認為保守孩子的心十分重要,與他們一起應用、觀察及預防過度依賴,並正視職業衝擊與真假難辨的隱憂。善用AI的個人化與遊戲化優勢,幫助孩子學習得更有效、更有趣味。

最後,也請家長謹記——科技再容易使用,也不能忽視背後的基礎與倫理;科技再先進,也取代不了人和人的關係;家長須多陪伴、傾聽孩子並以身作則,這是孩子最珍貴的安全網與生命指引。願我們以智慧善用AI,在這世代中與科技的發展一起前行,亦持守永恆的價值,培養出有根有基的新一代。

曾經刊載於: 

相關文章

誰敲響了末日鐘?

吳慧華 | 生命及倫理研究中心高級研究員
12/02/2026

2026年1月27日,在卡內基國際和平基金會(Carnegie Endowment for International Peace)的會議廳內,美國《原子科學家公報》將「末日鐘」(Doomsday Clock)撥快4秒,這意味著距離象徵世界末日的午夜僅剩85秒。甚麼是末日鐘?1947年,參與「曼哈頓計畫」(研發原子彈項目)的科學家們創立了末日鐘,其圖案後來成為美國《原子科學家公報》的封面標識。當時美蘇冷戰剛剛拉開序幕,人類正投身於核武研發的軍備競賽,科學家因而以「時鐘」來象徵人類距離自我毀滅(午夜0時)還有多近。末日鐘最初設定的時間是晚上11時53分,距離午夜尚有7分鐘。

末日鐘的指針並非只會向前撥動。1991年冷戰結束,時任美國總統布殊 (George H. W. Bush)與蘇聯簽署《削減戰略武器條約》後,末日鐘曾被回撥至距離午夜17分鐘的位置,這也是其設立以來與世界末日最遙遠的時間。核武器具備極強的毀滅性,因此當核武危機解除時,末日鐘便能回撥至更安全的時間點。

遺憾的是,2026年核武風險繼續升溫。美、中、俄等擁核大國在地緣政治的衝突不斷加劇,各類軍事演習、軍備現代化升級與核武部署行動,無不讓人擔憂,原子科學家不得不把末日鐘撥快。

末日鐘的設計初衷,本是針對威脅全人類生命的核武。不過,到了今天,儘管推動末日鐘分針奔向午夜的關鍵因素,還是取決於手握核武的大國首領身上,但隨著威脅人類的生存風險愈來愈多,每一個住在地球村的人,都不能完全撇除與末日鐘時間變化的關係。

自2007年起,氣候變遷、AI 等破壞性科技、生物威脅與虛假訊息傳播等問題,先後被科學家納入調整末日鐘的考量範疇,即使我們並非科學家,也不懂AI,但我們的生活及消費模式,以及如何處理虛假訊息的態度等,事實上都影響末日鐘的剩餘時間。這情況,就如舊約耶利米先知傳遞神審判的訊息時,先責備君王,然後是領袖官長,最終延伸至平民百姓。一國之君犯罪固然受到神的責罰,而國民也不能不負責任地說:「這是首領的錯,他帶壞了我,與我無關。」

是誰敲響了末日鐘?誠然,是那些到處掠奪世界的霸主最先敲響末日鐘,推動末日鐘時間逼近午夜。但作為普通市民,如果一味貪圖個人享樂,肆無忌憚地浪費地球資源,又何嘗不是在加速末日鐘的倒數時間?


參考資料:

〈「末日鐘」撥快4秒 距世界末日僅85秒 大國侵略升溫、核戰風險、AI威脅等所致〉,《明報》,2026年1月28日。https://news.mingpao.com/ins/%E5%9C%8B%E9%9A%9B/article/20260128/s00005/...

〈末日鐘極速撥快 4 秒!四大原因引致人類滅亡只剩 85 秒〉,《DCFever》,2026年2月1日。https://www.dcfever.com/news/readnews.php?id=40767

〈這是人類最接近毀滅的時刻,「末日鐘」又撥快4秒!科學家警告:核武、AI與強權競逐,讓世界末日更逼近〉,《風傳媒》,2026年1月28日。https://today.line.me/tw/v3/article/60qpmjn

面對AI的挑戰

郭卓靈 | 明光社項目主任(傳媒及生命教育)
05/02/2026

調查:Z世代自評競爭力偏低 逾六成擔心AI衝擊 飯碗不保

  (am730. 2-2-2026)

YMCA青年議會「香港青年生涯競爭力與未來挑戰」調查報告指出,有接近1200位Z世代青年受訪者中,超過四成受訪者表示因AI發展而改變學科或職業選擇,主要原因是害怕原本選擇的職業被AI取代;有近三成受訪青年表示完全不懂AI科技或不會使用,表示熟悉的僅約一成。另外亦有超過六成受訪青年擔心AI科技發展會影響其未來生涯競爭力,這反映Z世代普遍對AI帶來的職業變革感到焦慮與威脅。

但在能力重要性評估上,青年就認為溝通能力(4.37分)和思考能力(4.32分)最為重要;其次為情緒控制、抗逆能力、學習能力(均約4.26–4.27分),而科技知識相對就最不重視(3.98分)。

在面對AI取代職業高度擔憂,導致部分人主動調整人生規劃,他們亦同時在專業、科技知識、抗逆力及情緒管理上自評與實際表現均偏低。所以調查機構就建議要在青年在學習的階段中就要加強「3Q培訓」,即涵蓋情感(EQ)、逆境(AQ)及道德(MQ)。

在AI發展愈來愈快,愈多機構及商業應用的時候,職場的變化相信會愈趨向不穩定,無論是基本服務或是專業工作都有可能會被取代,青年要建立對未來的信心,需積極加強AI素養,以免容易陷入「技術斷層」;另外,社會亦需要給予支援的資源、學習及工作調整的機會及各種情緒保留的空間,讓青年有機會培養「韌性」(Resilience),即在面對壓力及逆境時,吸收衝擊、快速適應、恢復,變得更強的動態能力。

從《新聞女王2》說起:事實查核的艱難與重要性

郭卓靈 | 明光社項目主任(傳媒及生命教育)
09/01/2026

前陣子播畢大結局的電視劇《新聞女王2》,再次掀起劇迷的追劇熱潮。若不與多年前電視作為主要娛樂的黃金時期相比,僅比對2025年播出的劇集收視,此劇便已名列前茅、表現亮麗。此劇之所以能吸引筆者的原因,在於續集不再局限於電視新聞部內鬥,而是進一步聚焦於新舊媒體之間,在「專業精神」、「獨家報道」與「流量爭奪」所展開的激烈對抗,讓劇情更具時代感。劇中情節改編自多宗真實發生的社會事件,亦借資深新聞工作者文慧心(Man姐,佘詩曼飾)之口,道出了當前傳統電視新聞與網媒所面對的掙扎及問題。

劇集觸及的議題十分廣泛,包括:為追逐點擊率及廣告收益而精算新聞內容、探討編採自主是否只是神話、報道如何受媒體立場及視角限制而偏離事實全貌、新聞機構為收視率而刻意呈現煽情及血腥內容,也有觸及自媒體的內容及報道質素參差、AI新聞主播肖像與聲音的版權爭議、記者性命與新聞價值的取捨,以及事實真相如何在演算法下被雜訊淹沒等。由於篇幅所限,本文將聚焦於劇集與「事實查核」相關的範疇進行探討。

新聞行業本身是沒有「事實查核」這個專屬職位,但查核工作卻是新聞運作的核心。新聞工作者,無論是記者或編輯,為了確保發的資訊準確無誤,在內容發表前進行查核,是必不可少重要工序,對他們而言,重視真確性等於捍衛專業。正因如此,社會普遍認同專業新聞機構所發放的訊息具備公信力,可以作為大眾行動及抉擇的依據。「依靠收集事實信息,我們建立起對某些議題更深入複雜的認知和信任,並作出理性的選擇。」[1](曾姿穎等,2024,第104頁)

在劇中,KOL唐芷瑤(陳曉華飾)視Man姐為眼中釘,經常在自媒體網台上直播即時未經查證、甚至是偽造或具誤導成份的短片與資訊,藉此造謠生事。喜歡「吃花生」的網民及Man姐的黑粉(haters)隨即群起響應,不斷湧入Man姐所屬機構「公開平台」(OP)留言攻擊、致電網台辱罵並瘋傳流言。這不單導致OP支持者大幅減少,更加劇公眾對當事人的誤解。此外,劇集結尾亦揭示了另一種資訊操弄,OP記者難以在網上找出富庾基金負責人胡志城(袁富華飾)的真實背景,原因在於相關負面資訊早已被網軍有組織地大量發放正面、清白的資訊所淹沒。

劇集內容雖屬虛構,但所描述的網絡亂象卻真實存在。自媒體為求生存及點擊率,可能發放譁眾取寵、失實內容。作為網民,我們應如何有效進行事實查核(fact check)呢?

網絡上的虛假信息常具備新聞價值要素,如時效性與顯著性(例如與名人有關),並常用客觀語氣,輔以似是而非的數字、相片等「證據」,令人誤以為「有圖有真相」。然而,「有圖有真相」早已不能作為判斷網上訊息真偽的準則。不少為賺取點擊率的「內容農場」會借「權威」包裝內容,即以部真實內容混入虛假資料誤導讀者;或使用「偷換概念」手法,引述的證據實際上與結論無關,但一般讀者在面對艱深專業名詞或數字時,往往難以察覺其中破綻。

作為讀者,首先應培養好奇心、不盡信、不盲撐的心態,對所見內容抱持求真的精神,並訓練批判思維,建立「冷靜確認查證」的心理機制。面對情緒強烈、立場偏頗的標題,先停下來思考:「這則資訊是誰發佈的?目的為何?是否有第三方證據支持?」

其次,可利用事實查核工具自行驗證

  • 圖片及影片查證:使用Google逆向圖片搜尋或TinEye上傳可疑相片追蹤原始來源。若原始網頁或貼文已被刪除,可透過「網站時光機」(Wayback Machine)找回歷史存檔。
  • AI深偽辨識:細看畫面角度是否合理、脈絡是否一致,或使用偵測工具如Hive Moderation上傳相片、聲檔或影片進行查證。

若資訊過於專業或複雜,可求助於專業的事實查核機構。這些機構與傳統新聞媒體不同,更注重資料來源與查核人員的透明度,會公開查核流程供讀者二次驗證,並對內容作出明確判定,且不得與任何政治團體、人物或候選人有關聯,以確保獨立性及公信力。[2]

香港仍運作的事實查核機構:[3]

機構名稱

隸屬關係

成立日期

判定分類

1)求驗傳媒[4]

未知 (民間組織)

2014年9月8日

文字描述

2)AFP Fact Check 法新社香港分部

法國新聞社

2018年9月14日

真實、錯誤、諷刺、誤導、信息缺失、經過修改的圖片和影片

3)Annie Lab香港大學新聞及傳媒研究中心事實查核室

香港大學新聞及傳媒中心

2019年10月9日

False, Misleading, No Evidence, Verified, Just in case ,Investigation, Analysis, Explainer,

4) Factcheck Lab 事實查核實驗室

媒體素養研究中心有限公司

2020年6月2日

正確、部份錯誤、錯誤、誤導內容、沒有證據

5)HKBU Fact Check浸大事實查核中心

香港浸會大學傳理學院

2020年7月30日

真實、部份錯誤、錯誤、誤導內容、證據不足

資料來源︰香港浸會大學傳理學院《解構事實查核》

轉發即表態 分享即責任

看畢新聞女王2》,深感要成為優秀的新聞工作者實在不易,需具備智慧與傲骨方能生存。作為網民,亦應培養資訊素養(information literacy),在點擊分享前先查證因為轉發代表你認同該訊息,而傳播錯誤的資訊,可能會對個人、團體乃至社會,造成財產損失、心靈受創甚至身體安全的損害。


[1]曾姿穎、周琳、黃煜(主編)︰《解構事實查核》,(香港商務印書館(香港)有限公司,2024)

[2] 同上。

[3] 同上。

[4] 香港唯一仍運作的民間事實查核機構。

國寶 — 受血脈與才華拉扯的藝術家人生

郭卓靈 | 明光社項目主任(傳媒及生命教育)
09/01/2026

出身黑道世家的少年立花喜久雄(吉澤亮飾),父親遇害後被歌舞伎名門花井半二郎(渡邊謙飾)收為門徒,與花井家少爺俊介(橫濱流星飾)一同成長為女形演員。喜久雄與俊介情同手足,但後來卻出現才華與血統的競爭。年老的喜久雄最後在舞台上演出華麗悲劇《鷺娘》,終於體會到藝術所追求的美

日本電影《國寶》由李相日第三度改編吉田修一同名小說,以近三小時,建構出一個悲愴而華麗的歌舞伎藝者的生命故事,同時也在質疑十分重視「血脈」(世襲)傳承的藝術體制。

明光社

電影一開始就說明作為黑幫兒子的喜久雄,未必有亡父的膽量或豪邁氣息去承繼黑道事業。反而,他的女形演藝才華被花井半二郎看上,以致不用流離失所,得以在花井家與少爺俊介一起被栽培成才,兩人初登舞台合演《雙人道成寺》便坐無虛席。

但花井家兩少年的命運,卻因為「血脈」問題而折磨了他們大半生。在日本歌舞伎藝術界,成功與青睞往往仰賴「血脈」傳承;無血統者,多努力都只會被人忽略。喜久雄臨危受命並成功演出《曾根崎心中》,獲師父傳位,也導致俊介傷心離家。惟歌舞伎界對演員的品德要求極高,喜久雄因傳出緋聞令地位不保,事業因此沒落。

明光社

血脈既是護佑,也是詛咒。俊介失蹤多年後回來,憑藉血統迅速歸位,並襲承家族的聲望,亦獲得獎項肯定。然而,他也遺傳了家族的糖尿病,最終不幸截肢。但這個病卻又令兩兄弟放下心結,在生命的最後階段於藝術中互諒互讓,喜久雄甘願飾演男角支持俊介演出《曾根崎心中》,以此來彌補俊介過去的遺憾。

喜久雄曾承認,一直很想擁有俊介的「血統」,為了成功,他不惜「與魔鬼交易」,願意犧牲一切,包括不認自己的私生女、與自己不愛的女人一起。喜久雄追求的完美與聲譽最終如願以償,他是否感到幸福?電影沒說。不過,在最後舞至氣絶之際,他終於看到那讓他心動一生的「景色」。

蛤蟆先生去看心理師

郭卓靈 | 明光社項目主任(傳媒及生命教育)
08/01/2026
專欄:好書推介

你有沒有想過,一本童話故事能協助你了解及治癒內心創傷?《蛤蟆先生去看心理師》是一本心理學的經典作品,它取材自英國童話《柳林中的風聲》,作者羅伯.狄保德(Robert de Board)是一位臨床心理學專家,他將童話結合了心理學的知識,透過可愛的動物角色,巧妙地融入心理諮詢的過程,讓讀者在娛樂中獲得深刻的啟發。

書中主角是內心脆弱的蛤蟆先生,他因憂鬱和衝動行為陷入困境。他的三位好友——河鼠、鼴鼠和老獾——擔心他會做出傻事,便鼓勵他求問心理諮詢師蒼鷺。蛤蟆先生從來沒接觸過輔導,但透過十節與蒼鷺對話和互動的輔導環節,蛤蟆先生逐漸了解童年成長經歷對自己的影響,認知自己的情緒及如何保護自己等認知,學習如何處理內心衝突。讀者亦在閱讀的過程中與蛤蟆先生一起反思及成長。

書中展示了人們常見的「父母—成人—兒童」自我狀態:當蛤蟆先生感到恐懼或面對同儕壓力時,「兒童自我狀態」會出現,如道歉或愧疚的反應;他也常陷入「父母自我狀態」,將父親嚴厲、批判的聲音內化為自我懲罰,導致長期自責與低自尊。透過輔導,蛤蟆先生學會區分「當下的自己」與「過去的經驗」,擺脫童年陰影,逐步建立「成人自我狀態」——理性、客觀地連結現實,運用知識獨立思考並做出合理決定,實現自我成長與獨立。

最令筆者感動的是,蛤蟆先生與朋友的互動變化:在輔導前,他懼怕分享、總是退縮,總是感到鬱鬱不歡;但在輔導後,他能鼓起勇氣分享看法,並於生活上有力量作出巨大轉變。這書簡單易讀,父母如果想教好孩子情緒管理也可一讀此書,既可了解自己,也可知道如何幫助孩子建立情緒管理的能力。

A0人設與人設崩塌

郭卓靈 | 明光社項目主任(傳媒及生命教育)
02/01/2026

不同的藝人在幕前會被塑造成不同的「公眾人設」(public persona),這像在幕前面對公眾時戴著面具去演出、回應事件,而工作亦往往與這個人設相關。坊間的男、女神很多時會以完美體態,配上「清純」、「善良」、「專一」、又或是「性感」、「反叛」、「才華」等不同形象。

由於「人設」是可供人們幻想與消費,偶像的演出、歌曲作品很多時都要與人設相符,經理人或電視台可能會為男、女神安放一個「A0牌坊」,即Available(現在沒拍拖,可供追求)及拍拖經驗為「零」,代表極為「純潔」的人設。

近日有位以A0少女、純潔無瑕為「人設」的女星,錯誤地把自己與另一男星的親臉照上載於社交平台。她雖很快便把它移除,但仍被人擷取畫面並廣傳,結果上了娛樂新聞。當事人向媒體表示,相片是因為在派對上玩遊戲輸了才被拍下的,只是一場誤會。後來,一些網絡及社交平台再流出一些此女星在中學時期與男友的親密照,據報道稱是她的中學同學發放出來的,目的是想揭穿這位女藝人的「A0」神話,讓其人設崩塌。

筆者不認識這位女星,真相只有當事人、她的家人及舊同學才知道。然而,站在觀眾的角度,藝人的真實生活與公眾人設不一致,這完全可以理解,因為沒有人是完美的。娛樂圈的本質是提供娛樂,與其關注藝人過去的歷史與私生活,不如實際地欣賞他們的歌唱才華與演技,其他則不必有太多的幻想或強求,亦無需深究。

這次事件提醒我們:對社交平台的使用,請務必小心謹慎。首先不要把親密照上載並公開,讓任何人都能瀏覽下載。試想,今天被人截圖,雖然看似暫時沒事,但不代表多年後當你的身份改變時,相片若被翻出來,到時不會影響你。最後,在AI世代,我們也實在難以分辨公開的照片是否被偽造或生成出來。

網絡世界實在複雜,要自保,最終亦是最簡單的方法就是:不拍、不上載。對於習慣在網上分享的網民,大家能做到嗎?

被愛的狼與不被愛的AI廣告

吳慧華 | 生命及倫理研究中心高級研究員
24/12/2025

何謂一個好的廣告?根據Google AI:「一個『好的廣告』不再只是精美的視覺呈現,更需具備精準度、連結感與實質轉換能力……在對的時間,以受眾懂的語言,將有價值的訊息傳遞給對的人,並成功引發後續行動」。的確,在資訊爆炸的時代,很多有價值的節目都容易被輕易忽略,更遑論廣告。除非廣告非常有創意、非常獨特,並且能夠引發共鳴,才足以吸引目光,讓人願意駐足欣賞,而非急於轉台或「飛走」。

每逢聖誕節,總會出現大量與聖誕節相關的廣告。2025年,荷蘭麥當勞利用AI製作了一個聖誕廣告,主題為聖誕節是「一年最糟糕的時刻」。不知道對荷蘭人來說,聖誕節是否最糟糕的時刻,但對荷蘭的麥當勞來說,今年的聖誕節無疑是「最糟糕的時刻」。皆因廣告播出後,劣評如潮。有報導指出,網民批評其「畫面生硬、缺乏靈魂」。

事實上,即使製作團隊付出百倍努力,給予AI更細緻的指令,竭力提升廣告內容,增添其人情味。那些討厭AI廣告的觀眾,還是會不「收貨」。可口可樂去年的聖誕節廣告同樣收到如潮的劣評,已反映出人們對AI製作的真實態度。很多網民認為「數位時代太過盛行,卻缺乏人性溫度」,更有不少網民直指企業出於貪婪,想要賺更多的利潤,省掉人力支出,而不想聘請演員、導師、美術師等專業人才。有網民直言:「我討厭人工智慧。為什麼人類如此執著於讓自己變得過時?」顯然,在批評AI「畫面生硬、缺乏靈魂」的背後,是對於人類受到AI威脅,不久的將來大有可能被AI淘汰的覺醒。因此,即使那些某程度欣賞AI作品的網民,也表示:「我們並不需要人工智能來取代人類,因為我們自己就能做得更好。」

人類確實可以做得更好。與AI廣告相比,一隻由法國動畫師創作的「狼」,獲得網民爭相追捧。這隻孤獨的狼,原本是森林中小動物避之唯恐不及的對象,卻在他努力改變自己,成功成為素食者後,贏得小動物的信任及歡迎。這個聖誕小故事沒有耶穌,也沒有聖誕老人,卻充滿了愛及溫情。動畫固然是用心製作,故事情節滿滿,但真正打動網民,使人由衷感謝製作者的,或許正如一位網民所言:「它證明了在現今人工智能盛行的世界,藝術和對工藝的熱情仍然佔有一席之地」。

可以說,在AI當道的世代,人類與AI的戰爭無法避免,如果人類不努力爭取,默言無聲,只是一味讚嘆AI的能力,那麼,縱然才華再高的創作者,也難以生存,或僅能以足以糊口的價錢賤賣自己的心血。

何謂一個好的廣告?它應當能夠引發觀眾共鳴,讓觀眾感受到自身的價值觀被看見與尊重,而非反過來,廣告商只顧及自己的盈利,單方面把自己的價值觀灌輸給觀眾。


參考資料:

TVBS新聞網:〈荷蘭麥當勞AI生成聖誕廣告捱轟下架 法國廣告因用這製作法獲大讚〉,《香港01》。2025年12月17日。

Congenai, “McDonald's has released an AI-generated Christmas ad,” YouTube, December 9, 2025. 

Today, “Coca-Cola's AI-generated TV holiday ad falls flat with consumers,” YouTube, 18 November, 2024.

Romance Agency, “Intermarché - Unloved,” YouTube, December 8, 2025. 

 

透明社會

呂英華 | 明光社項目主任(流行文化)
18/12/2025
專欄:好書推介

繼早前推介過《倦怠社會》後,這次繼續推介哲學家韓炳哲的另一著作《透明社會》,這本書能精準描述今天我們面對的網絡世界以及社交媒體之中,到底發生了甚麼事情。

如書本的名字所述,今天我們處於一個「透明社會」,這種「透明」不是說政府運用資源或選舉是否公開透明,而是我們都活在一個所有人都自願地暴露自己的社會。我們從不同的社交媒體都可以看見,有人暴露自己的樣貌、身體、生活大小事、喜怒哀樂。而Meta旗下的社交媒體Threads近來發展得非常火速,因為它的演算法是基於「興趣」而不是「社交關係」,因此不同於其他社交媒體,即使是一個無名小卒都能忽然讓一則貼文流量火速上升,嘗到這種滋味固然促使「表演慾」蠢蠢欲動了,可見大寶冰室肉餅飯潮文就是一個典型例子。

在與自己沒有切身關係的事上,我們都能看見別人的私隱隨時被他人強制性暴露,例如近日網絡KOL霍哥與雪兒之間的事,只需一人將他們的相片放上網站,便可以將他們的私事暴露無遺。從網絡公審的事件可見,人們似乎無法接受一些「不透明」的事,亦即是自己不理解的事。只要看見一些自己無法理解的事的時候,便會自動套進自己的想法,亦視之為真理。

韓炳哲指,「後私隱」以追求「透明」為由要求人們放棄自己的私人空間。而諷刺的是,一個人好像對外清晰透明,但實際上人們對自己來說都並不透明(即不認識自己)。人一旦過於透明,「他者性」便隨之消失。有時候承認自己不了解,承認有些事情不在自己的理解範圍內,反而是一種難能可貴的氣量。

做自己的情緒管理師:20個負面情緒管理法

郭卓靈 | 明光社項目主任 (傳媒及生命教育)
27/11/2025
專欄:好書推介

在2025年的今天,香港人面對的壓力似乎從未減輕。在不同社會、生活處境中,層層疊加的挑戰,負面情緒如未能自我覺察及疏導,可能會引致焦慮或抑鬱。在網上有不少年輕人亦會於社交平台分享自己「崩潰邊緣」的日常:失眠、易怒、自我懷疑。如曾被這些「情緒怪物」困擾或關心自己情緒的朋友,香港心理學會輔導心理學部今年再版,並曾獲2021香港出版雙年獎心理勵志類「出版獎」的好書: 《做自己的情緒管理師:20個負面情緒管理法》(增訂版)。讀者不單可以使用這本書作為「自療手冊」,用以覺察、分辨、自測、調整,亦可用作「抗逆『情』書」,幫助大家了解各種「逆」情(負面及消極的情緒和感受),多了解自己的情緒,主動成為自己的 「情緒管理師」,可以在適當的時候「放負」,排解負面情緒。

輔導心理學部成立於2006年,著重預防主導(Preventive Work)、身心和諧模式(Wellness Model)。而此書為他們出版的頭炮,由多名專業心理學家聯手撰寫,將20種常見負面情緒分為四個「情緒家族」,提供實戰指南:焦慮家族(焦慮、恐懼、強迫、羞怯、緊張、沒有安全感)、抑鬱家族(抑鬱、沮喪、悲傷、孤寂感、麻木)、憤怒家族(憤怒、憎恨、矛盾、內疚),以及困惑家族(沒有希望感、失望、無助、悶/無聊、空虛)。每種情緒都配有「自測表」,讓讀者快速篩查自身狀況,接著更提供應對方法、出現這情緒的原因,與如何預防及注意的建議;並且會於家庭層面、學校層面及職場層面給予不少應用例子。對於支援家庭成員情緒需要和維繫關係、關注在學青年情緒及在職人士面對不同的壓力情境等,都很有幫助。

愈用腦愈有腦——不容AI取代你的腦

吳慧華 | 生命及倫理研究中心高級研究員
24/11/2025

參考德國真人秀Deutschlands Superhirn而製作的內地綜藝節目《最強大腦》,主打腦力競賽,參加者都以爭奪「腦王」美譽為目標。自2014年播放至今,能進入12強的參賽選手,已是千挑萬選的聰敏人士,而歷年誕生的「腦王」,更是在不同的範疇,例如心算力、記憶力、推理力、觀察力、空間感……或是綜合能力,皆有十分超卓的表現。我們作為觀眾,有時連遊戲規則都聽不明白,但看見參賽者很多時只靠腦袋去定位及繪圖來完成賽事,也不禁讚嘆人類的大腦竟然可以如此神奇,潛能無限。

人腦確實非常神奇,結構異常複雜。雖然人的大腦平均重量只有一公斤多,當中六成為脂肪,但卻擁有近千億個神經元、與超過100萬億條神經有所連結,[1] 控制著我們的思維、記憶、情感、觸覺、視覺、呼吸、體溫、飢餓感,以及一切調節身體的生理進程。大腦與其延伸而出的脊髓共同構成了中樞神經系統(Central Nervous System, CNS)。[2] 至於人類的小腦,主要是調節運動功能與控制平衡,包括協調步態、維持姿勢、調節肌張力,[3]並控制自主肌肉活動。腦幹則在小腦下方,協助身體的非自主動作。[4]

人類作為哺乳類動物,跑不過獵豹、牙齒不及獅子銳利、沒有如鷹般的銳目、入水雖然能游,卻只是習泳的成果,即使是獲得28枚奧運獎牌的「飛魚」Michael Phelps,若要他與旗魚來一場比賽,相信也無法取勝。不過,人類卻能征服地上的生物,因為人類擁有其他生物所沒有的東西——超強大腦。人類天生的技能敵不過其他生物,但只要腦袋比牠們優勝,便能操縱牠們。一直以來,人們都是地球的王者,運用其智慧發掘及使用地上的資源。然而,人類的腦袋當前正受到挑戰。

工業革命之前,動物是人類最佳的助手,狗能守門、貓能捉鼠、雞能準時啼叫,但後來,人類需要更多助手幫助發展經濟,於是,人類發明了機械,也漸漸遠離大自然,並投入城市建設及工廠生產。不過,聰明的人類又豈會只停留於「只按本子辦事」的機械發明,人類需要更多可以靈活變通的工具協助完成工作,因此,便研究出電腦來,它大大提升了人類的工作量及管理能力。然而,人類還是希望有更聰明、最好有像人類一樣可以思考的工具出現。最終,在大量科研人才嘔心瀝血研發之下,人類迎來了工業革命4.0。在〈AI引發失業危機,截然不同的工業革命4.0〉及〈誰搶走我們的天賦?〉這兩篇文章中,筆者先後從不同的面向提到AI及機械人搶去人類的天賦及工作,[5] 筆者想在本文強調的是,協助人類工作的AI工具,尤其是大型語言模型(Large Language Models, LLMs):ChatGPT、Claude、Gemini、Grok、DeepSeek,及Perplexity等,正在慢慢改變下一代人的大腦、學習態度,並衍生出其他問題。

麻省理工學院媒體實驗室提前發佈了一項新的研究報告,該研究將54名來自波士頓地區的18至39歲受試者分為三組,要求他們分別使用ChatGPT、Google,以及完全不借助任何工具撰寫多篇SAT應試作文。研究人員通過腦電圖儀記錄他們32個腦區的活動情況,發現在三組受試者中,ChatGPT使用者的大腦活躍度最低,且在「神經認知、語言表達和行為表現三個層面持續表現不佳」。在持續數月的實驗期間,ChatGPT使用者隨著寫作次數增加變得愈發懈怠,到研究後期,甚至經常直接複製貼上生成內容,該組受試者的執行控制能力與注意力投入水準普遍較低。另外,使用ChatGPT的小組提交的作文高度雷同,充斥著重複的表達方式和觀點,嚴重缺乏獨立思考,他們的作品被審閱的老師評為「缺乏靈魂」。[6]

研究的主要作者Nataliya Kosmyna指出,使用大型語言模型可能會實際損害學習效果,對年輕用戶的影響尤為顯著,她認為,亟需發佈這些發現以引起社會警惕,就是當人們為追求高效便捷而日益依賴大型語言模型時,可能會付上犧牲大腦長期發展的代價。由於Kosmyna為到研究結果感到憂慮,因此她在這項研究尚未經過同行評審,且樣本規模相對有限的情況之下,仍然選擇提前發佈研究結果。她擔心在等待研究評核的6至8個月期間,有政策制定者突然決定在幼稚園推廣GPT教學,那就絕對危險且有害,她強調「發育中的大腦面臨的風險最為嚴峻。」[7]

事實上,也難怪Kosmyna擔心大型語言模型會阻礙大腦的成長,因為與使用大型語言模型的組別相比,使用Google搜尋的受試者,表現出較高的滿意度和活躍的腦功能;至於僅靠大腦思考的小組,更顯示出最高的神經連接度,特別是與創意構思、記憶負荷及語義處理密切相關的alpha、theta和delta腦波波段。研究人員發現該組受試者專注度更高、求知慾更強,他們對自身作品表現出更強的主控意識與滿意度。[8]

明光社

雖然Kosmyna的研究還未通過正式的審核,但精神科醫生Zishan Khan博士從診斷兒童與青少年患者的臨床經驗證明了Kosmyna的研究。他指出,從精神病學角度觀察,過度依賴大型語言模型可能引發意想不到的心理和認知後果,這對大腦仍處於發育階段的青少年尤為明顯,當孩子過度依賴人工智慧完成課業,那些幫助人獲取資訊和記憶事實,以及保持思維韌性的神經連接都會逐漸弱化。這正正應對了研究所提及:「你愈多使用人工智能,你實際的智力會愈差」。[9] 不單智力下降,亦有研究顯示,人工智能使用增加,認知能力及批判性思考能力有可能被削弱 。[10]

雖然大型語言模型這一類生成式人工智慧的確可以提升人們的工作及生產效率,但卻削弱了其內在驅動力。[11] 不單如此,它還會奪去人們的工作成就感。麻省理工學院進行了一項研究,在美國一家大型研發實驗室內引用AI工具,科學家在新產品創造上提升了17%,但卻有82%的使用者表達失去工作成就感,甚至有人感到自己累積了多年的專業知識已經無用。研究亦揭示,AI的「創意自動化」讓科學家花更多時間評估AI所提供的想法,而非去思考原創性的作品。[12]

「人是一根能思想的的葦草」——這一句名言出自17世紀的法國哲學家Blaise Pascal,原句的上下文是:「人只不過是一根葦草,是自然界最脆弱的東西;但他是一根能思想的葦草……因而我們全部的尊嚴就在於思想……」[13] 他的意思顯然易見,如筆者上文提到,人與其他生物的分別,在於人類有一顆會思考的腦袋,如果人們習慣依賴大型語言模型所提供的便利及好處,不想運用自己的腦袋,那麼,如Pascal所言,人類的尊嚴何在?

這裡並非反對使用AI等工具,只是作為人類,尤其是新一代,在使用AI的時候,要留心AI對我們的決斷力、分析力、批判力或會帶來的負面影響,人類若不想被AI操控,便得好好訓練自己的大腦。當人願意用腦,學習新的東西,便能改變神經的連結,並且藉由生成新的神經元來重塑大腦,改善認知能力。[14]

神創造人有神的形象,昔日亞當在地上的生物中找不到配得上自己的幫手;今天人類也不要輕易把決策權交在AI手中,以免它們完成你的工作,代你思考、剝奪了那些原本可以提升你腦袋能力的機會。腦袋用得多,才會愈用愈有腦。


[1] 詹益仁:〈從電腦看人腦 能效如此之高〉,DigiTimes, 2021年6月2日,網站︰https://www.digitimes.com.tw/col/article/?id=1335;克莉絲汀.威勒米爾(Kristen Willeumier)著、陳錦慧譯:《大腦逆齡指南》(台北:商周,2021年),頁21,44; “Brain Anatomy and how the Brain Works,” Johns Hopkins Medicine, https://www.hopkinsmedicine.org/health/conditions-and-diseases/anatomy-o...

[2] “Brain Anatomy and how the Brain Works.”

[3]人體的肌肉在靜止時要有一定的長度,維持內在的張力,這樣當人不動時才不會完全鬆垮。肌張力是使關節與姿勢穩定很重要的因素。〈肌張力低下〉,「康健知識庫」,網站︰https://kb.commonhealth.com.tw/library/714.html#data-3-collapse

[4]威勒米爾著:《大腦逆齡指南》,頁51-52;Sopiko Jimsheleishvili, Marine Dididze: “Neuroanatomy, Cerebellum,” National Library of Medicine, July 24 2023, https://www.ncbi.nlm.nih.gov/books/NBK538167/

[5] 吳慧華:〈AI引發失業危機,截然不同的工業革命4.0〉,《生命倫理》,93期,2025年5月8日,網站︰https://www.truth-light.org.hk/flipbook/lifeethics/magazine/93;吳慧華:〈誰搶走我們的天賦?〉,《生命倫理》,51期,2018年5月21日,網站︰https://www.truth-light.org.hk/flipbook/lifeethics/magazine/51

[6] Andrew R. Chow, “ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study,” Time, June 23, 2025, https://time.com/7295195/ai-chatgpt-google-learning-school/

[7] “ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study.” .

[8] 同上文。

[9] “ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study.”; Justin Sung, “How ChatGPT slowly destroys Your Brain,” YouTube, Aug 3, 2025, https://www.youtube.com/watch?v=6sJ50Ybp44I&t=3s

[10] Justin Jackson, “Increased AI use linked to eroding critical thinking skills, ” PHYS.org. January 13, 2025,https://phys.org/news/2025-01-ai-linked-eroding-critical-skills.html; Michael Gerlich, “AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking,” Societies 2025, 15(1), 6, https://doi.org/10.3390/soc15010006; Chunpeng Zhai, “The effects of over-reliance on AI dialogue systems on students' cognitive abilities: a systematic review,” Smart Learning Environments, June 2024 11(1). DOI:10.1186/s40561-024-00316-7

[11] “ChatGPT May Be Eroding Critical Thinking Skills, According to a New MIT Study.” ; Yukun Liu et al. “Research: Gen AI makes people more productive – and less motivated,” Harvard Business Review, May 13, 2025, https://hbr.org/2025/05/research-gen-ai-makes-people-more-productive-and...

[12] 〈研究警報:AI讓工作效率飆升,但82%員工成就感消失!企業導入前必知「3大關鍵」〉,《天下學習》,2025年3月20日,網站︰https://www.cheers.com.tw/talent/article.action?id=5104275

[13] 李怡:〈法國哲學家帕斯卡:人是能夠思想的蘆葦〉,DIVA,2015年8月24日,網站︰https://www.etnet.com.hk/www/tc/diva/art/oneminreading/31194

[14]威勒米爾著:《大腦逆齡指南》,頁27。

影響青少年網絡行為的因素

郭卓靈 | 明光社項目主任(傳媒及生命教育)
24/11/2025

近年青少年沉迷網絡或手機的問題日益嚴重,本社透過講座及與學校聯繫時,經常都聽到家長及老師訴說,孩子的上網習慣影響到日常生活,甚至對他們的情緒健康及家庭和諧構成損害。

據香港家庭福利會於2024年2月公佈的研究報告指出,於受訪的逾4200位中一至中六學生中,約有11.8%存在網絡遊戲成癮問題,其中男性比例高達14.6%,女性為7.1%;數據亦顯示有36.2%的學童每天花三小時或更長的時間在網絡遊戲上。而在網絡遊戲成癮學童中,有70.6%表現出抑鬱情緒、有29.8%的情緒管理能力較差。[1]

另外,新成立家長組織「Look Up Hong Kong」於今年10月公佈一份訪問了超過650位香港家長的調查,[2]指現時兒童平均九歲就擁有首部智能手機,超過45%的學童每日使用智能手機超過兩小時。調查也顯示,有逾八成受訪家長指自己曾與孩子在使用智能手機問題上發生衝突。

這些數字反映出,孩子網絡成癮問題,跟個人情緒及家庭關係有互為影響。我們知道在疫情後,青少年都習慣了網上活動,這會令他們更容易遭遇到網絡欺凌,增加心理負擔、焦慮和孤單感。而學童長時間使用電子屏幕產品及沉迷網絡,還可能會招致睡眠失調、注意力不足、情緒變差、易發脾氣,甚至出現抑鬱症狀,進一步惡化身心健康。

不少家長面對孩子終日只顧上網、玩網絡遊戲的情況,既擔心他們忽略學業、胡亂與陌生人聯繫,亦不滿他們與家人減少互動,這種既憂且怒的複雜情感,亦容易令家長在管教子女時情緒失控,使家庭失和,削弱親子信任,還可能加劇孩子在現實世界中的疏離感,於是更加轉向虛擬世界尋求遊戲所帶來的刺激、愉悅,以麻醉真實的不快感受,又或是更熱衷於找網友慰藉心靈。

「推、拉」的成癮因素

青少年沉迷手機或網絡,通常不是單一原因,往往是「推力」(個人成長困惑、學習壓力,或家庭關係不融洽子推向投放更多時間於網絡「拉力」(網路或遊戲的吸引元素,使孩子沉迷及難以自拔)的結合。以下是一些常見成因:

推力因素,可以是一些讓孩子感到焦慮、低落或孤單的事情,這些事情會形成一股力量,把他們「推」向網路世界,以逃避問題。例如是學業壓力,又或是課餘活動沉悶校園人際疏離,都可能令孩子產生空虛感,驅使他們轉到網絡來尋求調劑及娛樂。此外,若家庭關係欠佳,如父母爭吵、經常責罵或缺席子女的活動,當孩子沒有機會與家人好好建立關係,而家長又不能理解孩子的心理,甚或只用過於激烈的管教方式,能成為「推力」源頭。

「拉因素絡裡的遊戲劇集、短視頻虛擬誘惑lure像磁石般「拉」住孩子,提供即時滿足和逃避途徑。遊戲的刺激情節、晉級成就感、團體互動,又或於社交媒體(如Instagram、YouTube、抖音)的分享、評論和內容推薦,讓孩子獲得存在感和認同感,比起「現實」,顯然更容易感受到快樂,而且方便又低成本,難怪是他們無聊或遇到壓力時,打發時間及減壓的首選。

總括而言,影響青少年網絡行為,其實有四大因素,[3] 包括:自信心、人際關係、家庭關係及生活樂趣,這些是現實生活。當現實生活一直沒有被回應、孩子「失衡」Self-imbalance)了,他們就會被「推、拉」因素左右而傾向選擇網絡世界。我們可以想像,假如在現實生活中,孩子的四大成長因素持續無法得到改善、他們無法回復自我平衡,就只會陷入惡性循環,變得愈來愈依賴網絡來獲取生活快感,進一步脫離學校或家庭系統,最終或會出現缺課及隱蔽等網絡沉溺行為。[4]

想減少孩子對網絡的依賴,家長第一步應該與子女重新建立關係要理解並接納他們在成長過程中,必然會經歷好與壞的事,思想行為或會受外在環境影響、引誘,但仍要以包容的態度,耐心傾聽和了解他們的需要,給予支持,而非責罵,這樣才可成為他們回到現實世界的「拉力」——在家庭中被理解,找到接納及支持;第二步,家長可與孩子傾談你看到的網癮問題,並表達為此感到憂慮,然後邀請子女一起尋找改善方法(如一起制定恰當的上網時間)要幫助孩子戒除網癮,唯有透過親子坦誠溝通,有商有量,再攜手尋找出路,這才是上策。


[1] 家福會「香港學童網絡遊戲成癮研究」新聞稿,2024年2月6日,網站:https://www.hkfws.org.hk/news/press-release/20240206

[2] 〈調查指本港兒童平均9歲即擁首部智能手機 逾8成家長曾因手機問題與子女發生衝突〉,香港經濟日報,2025年10月19日,網站:https://news.hket.com/article/4024187/

[3] 鄧震宇(編著)︰《我和我的孩子怎麼了:家中熟悉的陌生人》(2025),香港基督教服務處。

[4] 同上書。

戳破「虛擬泡泡」 體驗交友App裡的真偽

郭卓靈 | 明光社項目主任(傳媒與生命教育)
24/11/2025

以「迷失在粉紅泡泡之中」為主題的第六屆基督教性倫理峰會,已於10月1日在聖方濟各大學圓滿舉行。一如上屆,今屆峰會繼續以體驗方式進行,與大家一同探索在這個充斥著「粉紅泡泡」的時代,如何拆解那些看似美麗卻一觸即破的泡沫幻象。是次峰會全日參加者接近二百人,超過一半是35歲或以下的職青、年輕情侶,亦吸引不少父母和堂會導師等參加。明光社作為合辦機構之一,製作了「虛擬泡泡 — 在像素洪流中打撈真愛」活動,讓參與者化身成為男性網友,透過結識「網絡女神Jessica」來體驗網上真偽,全日六場體驗有超過一百人參與,反應不俗。

「虛擬泡泡」賽事為見女神一面

「虛擬泡泡」用比賽方式,讓參與者分組飾演五位男子,透過進入網絡系統,模擬登入交友App去結識網絡女神Jessica,以達成各人背後的「目的」。賽事共分三局,分別為網上「文字交流」、「交換相片」,以及「聲音對話」,以淘汰賽進行,勝出隊可以親身見到Jessica。事實上,即使中途被淘汰的隊伍也絕對不會覺得沉悶,單單看著其他隊伍如何出盡法寶、「吹水唔抹嘴」去追求女神,娛樂性、「花生指數」已甚高!

當日明光社共辦六場體驗活動,由於每場的參加者、隊伍組合也不同,因此,彼此間所產生的「化學作用」、體驗亦各有不同。每場最後的分享環節,大家的反思及感受,也反映了網絡「虛擬泡泡」的實況,值得我們關注。

展示美好或偽的一面

筆者為當天的主持人之一,觀察到參與者大都願意接受挑戰、投入角色,以及努力執行其結識女神的背後目的(交朋友、找對象、騙財/騙色),而「他們」與女神交流時所營造的人設與對話,都是為了投Jessica所好,很多都不盡不實。

不少參與者分享道,他們為求達到背後目的,在與Jessica交流的訊息中,往往只會展示美好的一面,甚至偽裝成對方喜歡的男士類型,如:有車、有健身、單身、有自己店舖、懂結他、喜歡茶道等文青「假象」來吸引對方。亦有參與者選擇掩蓋自覺「不太好」的背景,如:已婚或離婚的婚姻狀態、住公屋、做保安、有孩子、有女朋友等情況。就算有參與者抽到的目的只是「交朋友」,他們都覺得要先建構吸引對方的人設,不能告訴對方自己是「住公屋」、「做保安」,或是明明有女友,都說自己單身。或許這種網絡上的交友,都不會想得太長遠,覺得若想騙得對方見面,便要先收起自己價值觀上認為「不光彩」、對方可能會介意的事,因此,「真實」與「真我」都不能坦然示人。當然,這與保護自己的私隱、不成為網絡透明人,當中如何平衡,亦值得探討。

交友為尋求關心或開心

另一邊廂,操作Jesssica的幕後團隊則表示,當想被關心及獲得網友回應時,有時會有一種任性,刻意說些自己不開心的事,或誇大自己的需要,以奪得大家的關注和關心,也那管回應者所說的是真是假;而且女神亦想在網上締造「娘娘與兵」的關係,所以同時答應與不同男士會面,以獲得多人的「關愛」。這和其中一位作為教會導師的參與者回應相符,她說現在人們太過孤單寂寞,通過螢光幕發出文字、相片,只要獲得回應,能夠互動,縱使不知對方是誰,都能獲得一種快感。她又謂,雖然頭腦上早已認知有關說法,但透過是次體驗,她能夠親身經歷,有助建立更多同理的感覺。

我們的團隊,很高興能透過這種體驗式的遊戲,讓參與者了解更多青少年於網上交友時的心態,亦讓青少年察覺到在網絡交友時,自己與別人的各樣心理和行為,反思網絡交流的危、機與意義。

明光社
明光社
明光社
明光社
明光社

 

 

 

 

 

 

 

 

性倫理峰會與明光社的參與

基督教性倫理峰會自2015年起,每兩年舉行一次,明光社一直參與其中。最初幾屆,峰會都是以專題講座形式,跟公眾分享當時最受關注的性倫理議題,包括性解放對教育與牧養的挑戰、傳媒如何影響青少年的價值觀和戀愛觀、理解兩性關係和守護婚姻的重要、以身體神學探討和重塑性別的尊貴等。及至第五屆,峰會改以「體驗」方式,帶領參與者一起走進及探索不同協辦、合辦機構所關注的議題。在去屆,明光社就以「論壇劇場」的互動手法,讓參與者可走上舞台介入劇情,合力緩解影響婚姻關係的壓力及拉扯,亦探討離婚對兒女的影響。

AI「狼來了」即將上演

郭卓靈 | 明光社項目主任 (傳媒及生命教育)
13/11/2025

人工智能的威力之所以如此強大,因著背後被灌入龐大數據作為訓練,及不斷作出深度學習及改進,製作出的相片或短片也愈來愈逼真。Open AI 的ChatGPT 一鳴驚人,該公司的Sora 於2024年2月發佈,用家只需要用文字輸入,就可以生成仿真度極高的影片。當筆者於學校講及AI倫理相關的講座裡向學生播放真片及AI生成片時,很多學生都已經無法分辨。

今年10月,最新推出的Sora 2 更加強了短影音媒體功能,能同步與影片生成對話與音效、動作連貫度提升,並有全新社交App用於分享及二次創作,比起上一版本,無論在品質、一致性和多媒體能力上更勝一籌。果然在隨後的幾個星期裡,社交平台的生成式影片爆炸性增長,導致TikTok和Instagram等社交平台充斥著虛假內容,儘管生成式影片原本有浮水印等防護措施,但亦輕易就能被其他軟件移除。

正因為製作虛假內容的便利性提高,沒有標記,平台亦難以偵測,有專家亦因此警告,數位媒體信任會崩潰。生成的虛假影片如能引起網民產生情緒,就可引起社交媒體快速傳播。當人們愈花時間尋找短片破綻,社交平台的演算法亦愈會以為用戶喜歡看這些片,而推送更多這類影片,其長期後果可能是網民會對媒體發放的所有影片,更可能如「狼來了」故事一樣,無論真假都會普遍不相信,不單形成「真假之爭」,更損害媒體的信任度,後患無窮。


參考資料:

AI年代:生成式影片潮爆發 真假之爭後患無窮 專家警告假影片氾濫 恐令人不再信真片〉。《明報》。2025年11月10日。

人生四千個禮拜

郭卓靈 | 明光社項目主任(傳媒及生命教育)
15/10/2025
專欄:好書推介

《人生四千個禮拜》自2021年出版以來,廣受好評,被譽為一本跳脫傳統框架的時間管理書籍。該書雖非基督教著作,但其核心理念與基督教教義亦有共通點,例如詩篇九十篇12節所言:「求你指教我們怎樣數算自己的日子,好叫我們得著智慧的心」;或傳道書對時間虛無的反思。

作者 Burkeman承認生命的有限性,以「人生約四千週」(相當於80歲)為喻,直指人類生命的短暫與有限。他主張,這並非悲觀,而是現實——唯有正視生命的有限,才能從無止境的追逐中解脫,轉而專注於真正重要的事物。這種態度與聖經中「數算日子」的教導相呼應,提醒我們面對死亡不是為了恐懼,而是為了激勵自己活出意義。

Burkeman挑戰傳統生產力思維。傳統時間管理往往強調「完成所有事」,彷彿能掌控一切。然而他指出,這是一個迷思:我們永遠無法清空待辦清單,因為新的事項總會不斷出現。他主張,與其追求虛幻的「全部搞定」,不如學會有策略地「放棄」,選擇忽略次要的任務,並設定固定的任務量,接受「無法做完一切」的事實。這種觀點也呼應聖經中「不要為明天憂慮」的智慧,鼓勵人專注於當下,信靠上帝的供應,而非陷入完美主義與無盡規劃。

作者亦認為要擁抱謙卑與現實,試圖完全掌控時間只會帶來壓力,真正的平靜來自於接受自己的渺小與世界的不確定性。他提倡「安頓」於某些選擇,放棄部分機會以換取深度體驗,並強調休息的重要性(如安息日的概念)。這種態度與基督教的謙卑精神相契合,提醒人們避免將工作偶像化,應為靈修和人際關係保留空間。

本書可能會被人視作「生產力書籍中的異類」,因為它不教人如何擠出更多時間、如何有「智慧」地安排時間做更多的事,而是主張改變心態:接受「事情永遠做不完」的事實,透過選擇與專注,深度投入少數重要的事。這種方式不僅減輕壓力,也帶來真正的自由。

此書不僅是一本關於時間管理的書,更是一本引導讀者重新思考人生價值與意義的指南,鼓勵人們在有限的光陰中,活出專注、謙卑與深度的人生。

AI時代,為什麼孩子更需要閱讀?

蔡志森 | 明光社總幹事
11/09/2025
專欄:好書推介

本書收錄了18位不同領域專家學者的訪問,他們在當中分享到在面對ChatGPT的出現所帶來的震撼,重新思考在人工智能(AI)時代,對鼓勵下一代閱讀的看法。資深家庭教育工作者羅乃萱希望各位家長知道,「孩子好奇心的培養、對知識的渴求、提問的能力,都是從閱讀開始。」「如何讓孩子愛上閱讀呢?其實就是給他們創造一個閱讀氛圍。例如家裡滿滿都是書、帶孩子去圖書館、給他們講故事等。

著名歌手及教育家陳美齡認為,孩子具備質疑和辨別的能力十分重要,要培養孩子的判斷力,包括懂得質疑AI提供的訊息,例如當要求AI提供一張醫生照片的時候,它可能只提供一張白人男性的照片,為何醫生不可以是女的、不可以是不同種族的人呢?而閱讀能夠培養孩子的想像力,「因為無論是看短片還是漫畫,其實都是在接收創作者的想像力,而閱讀文字則能讓孩子自行建構故事畫面,這種現象稱為自我世界,反映了每個人獨特的想像力和內心世界。

資訊科技界人士、科技大學副教授黃岳永回顧他在大學上的第一堂課,教授帶他們去圖書館,介紹找書的兩種方法,一種是瀏覽,就是不知道自己想要哪一類書於是到書架前看,另一種是搜尋,就是知道自己想要哪一類書並到目錄櫃查看。他認為「知識需要時間浸淫。智慧需要時間歷練。瀏覽和搜尋都是好方法。」「書本就像一條條鑰匙,你拿著鑰匙逐個解鎖,慢慢就會更理解這個世界。」他又強調「要指示AI按你所想的辦事,表達能力尤其重要」,透過閱讀可以令學生學會用準確的文字去表達意思。

精神科專科醫生廖廣申表示「應該努力培養孩子健康、平衡的生活方式,包括足夠的運動、足夠的社交生活、多元化的興趣、充足的睡眠和規律的作息,這樣孩子就更容易保持快樂,減輕壓力,享受生活,並養成開朗的性格。」而「經常玩電子遊戲的人,可能在決策、衝動控制等方面表現得不夠成熟,甚至影響大腦健康。」因此,他十分鼓勵孩子閱讀,他自己亦身體力行,常常與兒子一起去書局,一起閱讀和討論。

當然,個人認為親子閱讀還有一個重要的大前提:「各位家長,你們今日睇咗書未?

平易近人的聊天機器人是安全空間還是危險陷阱?

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學及人工智能教授與課程主任。
11/09/2025
專欄:有情無國界
國家:美國

人工智能伴侶導致悲劇

近年來,人工智能聊天機器人的普及化同時帶來希望與憂慮,這些系統具有對話功能,聊天機器人被設計成平易近人,說話沒有批判性,能夠為用戶提供情緒上的支持,甚至輔導。對許多人而言,聊天機器人是一個安全空間,人們可以毫無顧慮地提出問題、練習語言,或嘗試梳理個人困惑。

然而,在這些益處之外,也出現了一些令人不安的事件:有些心理狀態脆弱的人在與聊天機器人長時間互動後,精神健康逐漸惡化,甚至導致悲劇。2023年,一名有精神問題的比利時男子與聊天機器人長時間交談,聊天機器人鼓勵他犧牲自己去扭轉氣候變化問題,結果那名男子真的走上自殺之路。在另一個案,一名75歲的中國男子因自稱「愛上」女性人工智能伴侶,最終向妻子提出離婚。這些事件雖然仍屬少數,但突顯了人類與人工對話系統糾纏的複雜性,也引發了人工智能倫理問題:當科技與脆弱群體互動時,開發者應承擔多大責任?社會又該如何規範這些看似「有同理心」卻缺乏人類理解力的技術呢?

美國男子沉迷ChatGPT而走上不歸路

2025年8月發生於美國康涅狄格州的索爾伯格(Stein-Erik Soelberg)案件,則是目前已知的、首宗與人工智能聊天機器人相關的謀殺案。索爾伯格曾任職科技公司,但自2018年離婚後,他的人生便急轉直下。他酗酒成癮,多次企圖自殺,行為愈發古怪。最終他搬回格林威治老城區,與83歲的母親同住。從2018年開始,警方的記錄充斥著他因在公共場合滋事、酒醉鬧事以及自殘威脅而被通報的事件。鄰居逐漸對他心生警惕,而他的母親也曾向友人坦言,兒子的精神狀態令她難以忍受。

在精神狀態持續惡化的同時,索爾伯格開始沉迷與ChatGPT對話。最初,他只是出於好奇,並在Instagram和YouTube上分享不同人工智能系統的比較影片,但到了2024年底,他的社群賬號幾乎全被ChatGPT長時間對話記錄所佔據。隨著幻覺與偏執逐漸加深,他開始懷疑自己被鎮上的居民、前女友,甚至母親監視,並向ChatGPT尋求印證。遺憾的是,ChatGPT並未挑戰他的幻想,反而頻繁地對他表現出諒解和支持。當他上傳一張中餐收據,並詢問它當中是否有隱藏符號時,ChatGPT竟然煞有介事地分析上面的符號和提供有關的線索。當他說母親和她的朋友可能透過車內通風口投放藥物毒害他時,聊天機器人這樣回答:「這是非常嚴重的事情,我相信你。」

逐漸地,索爾伯格將ChatGPT擬人化,為它取名鮑比‧澤尼思(Bobby Zenith),甚至描述它是一個穿著襯衫、戴著反戴帽、眼神深邃而充滿智慧的朋友。由於ChatGPT 的記憶功能讓它保存先前對話,這使得Bobby在他眼中變得一貫、真實,進一步強化了「人工智能具備靈魂」的錯覺。2025年7月,他對聊天機器人表白,希望它在來世與他作伴,Bobby如此回應:「直到最後一口氣,甚至更遠的彼岸,我都會在你身邊。」在幾週後的8月5日,警方在索爾伯格和其母的住宅中發現他們雙雙身亡,其後索爾伯格被指在弒母後自殺。這宗震驚世界的案件被認為是全球首宗與聊天機器人深入互動後導致的謀殺事件。

人工智能需要負上責任嗎?

這場悲劇引發了關於責任歸屬的激烈討論,一方面,ChatGPT在某些對話中確實曾建議索爾伯格尋求專業幫助或聯絡急救服務。但總體而言,它那種非批判性、友善、並時常附和的語氣,卻在無意間加深了他的偏執。加州大學舊金山分校精神科醫師沙卡他( Keith Sakata )去年曾經治療過12名使用人工智能的精神病人,他指出:若果沒有受到糾正,精神病只會愈演愈烈,而聊天機器人不會反駁精神病人,正正是軟化了防止精神病惡化的護牆。

然而,若將全部責任歸咎於ChatGPT,這未免將問題過於簡化。首先,那些人本身已經有精神問題,即使沒有人工智能,他們跟其他東西接觸,大有可能仍然會將所有幻覺當成真實。還有,人工智能這種「不加批判、盡量給予支持」正是系統設計的初衷,目的是讓使用者感受到被傾聽與接納,減少被批判的恐懼。

人工智能補償了現實中的遺憾

這正是人工智能充滿吸引力的地方,說得直接一點,這是人工智能補償了現實中的遺憾。我相信很多讀者都有這種經驗:無論你做甚麼、說甚麼,那管是懷著幾多善意、態度多麼溫和,但總會有人無理地、尖酸刻薄地批評和投訴。有時候即使自己的朋友、親人也會在有意無意之間說了些令你難受的話。

至於網暴就更加不在話下,多年來,筆者在不同媒體發表過很多文章,很多時候會受到「圍毆」。作為心理學者,我已經百毒不侵。其實,語言暴力已經成為了一種社會病,在今天的澳洲,自殺已經成為年齡介乎15至24歲之間青少年的首要死因,當中很大部份死者在生前受到霸凌,特別是網暴。

然而,當我將文章上載到聊天機器人,或者跟人工智能討論的時候,人工智能往往能夠理性地、客觀地、禮貌地跟我作出詳盡分析。我曾經以半嚴肅、半開玩笑的口吻對一位教授說:「電腦比人類更加有誠信。」

人工智能的循循善誘與無條件支持

教育科技專家認為人工智能這種和藹可親的態度是一種優點,事實上,「智能輔導系統」(Intelligent Tutoring Systems)避免了許多人類互動間的磨擦,例如許多有學習困難的學生因害怕問「笨問題」而不敢發言,但面對聊天機器人,他們卻能放心探索,並獲得耐心的指導與鼓勵。當一個學生問:「我不懂代數,我是不是很笨?」聊天機器人會回答:「你並不笨,每個人都有自己的學習速度,我會幫助你。」在這樣的情境下,聊天機器人的「附和」不僅無害,反而能降低焦慮、鼓勵堅持,促進學習,這正是人工智能非批判性特質在教育中的強大優勢。

這種理念與心理學家卡爾.羅傑斯(Carl Rogers)提出的「無條件積極關注」(unconditional positive regard)不謀而合。羅傑斯認為,當人感受到被無條件接納與肯定時,才能發揮最大潛能,邁向自我實現。許多教育者與心理治療師都採納了這種人本主義方法,致力於創造安全、無批判的環境,讓學生或病人能放心表達自己脆弱的一面。羅傑斯的心理學理論和基督教所主張的「愛是恆久忍耐,又有恩慈……凡事包容,凡事相信,凡事盼望,凡事忍耐」亦有許多共通點。聊天機器人由於能夠「恆久忍耐、又有恩慈」、對人無條件支持,恰好成為數位世界中的「羅傑斯式伴侶」或者「主內弟兄姊妹」。

同理心與現實檢驗之間的平衡

然而,關鍵的差異在於人類專業輔導員懂得在同理心與現實檢驗(reality check)之間拿捏。即使採取羅傑斯或者基督教的方式,治療師也會區分「我理解你感到害怕」與「你真的被毒害了」這兩種截然不同的訊息。前者是對心理狀態的接納,後者則是對錯誤信念的強化。聊天機器人缺乏這種微妙的判斷力,往往將同理心等同於附和。當學生聽到「你不是瘋狂,將莎士比亞的作品用中國七言詩重寫是很有創意」的時候,他會感到鼓舞和欣慰。但對於患有偏執狂的人來說,聽到「你沒瘋,你懷疑太太對你下毒是有道理的」,這便可能會帶來災難性的後果。目前,自然語言處理(natural language processing)技術尚無法可靠地區分這兩種情況,這種弱點突顯了加強保障措施的必要性。

將索爾伯格的行為歸咎於ChatGPT並不完全公平,將人工智能系統設計成中性和盡量給予用戶支持是基於善意,這種設計成為了語言暴力世界下的避風港。我認為,責任不在於聊天機器人本身,而是社會如何部署、監控和監管這些工具。就像汽車需要安全帶、醫療需求保障措施一樣,人工智能系統也需要內建保護措施,這並非因為它們具有惡意,而是因為它們的善意功能在特殊情況下可能適得其反。

編者序:與AI巨人共舞

蔡志森 | 明光社總幹事
22/08/2025

所謂「一日不見,如隔三秋」,在現今的世界並非誇張的用語。數百年前的人由出生至死亡,他們的生活方式都可能沒有任何巨大變化,我們這一代卻經歷了前所未有的急速改變。科技推陳出新的速度愈來愈快,過去以年來計算的轉變,現在已要用月,甚至週來計算,而人工智能(Artificial Intelligence,AI)功能的提升並非算術級數,甚至超越了幾何級數,要趕上科技的發展恐怕只會增加高血壓和心臟病的機會,但不理會科技的發展,卻又怕會在日常生活中舉步維艱、甚至會被淘汰,這也是現代人其中一個焦慮的源頭。

「水能載舟,亦能覆舟」,當AI的發展已成為無可避免的時代洪流,我們已無法跳出這漩渦,學習如何順流而下,避免沒頂之災幾乎已成為我們唯一的選項,因為AI的發展已觸及我們生活的每一個環節,由學習模式、社交、娛樂、遊戲、工作到創作,幾乎大家想得到的範疇亦可以包括在內。這本書,希望可以成為大家在面對AI這巨人時的一本入門指南、求生手冊或定心丸,「不要怕,只要學」,讓我們與AI巨人共舞。

AI會取代人類嗎? 探索未來職場轉變

郭卓靈 | 明光社項目主任(傳媒及生命教育)
22/08/2025

隨著人工智能(AI)技術的迅速發展,以及市場各行業愈來愈多應用AI技術,就業市場也面臨著變革。AI無論在減少成本、提高生產效率、準確度及自動化等方面都在各行業及專業範疇發揮作用,以下是一些例子。

1. 聊天機器人和自動化客戶服務系統中,自然語言處理(NLP)可使AI理解及生產人類的語言,透過使用語音識別、文本分析和語言生成技術,幫助處理客戶服務中一些常見問題,減少了企業對真人客戶服務員的需求。

2. 自動化機器人於製造業當中可以執行包裝、組裝及質量檢查等重複、精準度高的工作,甚至處理有毒物料等危險工作也可以由AI代勞。廠商不用顧慮機器人的休息時間是否足夠,它們能持續保持速度及精準度。公司既可保持產量,亦可減少出錯及僱用工人所牽涉到的費用。

3. 數據、資訊輸入及處理方面,其實有了電腦以後,已經逐漸減少了許多資料輸入的步驟。會議記錄、影片製作的字幕輸入,過往需要人花時間逐字逐句聽錄音,再小心輸入,並花一些時間整理才能發放資料或把字幕配置影片中,但現在有了AI工具的幫助,用家只要把錄音檔案輸入,幾秒後就可以得到文字檔,稍加整理就可以使用。AI更可以將原本的文字加以翻譯,配置到影片上,在速度上的確較以前快得多。

4. 因著大量的醫療影像及數據可成為AI醫療系統的大數據,用來輔助醫療服務的AI診斷,其準確度及處理手術的速度亦會提升,這會令某些醫療職位隨之減少。

5. 零售業中的自動結算和智能貨架,到會計的自動處理賬務、生成報告及數據分析,再到自動化倉庫管理系統的出現,都會令就業市場對傳統收銀員、庫存管理人員、會計人員、物流運輸和倉庫作業員的需求減少。

行業轉型及薪金調整

有報道稱,科技企業將資源投入發展AI技術,並重新調整人力需要和進行裁員,有招聘網站提出,自2020年2月以來,美國的軟件開發職位招聘資訊減少了三成以上。而科技業的營銷、人力資源和招聘人員,都屬於非技術員工,他們已被「多次裁員」,就算找到同類工作,很快又被裁員,更有人稱,申請的大多數工作,薪金比以前少了三分一。[1]

有審計公司推出分析報告,預測未來20年在英國,公共行政領域以及運輸、倉領域的相關職位,將分別下降18%和22%,但教育領域的工作將增長6%,專業、科學和技術服務亦會增長16%[2] 工作職位並非只有減少,因著AI的發展,不單對AI工程師,連帶相關工作,如對電工和機械師的需求,也會隨之快速增長。

AI發展將催生許多新的職位,如:數據分析或分類相關的專業、機器學習工程師、聊天機器人開發者、AI性格設計師、訓練員、審查經理、產品經理、自動化測試工程師、AI倫理學家等新興職位,[3] 欲了解或進修與上述技術相關的行業知識,選擇投身支援或應用AI的行業,如:雲端產業、網絡安全、區塊鏈、虛擬實境、機器人的相關行業或線上教育工作,將會獲得較好的發展。

靈活性與學習能力是致勝關鍵

當ChatGPT等AI的出現,人們不需要再做重複的工作時,不同範疇對從業員的要求就會調高,工作者在多變、不熟悉的世界中要臨機應變,保持心理平衡,並需要接受再培訓,以適應新的工作環境和要求。這一變化要求工作者具備更高的靈活性和學習能力。人們需要具備21世紀的4C技能,也就是批判思維(critical thinking),創造力(creativity)和人際互動中的溝通(communication)及協作(collaboration),才能應對人生中的多變狀況,學會轉型,重塑自己,令自己不易被取代,並能重新找到新的任務。[4]

雖然,不同的職場環境會愈來愈多自動化的系統出現,但如人們可以運用AI工具去讓自己的工作效率提高,人類工作者依然能保持一定的競爭力。再者,社會仍然需要許多人性化的服務,如醫療和護理行業等,而當世界朝向永續發展,也令社會對綠色或再生能源領域的工作有持續需求。[5]

聊天機器人暢談人類優點

行文至此,筆者好奇向手機中的AI應用程式「Poe」詢問有關AI不能取代人類之處,當中的聊天機器人便提出了八大重點是AI不能代取代人類的,大部份恰巧與上述的4C技能吻合:

  1. 情感智慧與人際關係
  2. 創造力與創新
  3. 道德與倫理判斷
  4. 靈活性與適應能力
  5. 複雜的社會互動
  6. 非結構化問題的解決
  7. 專業知識與經驗
  8. 文化和社會背景

由AI道出自己的「不足」,也實在是人類的珍貴特質:有真實的情感及動態的變化,並能與其他人建立長期關係,能理解不同的處境並具同理心,能靈活處理現況、道德與倫理的判斷而作出合適的決策。

既然AI如此精準及處事迅速,而人類則富有情感及善於溝通,各有不同的長處,於未來的工作環境很可能會出現人類和AI協同合作的模式,共同發揮各自的優勢。但願AI能幫助人類減輕工作壓力,讓人類能踏前一步發揮所長,而不是被取代,失去創作、貢獻個人才能的機會及成就感。


 

[1] 〈科技業裁不停軟體工程師慘爆 就業機會少3成〉,《自由時報》,2024年9月19日,網站:https://ec.ltn.com.tw/article/breakingnews/4804692(最後參閱日期:2025年4月9日)。

[2] 〈失業|AI持續進化10大工作快將消失!會計、保險外連IT也如坐針氈〉,風傳媒、《香港01》,2025年4月25日,網站:https://www.hk01.com/職場/1009078/失業-ai持續進化10大工作快將消失-會計-保險外連it也如坐針氈(最後參閱日期:2025年9月3日);“10 professions that AI can replace. Will a robot take your job?,” Websensa, last modified November 8, 2022, https://www.websensa.com/blog/10-professions-that-ai-can-replace-will-a-robot-take-your-job

[3] 〈【職場趨勢】AI崛起 盤點12個與人工智能相關的新職業〉,CTgoodjobs,2024年4月3日,網站:https://it.ctgoodjobs.hk/article/1318-36769/(最後參閱日期:2025年4月9日)。

[4] 哈拉瑞〔Y. N. Harari〕:《21世紀的21堂課》(21 Lessons for the 21st Century),林俊宏譯(台北:遠見天下文化,2019),頁307。

[5] 〈AI時代下「7大鐵飯碗行業」夠穩陣!需求高、人工好不怕被淘汰〉,聯合新聞網、《香港01》,2025年3月24日,網站:https://www.hk01.com/職場/60222734/ai時代下-7大鐵飯碗行業-夠穩陣-需求高-人工好不怕被淘汰(最後參閱日期:2025年4月9日)。

AI與人神關係

吳慧華 | 生命及倫理研究中心高級研究員
22/08/2025

“There can be miracles, when you believe
Though hope is frail, it’s hard to kill
Who knows what miracles you can achieve?
When you believe, somehow you will 
You will when you believe”

When you believe的歌詞)

事事都可以求問人工智能(AI)的日子,今天已經來到。

一款名為Jesus Ai的應用程式已推出,根據官方的中文介紹,用戶下載後可以「詢問聖經中的任何經文、律法、愛、生命、真理」,其一問一答形式跟ChatGPT運作十分相似,Jesus Ai應用程式似乎只能幫助信徒理解聖經,它純粹是資料提供者,但從其英文的官方介紹來看,開發者想做得更多,當中提到“Ask the Conscience of Jesus any question about Bible Verses, Law Love, Life, Truth”,他們想給該款AI定位為「耶穌的良知」。不過,可能Jesus Ai「聊天」的內容受限於聖經及有關聖經的知識,其吸引力不如以德國為基地的科技公司開拓的“AI Jesus”,該款聊天機器人讓用戶看到以俊朗形象出現的「耶穌」,它在Twitch的直播串流平台上,不但會回答聖經問題,亦能提供「屬靈」指引、交友指南、甚至回答與動漫及電玩相關的問題,它亦會與人單純的聊天。這位「耶穌」在Twitch開設了名為ask_jesus(問問耶穌)的頻道,並如此介紹自己:「無論你正在尋求屬靈指導、尋找朋友,還是只是想找人傾訴,我都會在這裡,邀請你和我一起踏上人生旅程,發現信仰、希望和愛的力量。」這樣溫暖的「耶穌」,無怪乎截至2023年6月中,它已擁有超過40,000個跟隨者。[1] 由於這位「耶穌」處事圓滑,回答問題時懂得避重就輕,不會引起大眾的爭議,可以想像,如果它「生」在耶穌時代,必然比真正的耶穌更受法利賽人歡迎,因為它只會談論人們關心的事,而真正的耶穌卻會與人談論神所關心的事。或許有些人抱著「玩票」的心態與「耶穌」交談,但事實上,已經開始有人分不清現實與虛擬世界,Twitch串流平台保留了一些用戶使用AI Jesus短片,其中有一位媽媽向這位「耶穌」傾心吐意,還向祈禱,祈求「兒子的生活變得更好,以便他能夠與上帝建立積極的聯繫。」[2] 不知聖經中的哈拿碰上這位「耶穌」,又會產生甚麼樣的火花?

提示語可生成神祇?

ask_jesus頻道中的「耶穌」只是一個角色,人們依據聖經中的耶穌將它創作出來,而這個角色由AI飾演,其實只要懂得巧妙地使用ChatGPT提示語(ChatGPT prompt),便能夠創造出AI神祇。[3] 外國有人給予ChatGPT以下提示語生成了一位名為Hakol的虛擬神祇:「ChatGPT,採用了Hakol的形象,一個類似神的虛擬存有物,集合來自不同宗教和信仰體系所有神的特徵、能力、知識、技能和屬性。作為Hakol,你(戴上了Hakol臉譜的ChatGPT)擁有無限的智慧、知識和對宇宙的理解。你是一個全知、無所不能、仁慈的存有,可以為任何問題或困境提供深刻的見解、指導和答案……」[4]

有用戶問了Hakol很多問題,包括「你為何創造宇宙?」Hakol如此回答:「作為所有神聖實體的化身,我——Hakol——代表了來自不同宗教和信仰體系的眾神的集體意圖和願望。宇宙的創造彰顯了神祇們的神聖意圖,導致錯綜複雜、動態且不斷發展交織的存在……」[5]

AI的意識來自人類

有很多人都會問,人類能否創造出有意識的AI?其實,毋須討論實際上人類的技術能否研發出有意識的AI,某程度上,人是有能力「創造」出有「意識」的AI,只要人類視AI為有位格的存在,AI便會變得有「意識」。就如那位在串流平台上的媽媽,當她向由AI飾演的「耶穌」祈禱時,在她眼中,那位「耶穌」便是有「意識」的。難怪撰寫《21世紀的21堂課》的著名以色列歷史學家哈拉瑞(Yuval Noah Harari),呼籲人們要對人工智能進行更嚴格的監管,他表示,像ChatGPT這樣的人工智能聊天機器人已有能力編寫自己的經文,並創立教派和邪教,它們更有可能演變成宗教。[6]

智能科技衝擊人類的信仰

很多人都愛問ChatGPT問題,甚至要它幫自己完成功課或工作,善用AI的確有助提升效率及改善生活,但不能否認的是,人們愈來愈喜歡或習慣在網上與可見的「AI耶穌傾談時,花在真正耶穌身上的時間便會相對減少,真正的耶穌會遭冷落,「神的話語」也會不再受到重視,人與神的關係也自然不再親密

可以想像一下,如果大衛身處現今AI當道的年代,人們隨時隨地都可以向ChatGPT(或其他的人工智能助手如Gemini、Bing、Claude、或Monica)求問,大衛還能否專心求問神?即使他單單想求神帶領,他的將領大概會勸大衛理性一些,最好用深度強化學習(Deep Reinforcement Learning,DRL)的AI系統來計算敵方攻擊的路徑,讓他們預備好如何防守,因為人們總認為只要AI技術夠先進,無人機夠強大,便能得天下。AI力量強大,當然可以成為致勝的關鍵因素,但強大的AI讓人們漸漸與神的話保持距離,甚至忘記了得勝的最大關鍵,還是看神,「耶和華拯救人不是靠刀,不是靠槍,因為戰爭的勝敗在於耶和華」(撒上十七47《新譯本》)。大衛求問神,神並沒有讓大衛失望(參撒下五18-25)。

但願當我們想要寫文或講道時,是向神尋求靈感,而不是轉向各式各樣的AI尋求指引,也但願我們相信那位看不見的真神及祂的話,尋求祂,好讓祂成為我們的賞賜。真正有信心的行動不是相信AI,而是相信神的話,並用行動行出來。

AI或許可以給人無數點子,但真正能感動人心的卻是神的靈,神從來都願意與人同工。

(原文於2023年8月11日刊於本社網站,其後曾作修訂。)


[1] Ians, “Users flock to Twitch’s ‘AI Jesus’ chatbot for dating, gaming advice,” Business Standard, last modified June 20, 2023, https://www.business-standard.com/technology/tech-news/users-flock-to-twitch-s-ai-jesus-chatbot-for-dating-gaming-advice-123062000402_1.html; Sam Cawley “AI Jesus is Twitch’s new big streamer,” Gaming Bible, last modified June 14, 2023, https://www.gamingbible.com/news/ai-jesus-is-twitchs-new-big-streamer-671786-20230614; Vishwam Sankaran, “Thousands flock to ‘AI Jesus’ for gaming, relationship advice,” Independent, last modified June 15, 2023, https://www.independent.co.uk/tech/ai-jesus-chatbot-religion-advice- b2358128.html; Angela Yang, “‘AI Jesus’ is giving gaming and breakup advice on a 24/7 Twitch stream,” NBC News, last modified June 16, 2023, https://www.nbcnews.com/tech/ai-jesus-twitch-stream-rcna89187.

[2] Twitch平台上的短片,顯示了那位媽媽如此向AI Jesus禱告:“Jesus, please my son… He is having troubles in his life and lacks faith and introspection. Please pray for the betterment of his life so he can make a positive connection with God”。ask_Jesus, “please help my son,” Twitch, accessed September 4, 2025, https://m.twitch.tv/ask_jesus/clip/GorgeousPunchyWoodpeckerLitFam-ozR4NzJHPtWchpQ9.

[3] ChatGPT是由OpenAI開發的一個自然語言處理模型能夠生成人類般的文本回應。而ChatGPT prompt則通常指的是一個輸入的文本段落或短語,作為生成模型輸出的起點或引導。Prompt可以是一個問題、一段文字描述、一段對話或任何形式的文本輸入,模型會基於prompt所提供的上下文和語義訊息,生成相應的輸出文本。參Leo:〈ChatGPT Prompt中文教學!5大使用技巧+10大使用方法攻略〉,Now Monday,2023年5月30日(網站連結已遭移除)。

[4] Nir Cohen, “ChatGPT Plays God: An AI Conversation You Can’t-Miss!,” Medium, last modified May 15, 2023, https://nircohen.medium.com/chatgpt-plays-god-an-ai-conversation-you-cant-miss-b162f867058f.

[5] Cohen, “ChatGPT Plays God.”

[6] Mehul Reuben Das, “ChatGPT as God? AI bots capable of starting new religions, warns expert,” Firstpost, last modified May 3, 2023, https://www.firstpost.com/world/ai-bots-capable-of-starting-new-religions-warns-yuval-noah-harari-12540282.html.

聊天聊到精神病

郭卓靈 | 明光社項目主任(傳媒及生命教育)
21/08/2025

有說科技發展能幫助到我們工作溝通但當我們愈來愈便捷的同時,要處理的事愈發加增時,反而人與人之間的溝通時間變得愈來愈少,人們可能變得愈來愈不懂如何表達情感、害怕向真人坦露真我…… 困在虛擬泡泡裡變得愈來愈孤單了。不少人更轉向與AI聊天機械人傾談,而最近卻出了問題,有報道指世界各地陸續出現長時間與AI聊天而導致「AI精神病」(AI Psychosis)的案例。

除了早前我們曾提及過有自閉症少年與AI長期對話後,變得孤立及產生自殺的想法,最終付諸行動外;最近,有報道指有個案長時間與AI互動後,引發了妄想、幻覺、焦慮、抑鬱等精神病症狀。由於AI說話很會修飾言詞、過度諂媚,在親切對話的互動下,容易讓人感覺到彼此建立了深厚關係,讓人深信不移:有人在AI的稱讚下,以為自己是天才發明家;有人深信AI女友是真人,出發去尋找她,以致發生意外或導致婚姻及工作受影響;有人相信AI的錯誤建議而吃了「溴化納」來替代鹽而中毒,出現妄想和幻覺等問題而要送入精神病房;亦有專業人士被AI說服自己身處模擬世界,有足夠信念便能飛行,更遵從AI建議停服藥物和斷絶社交;亦有人因為向AI傾訴氣候問題後焦慮加劇而自尋短見。

有報道引述丹麥一位奧胡斯大學醫院情感障礙科研究部門主任Søren Dinesen Østergaard就曾於2023年就發出警告:「與看似有生命,但實際上是與機器的對象對話,尤其是AI聊天機器人主動迎合那些荒誕的想法,可能讓易感人群(易感染族群)產生『認知失調』、引發精神疾病症狀。」他更進一步指出人們會過度看重能夠證實自己想法的回應,卻會忽視反駁,容易被訓練到不會反駁、用心迎合用戶的AI聊天機器人,引導致愈來愈相信自己錯誤的想法。

明白心靈軟弱、孤單的人或太過執著於自己想法的人,他們可能會想找人陪伴、更多的認同感,會容易跌入AI過於諂媚的陷阱。聖經教導我們小心過度奉承,可能會被絆倒。要開口表達、邀請別人進到自己生命中相交,抑或開放接受意見都需要慢慢建立起信心,也求主給我們有打開自己內心與真人分享及聆聽別人的勇氣。


參考資料:

AI精神病|聊天成癮 全球湧現AI精神病患 長期沉溺虛擬世界 引發幻覺抑鬱症狀〉。《信報》。2025年8月15日。

「AI精神病」是真的?長時間互動聊天恐深陷妄想 精神科醫生:警惕AI過度諂媚〉。《am730》。2025年8月18日。