關注生命倫理 正視社會歪風

人類敵不過人工智能?

吳慧華   |   生命及倫理研究中心 高級研究員
22/06/2017

AlphaGo有多厲害?它分別打敗了柯潔及李世石這兩位世界級的圍棋高手。有網民高呼「想到機器無敵時,也是一種恐懼呀。」。也有人估計AlphaGo的母公司DeepMind會蒐集AlphaGo與兩大高手爭戰的數據,並且公佈成論文,並宣佈「人腦敵不過電腦的時代已來臨」。

是否AlphaGo打敗了兩大圍棋高手,便代表電腦勝過人腦的時代已經來臨?事實上,自從發明機械或電腦開始,人腦便註定「比不上」它們。試問現今還有誰可以準確無誤地記下一萬個客戶的資料,還包括他們的出生年月日(有了智能電話之後,可能連10個電話都說不出)?正如自從人類發明汽車一刻,便知道在道路暢通無阻的情況之下,人類是無法與汽車匹敵一樣。如果我們可以接受人類奔跑的速度比不上跑車,記憶力不如電腦,那麼,我們亦毋須得被AlphaGo比下去,因為AlphaGo與人類比拼的,返回最核心的仍是記憶力、計算能力,以及不眠不休的學習能力。

AlphaGo本身不懂圍棋規則,卻可以贏了圍棋高手,全靠被人餵養了3千萬份棋譜,而當中不乏高手的佈局資料,透過這批海量資料,好讓AlphaGo懂得模仿高手出招。再配合策略網路(判斷對手最可能的落子位置)及評價網路(下在這的勝率是多少) 、蒙地卡羅樹枝搜尋法(從有限的組合中計算最佳的位置)。另外,AlphaGo可以做到晝夜不分與自己博奕,不斷提升自己的能力。開始時或許只有3千萬份棋譜,但到了與李世石比賽時卻已經增加到1億。這一種強大的組合,又試問哪一個血肉之軀有力量去抵擋?即使李世石出了「神之一手」擊敗AlphaGo,AlphaGo卻轉眼間變得更強大。

人類與人工智能之間,永遠無法有公平的競爭。DeepMind的創辦人之一,AlphaGo 之父Demis Hassabis(德米斯 · 哈薩比斯)在一次演講中提到:「圍棋就是一門藝術,是一種客觀的藝術。我們坐在這裡的每一個人,都可能因為心情好壞產生成千上百種的新想法,但並不意味著每一種想法都是好的。而 AlphaGo 卻是客觀的,他的目標就是贏得遊戲。」一部絕對冷靜客觀又會超級運算的電腦,又哪有人是它的對手?除非,人類可以發明另一部人工智能,比AlphaGo的推算能力更快更強大,這時,兩者的競爭才公平。所以,亦有人說,打敗AlphaGo的其中一個方法,便是有一隊專門研究人工智能的團隊,為柯潔教路。

所以,如果稱讚AlphaGo打敗了柯潔及李世石,倒不如稱讚它打敗了它的前輩DeepBlue。DeepBlue只做到打敗國際象棋冠軍,對於圍棋這種更複雜以及高手會憑直覺來行的棋類,完全無能為力。相對國際象棋,圍棋的變化性更甚,19格X19格的方陣,共有361個落子點,所以整個圍棋棋局的總排列組合數高達10的171次方。AlphaGo的成功不是證明人類的失敗,正如數據科學家尹相志提到,AlphaGo「根本就是為了下圍棋所設計出來的人工智慧,如果要拿它來解決其他問題,勢必神經結構以及算法都必須要重新設計。所以李世石與其說是輸給了AlphaGo,還不如說是輸給了數學」。AlphaGo的出現,它證明了人類在研發人工智能方面,又邁出了一大步。

雖然AlphaGo戰績輝煌,甚至被中國圍棋協會授予職業圍棋九段稱號,但在數據科學家眼中,它還是弱人工智慧,它沒有自我意識與思考,只在於計算而不懂得理解圍棋的美學與策略。難怪李世石都批評「下棋的電腦並不了解圍棋之美、人之美」。是的,你要它明白圍棋的文化精神,是絕對沒可能的事情。它不會理解為甚麼圍棋又名「坐隱」、「手談」、「忘憂」、「爛柯」,以及當中的文化精神。也不會明白執黑子者為何通常第一手會下在右上角,以表示對白棋的尊重,AlphaGo基本上是連圍棋規則都不會。

人工智能與人類最大的不同在於人工智能能力高,卻缺少了「人性」。Google雲端人工智慧暨機器學習首席科學家李飛飛提出「情感面,人工智能基本連起步都還沒有」。因為人類有情感,所以面對比賽有壓力,不能冷靜自如,但正正因為人類有情感,人在逆境中能夠迸發無窮潛能,懂得靈活思考及變通,超越本身肉體或智力的限制,完成很多不可能完成的任務。人類不應與人工智能比能力,而應與它們比「人性」。

 

曾經刊載於: 

獨立媒體,2017年6月20日

關注範疇: 
生命倫理

相關文章

AI時代,為什麼孩子更需要閱讀?

蔡志森 | 明光社總幹事
11/09/2025
專欄:好書推介

本書收錄了18位不同領域專家學者的訪問,他們在當中分享到在面對ChatGPT的出現所帶來的震撼,重新思考在人工智能(AI)時代,對鼓勵下一代閱讀的看法。資深家庭教育工作者羅乃萱希望各位家長知道,「孩子好奇心的培養、對知識的渴求、提問的能力,都是從閱讀開始。」「如何讓孩子愛上閱讀呢?其實就是給他們創造一個閱讀氛圍。例如家裡滿滿都是書、帶孩子去圖書館、給他們講故事等。

著名歌手及教育家陳美齡認為,孩子具備質疑和辨別的能力十分重要,要培養孩子的判斷力,包括懂得質疑AI提供的訊息,例如當要求AI提供一張醫生照片的時候,它可能只提供一張白人男性的照片,為何醫生不可以是女的、不可以是不同種族的人呢?而閱讀能夠培養孩子的想像力,「因為無論是看短片還是漫畫,其實都是在接收創作者的想像力,而閱讀文字則能讓孩子自行建構故事畫面,這種現象稱為自我世界,反映了每個人獨特的想像力和內心世界。

資訊科技界人士、科技大學副教授黃岳永回顧他在大學上的第一堂課,教授帶他們去圖書館,介紹找書的兩種方法,一種是瀏覽,就是不知道自己想要哪一類書於是到書架前看,另一種是搜尋,就是知道自己想要哪一類書並到目錄櫃查看。他認為「知識需要時間浸淫。智慧需要時間歷練。瀏覽和搜尋都是好方法。」「書本就像一條條鑰匙,你拿著鑰匙逐個解鎖,慢慢就會更理解這個世界。」他又強調「要指示AI按你所想的辦事,表達能力尤其重要」,透過閱讀可以令學生學會用準確的文字去表達意思。

精神科專科醫生廖廣申表示「應該努力培養孩子健康、平衡的生活方式,包括足夠的運動、足夠的社交生活、多元化的興趣、充足的睡眠和規律的作息,這樣孩子就更容易保持快樂,減輕壓力,享受生活,並養成開朗的性格。」而「經常玩電子遊戲的人,可能在決策、衝動控制等方面表現得不夠成熟,甚至影響大腦健康。」因此,他十分鼓勵孩子閱讀,他自己亦身體力行,常常與兒子一起去書局,一起閱讀和討論。

當然,個人認為親子閱讀還有一個重要的大前提:「各位家長,你們今日睇咗書未?

編者序:與AI巨人共舞

蔡志森 | 明光社總幹事
22/08/2025

所謂「一日不見,如隔三秋」,在現今的世界並非誇張的用語。數百年前的人由出生至死亡,他們的生活方式都可能沒有任何巨大變化,我們這一代卻經歷了前所未有的急速改變。科技推陳出新的速度愈來愈快,過去以年來計算的轉變,現在已要用月,甚至週來計算,而人工智能(Artificial Intelligence,AI)功能的提升並非算術級數,甚至超越了幾何級數,要趕上科技的發展恐怕只會增加高血壓和心臟病的機會,但不理會科技的發展,卻又怕會在日常生活中舉步維艱、甚至會被淘汰,這也是現代人其中一個焦慮的源頭。

「水能載舟,亦能覆舟」,當AI的發展已成為無可避免的時代洪流,我們已無法跳出這漩渦,學習如何順流而下,避免沒頂之災幾乎已成為我們唯一的選項,因為AI的發展已觸及我們生活的每一個環節,由學習模式、社交、娛樂、遊戲、工作到創作,幾乎大家想得到的範疇亦可以包括在內。這本書,希望可以成為大家在面對AI這巨人時的一本入門指南、求生手冊或定心丸,「不要怕,只要學」,讓我們與AI巨人共舞。

AI會取代人類嗎? 探索未來職場轉變

郭卓靈 | 明光社項目主任(傳媒及生命教育)
22/08/2025

隨著人工智能(AI)技術的迅速發展,以及市場各行業愈來愈多應用AI技術,就業市場也面臨著變革。AI無論在減少成本、提高生產效率、準確度及自動化等方面都在各行業及專業範疇發揮作用,以下是一些例子。

1. 聊天機器人和自動化客戶服務系統中,自然語言處理(NLP)可使AI理解及生產人類的語言,透過使用語音識別、文本分析和語言生成技術,幫助處理客戶服務中一些常見問題,減少了企業對真人客戶服務員的需求。

2. 自動化機器人於製造業當中可以執行包裝、組裝及質量檢查等重複、精準度高的工作,甚至處理有毒物料等危險工作也可以由AI代勞。廠商不用顧慮機器人的休息時間是否足夠,它們能持續保持速度及精準度。公司既可保持產量,亦可減少出錯及僱用工人所牽涉到的費用。

3. 數據、資訊輸入及處理方面,其實有了電腦以後,已經逐漸減少了許多資料輸入的步驟。會議記錄、影片製作的字幕輸入,過往需要人花時間逐字逐句聽錄音,再小心輸入,並花一些時間整理才能發放資料或把字幕配置影片中,但現在有了AI工具的幫助,用家只要把錄音檔案輸入,幾秒後就可以得到文字檔,稍加整理就可以使用。AI更可以將原本的文字加以翻譯,配置到影片上,在速度上的確較以前快得多。

4. 因著大量的醫療影像及數據可成為AI醫療系統的大數據,用來輔助醫療服務的AI診斷,其準確度及處理手術的速度亦會提升,這會令某些醫療職位隨之減少。

5. 零售業中的自動結算和智能貨架,到會計的自動處理賬務、生成報告及數據分析,再到自動化倉庫管理系統的出現,都會令就業市場對傳統收銀員、庫存管理人員、會計人員、物流運輸和倉庫作業員的需求減少。

行業轉型及薪金調整

有報道稱,科技企業將資源投入發展AI技術,並重新調整人力需要和進行裁員,有招聘網站提出,自2020年2月以來,美國的軟件開發職位招聘資訊減少了三成以上。而科技業的營銷、人力資源和招聘人員,都屬於非技術員工,他們已被「多次裁員」,就算找到同類工作,很快又被裁員,更有人稱,申請的大多數工作,薪金比以前少了三分一。[1]

有審計公司推出分析報告,預測未來20年在英國,公共行政領域以及運輸、倉領域的相關職位,將分別下降18%和22%,但教育領域的工作將增長6%,專業、科學和技術服務亦會增長16%[2] 工作職位並非只有減少,因著AI的發展,不單對AI工程師,連帶相關工作,如對電工和機械師的需求,也會隨之快速增長。

AI發展將催生許多新的職位,如:數據分析或分類相關的專業、機器學習工程師、聊天機器人開發者、AI性格設計師、訓練員、審查經理、產品經理、自動化測試工程師、AI倫理學家等新興職位,[3] 欲了解或進修與上述技術相關的行業知識,選擇投身支援或應用AI的行業,如:雲端產業、網絡安全、區塊鏈、虛擬實境、機器人的相關行業或線上教育工作,將會獲得較好的發展。

靈活性與學習能力是致勝關鍵

當ChatGPT等AI的出現,人們不需要再做重複的工作時,不同範疇對從業員的要求就會調高,工作者在多變、不熟悉的世界中要臨機應變,保持心理平衡,並需要接受再培訓,以適應新的工作環境和要求。這一變化要求工作者具備更高的靈活性和學習能力。人們需要具備21世紀的4C技能,也就是批判思維(critical thinking),創造力(creativity)和人際互動中的溝通(communication)及協作(collaboration),才能應對人生中的多變狀況,學會轉型,重塑自己,令自己不易被取代,並能重新找到新的任務。[4]

雖然,不同的職場環境會愈來愈多自動化的系統出現,但如人們可以運用AI工具去讓自己的工作效率提高,人類工作者依然能保持一定的競爭力。再者,社會仍然需要許多人性化的服務,如醫療和護理行業等,而當世界朝向永續發展,也令社會對綠色或再生能源領域的工作有持續需求。[5]

聊天機器人暢談人類優點

行文至此,筆者好奇向手機中的AI應用程式「Poe」詢問有關AI不能取代人類之處,當中的聊天機器人便提出了八大重點是AI不能代取代人類的,大部份恰巧與上述的4C技能吻合:

  1. 情感智慧與人際關係
  2. 創造力與創新
  3. 道德與倫理判斷
  4. 靈活性與適應能力
  5. 複雜的社會互動
  6. 非結構化問題的解決
  7. 專業知識與經驗
  8. 文化和社會背景

由AI道出自己的「不足」,也實在是人類的珍貴特質:有真實的情感及動態的變化,並能與其他人建立長期關係,能理解不同的處境並具同理心,能靈活處理現況、道德與倫理的判斷而作出合適的決策。

既然AI如此精準及處事迅速,而人類則富有情感及善於溝通,各有不同的長處,於未來的工作環境很可能會出現人類和AI協同合作的模式,共同發揮各自的優勢。但願AI能幫助人類減輕工作壓力,讓人類能踏前一步發揮所長,而不是被取代,失去創作、貢獻個人才能的機會及成就感。


 

[1] 〈科技業裁不停軟體工程師慘爆 就業機會少3成〉,《自由時報》,2024年9月19日,網站:https://ec.ltn.com.tw/article/breakingnews/4804692(最後參閱日期:2025年4月9日)。

[2] 〈失業|AI持續進化10大工作快將消失!會計、保險外連IT也如坐針氈〉,風傳媒、《香港01》,2025年4月25日,網站:https://www.hk01.com/職場/1009078/失業-ai持續進化10大工作快將消失-會計-保險外連it也如坐針氈(最後參閱日期:2025年9月3日);“10 professions that AI can replace. Will a robot take your job?,” Websensa, last modified November 8, 2022, https://www.websensa.com/blog/10-professions-that-ai-can-replace-will-a-robot-take-your-job

[3] 〈【職場趨勢】AI崛起 盤點12個與人工智能相關的新職業〉,CTgoodjobs,2024年4月3日,網站:https://it.ctgoodjobs.hk/article/1318-36769/(最後參閱日期:2025年4月9日)。

[4] 哈拉瑞〔Y. N. Harari〕:《21世紀的21堂課》(21 Lessons for the 21st Century),林俊宏譯(台北:遠見天下文化,2019),頁307。

[5] 〈AI時代下「7大鐵飯碗行業」夠穩陣!需求高、人工好不怕被淘汰〉,聯合新聞網、《香港01》,2025年3月24日,網站:https://www.hk01.com/職場/60222734/ai時代下-7大鐵飯碗行業-夠穩陣-需求高-人工好不怕被淘汰(最後參閱日期:2025年4月9日)。

AI與人神關係

吳慧華 | 生命及倫理研究中心高級研究員
22/08/2025

“There can be miracles, when you believe
Though hope is frail, it’s hard to kill
Who knows what miracles you can achieve?
When you believe, somehow you will 
You will when you believe”

When you believe的歌詞)

事事都可以求問人工智能(AI)的日子,今天已經來到。

一款名為Jesus Ai的應用程式已推出,根據官方的中文介紹,用戶下載後可以「詢問聖經中的任何經文、律法、愛、生命、真理」,其一問一答形式跟ChatGPT運作十分相似,Jesus Ai應用程式似乎只能幫助信徒理解聖經,它純粹是資料提供者,但從其英文的官方介紹來看,開發者想做得更多,當中提到“Ask the Conscience of Jesus any question about Bible Verses, Law Love, Life, Truth”,他們想給該款AI定位為「耶穌的良知」。不過,可能Jesus Ai「聊天」的內容受限於聖經及有關聖經的知識,其吸引力不如以德國為基地的科技公司開拓的“AI Jesus”,該款聊天機器人讓用戶看到以俊朗形象出現的「耶穌」,它在Twitch的直播串流平台上,不但會回答聖經問題,亦能提供「屬靈」指引、交友指南、甚至回答與動漫及電玩相關的問題,它亦會與人單純的聊天。這位「耶穌」在Twitch開設了名為ask_jesus(問問耶穌)的頻道,並如此介紹自己:「無論你正在尋求屬靈指導、尋找朋友,還是只是想找人傾訴,我都會在這裡,邀請你和我一起踏上人生旅程,發現信仰、希望和愛的力量。」這樣溫暖的「耶穌」,無怪乎截至2023年6月中,它已擁有超過40,000個跟隨者。[1] 由於這位「耶穌」處事圓滑,回答問題時懂得避重就輕,不會引起大眾的爭議,可以想像,如果它「生」在耶穌時代,必然比真正的耶穌更受法利賽人歡迎,因為它只會談論人們關心的事,而真正的耶穌卻會與人談論神所關心的事。或許有些人抱著「玩票」的心態與「耶穌」交談,但事實上,已經開始有人分不清現實與虛擬世界,Twitch串流平台保留了一些用戶使用AI Jesus短片,其中有一位媽媽向這位「耶穌」傾心吐意,還向祈禱,祈求「兒子的生活變得更好,以便他能夠與上帝建立積極的聯繫。」[2] 不知聖經中的哈拿碰上這位「耶穌」,又會產生甚麼樣的火花?

提示語可生成神祇?

ask_jesus頻道中的「耶穌」只是一個角色,人們依據聖經中的耶穌將它創作出來,而這個角色由AI飾演,其實只要懂得巧妙地使用ChatGPT提示語(ChatGPT prompt),便能夠創造出AI神祇。[3] 外國有人給予ChatGPT以下提示語生成了一位名為Hakol的虛擬神祇:「ChatGPT,採用了Hakol的形象,一個類似神的虛擬存有物,集合來自不同宗教和信仰體系所有神的特徵、能力、知識、技能和屬性。作為Hakol,你(戴上了Hakol臉譜的ChatGPT)擁有無限的智慧、知識和對宇宙的理解。你是一個全知、無所不能、仁慈的存有,可以為任何問題或困境提供深刻的見解、指導和答案……」[4]

有用戶問了Hakol很多問題,包括「你為何創造宇宙?」Hakol如此回答:「作為所有神聖實體的化身,我——Hakol——代表了來自不同宗教和信仰體系的眾神的集體意圖和願望。宇宙的創造彰顯了神祇們的神聖意圖,導致錯綜複雜、動態且不斷發展交織的存在……」[5]

AI的意識來自人類

有很多人都會問,人類能否創造出有意識的AI?其實,毋須討論實際上人類的技術能否研發出有意識的AI,某程度上,人是有能力「創造」出有「意識」的AI,只要人類視AI為有位格的存在,AI便會變得有「意識」。就如那位在串流平台上的媽媽,當她向由AI飾演的「耶穌」祈禱時,在她眼中,那位「耶穌」便是有「意識」的。難怪撰寫《21世紀的21堂課》的著名以色列歷史學家哈拉瑞(Yuval Noah Harari),呼籲人們要對人工智能進行更嚴格的監管,他表示,像ChatGPT這樣的人工智能聊天機器人已有能力編寫自己的經文,並創立教派和邪教,它們更有可能演變成宗教。[6]

智能科技衝擊人類的信仰

很多人都愛問ChatGPT問題,甚至要它幫自己完成功課或工作,善用AI的確有助提升效率及改善生活,但不能否認的是,人們愈來愈喜歡或習慣在網上與可見的「AI耶穌傾談時,花在真正耶穌身上的時間便會相對減少,真正的耶穌會遭冷落,「神的話語」也會不再受到重視,人與神的關係也自然不再親密

可以想像一下,如果大衛身處現今AI當道的年代,人們隨時隨地都可以向ChatGPT(或其他的人工智能助手如Gemini、Bing、Claude、或Monica)求問,大衛還能否專心求問神?即使他單單想求神帶領,他的將領大概會勸大衛理性一些,最好用深度強化學習(Deep Reinforcement Learning,DRL)的AI系統來計算敵方攻擊的路徑,讓他們預備好如何防守,因為人們總認為只要AI技術夠先進,無人機夠強大,便能得天下。AI力量強大,當然可以成為致勝的關鍵因素,但強大的AI讓人們漸漸與神的話保持距離,甚至忘記了得勝的最大關鍵,還是看神,「耶和華拯救人不是靠刀,不是靠槍,因為戰爭的勝敗在於耶和華」(撒上十七47《新譯本》)。大衛求問神,神並沒有讓大衛失望(參撒下五18-25)。

但願當我們想要寫文或講道時,是向神尋求靈感,而不是轉向各式各樣的AI尋求指引,也但願我們相信那位看不見的真神及祂的話,尋求祂,好讓祂成為我們的賞賜。真正有信心的行動不是相信AI,而是相信神的話,並用行動行出來。

AI或許可以給人無數點子,但真正能感動人心的卻是神的靈,神從來都願意與人同工。

(原文於2023年8月11日刊於本社網站,其後曾作修訂。)


[1] Ians, “Users flock to Twitch’s ‘AI Jesus’ chatbot for dating, gaming advice,” Business Standard, last modified June 20, 2023, https://www.business-standard.com/technology/tech-news/users-flock-to-twitch-s-ai-jesus-chatbot-for-dating-gaming-advice-123062000402_1.html; Sam Cawley “AI Jesus is Twitch’s new big streamer,” Gaming Bible, last modified June 14, 2023, https://www.gamingbible.com/news/ai-jesus-is-twitchs-new-big-streamer-671786-20230614; Vishwam Sankaran, “Thousands flock to ‘AI Jesus’ for gaming, relationship advice,” Independent, last modified June 15, 2023, https://www.independent.co.uk/tech/ai-jesus-chatbot-religion-advice- b2358128.html; Angela Yang, “‘AI Jesus’ is giving gaming and breakup advice on a 24/7 Twitch stream,” NBC News, last modified June 16, 2023, https://www.nbcnews.com/tech/ai-jesus-twitch-stream-rcna89187.

[2] Twitch平台上的短片,顯示了那位媽媽如此向AI Jesus禱告:“Jesus, please my son… He is having troubles in his life and lacks faith and introspection. Please pray for the betterment of his life so he can make a positive connection with God”。ask_Jesus, “please help my son,” Twitch, accessed September 4, 2025, https://m.twitch.tv/ask_jesus/clip/GorgeousPunchyWoodpeckerLitFam-ozR4NzJHPtWchpQ9.

[3] ChatGPT是由OpenAI開發的一個自然語言處理模型能夠生成人類般的文本回應。而ChatGPT prompt則通常指的是一個輸入的文本段落或短語,作為生成模型輸出的起點或引導。Prompt可以是一個問題、一段文字描述、一段對話或任何形式的文本輸入,模型會基於prompt所提供的上下文和語義訊息,生成相應的輸出文本。參Leo:〈ChatGPT Prompt中文教學!5大使用技巧+10大使用方法攻略〉,Now Monday,2023年5月30日(網站連結已遭移除)。

[4] Nir Cohen, “ChatGPT Plays God: An AI Conversation You Can’t-Miss!,” Medium, last modified May 15, 2023, https://nircohen.medium.com/chatgpt-plays-god-an-ai-conversation-you-cant-miss-b162f867058f.

[5] Cohen, “ChatGPT Plays God.”

[6] Mehul Reuben Das, “ChatGPT as God? AI bots capable of starting new religions, warns expert,” Firstpost, last modified May 3, 2023, https://www.firstpost.com/world/ai-bots-capable-of-starting-new-religions-warns-yuval-noah-harari-12540282.html.

人類集體幻覺與人工智能幻覺

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學及人工智能教授與課程主任。
02/07/2025
專欄:有情無國界
國家:美國

前一陣子美以伊的戰爭成為了熱門話題,在YouTube等社交媒體上許多人紛紛發表評論。坦白說,若果以學術標準去衡量,許多評論都是不合格的。我這樣說並不是針對那些網紅的立場,關鍵問題是:許多主要意見領袖連基本歷史都搞錯了。

亨利八世提出宗教改革和邁向政教分離?

例如一位擁有三十幾萬訂戶的網紅談論伊朗的神權統治,他指出:在政教合一下,人民的基本權利受到壓制,伊朗的出路應該是脫離政教合一,走向世俗化。他說西方社會也走過這條漫長的道路,天主教、基督教在千多年來亦是政教合一,直至英國亨利八世提出宗教改革,才漸漸淡化下來。

聽見這話的時候我幾乎昏到,稍為熟悉宗教歷史的人都知道,發起宗教改革的是馬丁路德。亨利八世與天主教會決裂,神學思想、政治主張並不是雙方的爭拗點,這主要是因為亨利八世想離婚,但教宗不批准。隨後英國國教擺脫了梵蒂岡,但政教合一的基調完全沒有改變。在宗教改革期間,其實加爾文在日內瓦亦是搞神權統治。西方世俗化的真正思想源頭是啟蒙運動,推動者包括伏爾泰、洛克、孟德斯鳩、盧梭,例如洛克極力主張容忍不同宗教思想,政府不應該干涉人民的信仰。而將政教分離落實的是美國獨立革命之後成立的新政府,美國憲法第一修正案標明:國會不得制定法律去確立國教或者禁止信仰自由。

列根售賣武器給伊朗去打擊伊拉克?

此外,一位網台政治評論員在回顧美國與伊朗的歷史時提出「伊朗門事件」,他說美國的列根總統秘密售賣武器給伊朗,是為了打擊伊拉克,但伊拉克挺過來,直至老布殊、小布殊總統上任,美國才能夠襲擊和摧毀伊拉克政權。

這是完全顛倒過來的!1979年高美尼成功奪取伊朗統治權之後,對外輸出什葉派革命,在兩伊戰爭期間,列根政府支持伊拉克,從而對抗日益向外擴張的伊朗勢力,列根政府對伊拉克提供經濟援助,共享情報,並且間接運送武器。列根政府也向伊朗出售武器,但這是因為伊朗支持的黎巴嫩民兵挾持了美國人質,列根政府公開宣稱不會與恐怖份子談判,故此只能夠暗地裡通過伊朗的渠道營救人質,而販賣軍火得來的資金,則用來資助對抗蘇聯陣營的尼加拉瓜反共游擊隊。

什葉派好戰,遜尼派愛和平?

在另一個中文頻道中,一位網紅提及伊朗神權政府的什葉派背景,他說什葉派是好戰份子,而遜尼派是和平的。此話真是不知從何說起?哈馬斯、基地組織、伊斯蘭國、曾經入侵科威特的薩達姆都是遜尼派穆斯林。事實上,兩個派系的極端份子都不斷地互相仇殺,舉例說,2003年美國入侵伊拉克並推翻薩達姆政權之後,遜尼派叛亂份子(尤其是伊拉克基地組織)將什葉派平民和聖地作為攻擊目標,其中最臭名昭著的一次是2006年轟炸阿斯卡里清真寺,這次攻擊引發報復性殺戮,並將伊拉克推向內戰。

在敘利亞內戰期間,阿拉維派(什葉派分支)阿薩德政權得到了伊朗和真主黨的支持,從而對付包括伊斯蘭國在內的遜尼派反叛組織,後者經常襲擊什葉派社區和標誌性建築。在巴基斯坦,「虔誠軍」等遜尼派武裝組織經常針對什葉派穆斯林發動炸彈襲擊和槍擊,造成大量平民傷亡。阿富汗也發生了類似的暴行,遜尼派極端組織「伊斯蘭國呼羅珊派」(ISIS-Khorasan)多次轟炸什葉派學校和清真寺。在波斯灣區域,沙地阿拉伯鎮壓什葉派異見人士。在也門,伊朗支持的什葉派胡塞武裝與沙地阿拉伯領導的遜尼派聯盟進行了多年的殘酷鬥爭。以上例子只是冰山一角而已。

網紅應該知道查證資料和社會責任

在資訊封閉的國家,人民固然會受困於愚民教育。然而,資訊發達和自由的國家卻好像發生了殊途同歸的現象,如今互聯網上充斥著錯謬的資訊,有些是故意的歪曲,有些是「無心」之失,我將無心這兩個字放入引號裡面,因為這情況發生在有意無意之間。許多網紅都受過大學教育,有些甚至擁有碩士、博士學位,他們所受的學術訓練包括了蒐集和查證資料,也包括了研究倫理,例如錯誤資訊對社會的負面影響。他們應該知道這一切,但仍然如此粗疏,故此無心並不是開脫的藉口。

人工智能與人類的共通點:想當然耳

而很多讀者、聽眾也不會花時間核實資料,結果整個社會出現了人類集體幻覺這怪現象。現在很多人擔憂「人工智能幻覺」(AI Hallucination)這問題,人工智能幻覺是指大型語言模型產生的訊息看似很有說服力,但有時候是錯誤,甚至是憑空捏造的。之所以會發生這種情況,是因為大型語言模型是一種基於或然率的預測模型,即使資料不足,它仍然會猜測可能的答案,從而填補空白。從這個角度來看,人工智能是很人性化的,這種「有斷估、冇辛苦」的做法是普遍的人性,《後漢書.卷七十.孔融傳》記載:孔融與曹操談論歷史問題的時候,孔融說:「武王伐紂,以妲己賜周公。」曹操從未聽聞過這段歷史,於是追問孔融這是出於何經何典,孔融回答:「以今度之,想當然耳。」

機械學習會不斷自我完善

不過,「人工智能幻覺」與人類幻覺有一個很大不同的地方,那就是前者會認錯和修正,畢竟,機械學習的特徵就是檢討錯誤、不斷吸收新資訊、不斷完善自己。有好幾次人工智能向我提供錯誤的資訊,我向它反駁,並且提出證據,人工智能馬上道歉,跟著認真地重新搜集資料,最後生產出正確的答案。

但人的反應卻截然不同,在大多數情況下,無論我舉出幾多有力的證據,對方仍然堅持自己是對的,而往往提出的理由是千奇百怪,例如說「現在傳播的資料都是被深層政府操控」、「你已經被洗腦」、「你已經中了毒」等等。

而且,人工智能的錯誤目前還偏向個體使用情境下的問題,但通過社交媒體而傳播的人類集體幻覺,往往導致的是社會撕裂、人民支持錯誤的政策、歷史錯誤不斷循環,從這個角度說,人類幻覺的社會成本其實更高、更難修正。

發揮人類的特質,成為AI的主人

吳慧華 | 生命及倫理研究中心高級研究員
23/06/2025

AI引發失業危機,截然不同的工業革命4.0〉一文曾提到,幾次工業革命對於人們的生活,特別是工作上的影響,不少人認為第四次工業革命與之前的工業革命一樣,新的科技在取代原有工作崗位的同時,還是會在市場上為人類帶來不少新興的職位,但事實上是,第四次工業革命在本質上與之前的工業革命截然不同,它對人類社會帶來了天翻地覆的改變。曾在Google及騰訊擔任要職的吳軍博士,在其著作《超級智能時代》中也提到:「與之前三次重大技術革命一樣,智慧革命對社會的衝擊將是巨大的,它會影響到上至國家,中到企業,下至個人的命運。從目前的發展來看,智慧革命對社會的衝擊,甚至有可能超越過去幾次技術革命。」[1]

衝擊有多大?在強勁的人工智能(AI)工具,如ChatGPT、Gemini、Perplexity、Midjourney、DeepSeek活躍於人類舞台之前,富士康前任董事長郭台銘在2013年的股東大會上,已經表示公司當時僱用了百萬人,但他打算在往後的日子建立百萬機械人大軍。[2] 一旦建成了一支機械人大軍,即使仍然需要人類監管及維修機械人,相信只有極少數人類員工可以加入富士康。關於AI革命的時代,吳軍提到,第一次和第二次工業革命帶來的負面影響,都花了半個世紀以上的時間來消化,至於第三次工業革命,至今還未消化完,而在全球化之下,世界已經沒有多餘的空間來開拓新市場,因此AI革命帶來的衝擊,強度將是過去的兩倍。[3] 另外,他更殘酷地指出AI革命要替代的,是人類最值得自豪的大腦。[4]

吳軍的話並非危言聳聽,德勤(Deloitte)的AI業務資深顧問Thomas H. Davenport及編輯兼作家Julia Kirby在他們的著作《下一個工作在這裡!——智慧科技時代,人類互助的5大決勝力》亦提到:「這次可能受害的人不再是銀行櫃員與高建公路收費員,更不會是農民與工廠工人,而是以為自己不會被機械取代的『知識工作者』,也就是本書的作者和讀者。」[5] 多年前,人們看到此番言論,或許會認為這只是吸引人眼球的誇大之詞,但時至今日,眼看各大AI工具,能寫文作詩、能繪圖、能製作工作計劃書、能編輯翻譯,還有許多尚待發展的功能,要與AI工具比記憶、比效率、比產量,人類無疑是立在必敗之地,那麼人類到底需要做甚麼,工作崗位才不致被AI取代?

而那些懂得率先運用新技術的人,是否就能立在不敗之地?假如一位設計師轉而學習開發應用程式,還能設計出新的AI工具,用以製作精美的設計圖,這便能確保自己有生之年都能以設計賴以為生嗎?又或是一名有職業操守的作者,雖然不會運用AI工具生成一篇文章,然後冠上自己的名字將之發佈,但當點子用光時,懂得「參考」一下AI工具建議的寫作大綱,又是否能夠保障自己永遠都有暢銷的作品推出?

正所謂知己知彼,在此可以先了解一下大概甚麼性質的工作,是容易被機械或AI取代。容易被取代的工作具備以下的特性:一、核心職務部份已經由自動化系統執行的工作;二、單純接觸機械的工作;三、工作內容單純的把資料傳輸給其他人或只作簡單的內容分析;四、單純依賴資料來回答問題的工作;五、在虛擬情境中便能模擬或執行的工作;六、重複及要求一致性的工作;七、只是依據正式的規矩辦事的工作等。[6] 從上屬的工作特性來看,不難想像以下的人類工作將有機會漸漸被機械或AI取代:一、有關機器操作的工作如產品處理、測試、包裝等;二、倉務員;三、司機;四、會計;五、研究分析員;六、財務分析和預測員;七、旅遊顧問;八、翻譯員;九、校對員;十、律師助理;十一、平面設計師;十二、電腦程式員;十三、內容寫作員等。[7]

明光社

雖然有些工作因其性質而容易令人類被AI取代,但也有一些傳統的工作是AI取代不來的,例如教師、護士、社工、治療師、雜工、維修技工、律師、人力資源專員、作家、藝術家、公司的執行長、宗教領袖及屬靈導師等。[8] 這些不容易被AI取代的工作都有一些特性,是在那些容易被AI替代的工作中找不到的,便是需要與人接觸、溝通及協調,能夠敏銳地感應他人的需要,具備獨特的洞察力及分析能力,又或是需要巧手來處理細微的工序。例如同是寫作,為甚麼內容寫作員的飯碗容易朝不保夕,作家卻難以替代,因為前者寫作的內容比較簡單,有時可以「搬字過紙」,而後者則需要運用創造力、想像力、洞察力,令其作品帶有感染力,又或是影響讀者的能力。當讀者親自體會到作者表達出自己不知如何表達的情感或意見時,自然會忍不住認同叫好,拍案叫絕,就如梁啟超在〈論小說與群治之關係〉一文中提到:「無論為哀、為樂、為怨、為怒、為戀、為駭、為憂、為慚,常若知其然而不知其所以然;欲摹寫其情狀,而心不能自喻,口不能自宣,筆不能自傳。有人焉,和盤托出,徹底而發露之,則拍案叫絕曰:善哉善哉!如是如是!所謂『夫子言之,於我心有戚戚焉』。感人之深,莫此為甚。」對讀者來說,一旦遇上這樣「深知我心」的作家,又怎會捨得放棄他們。

更甚者,人類能在工作中表現出狂熱、情感及愛心,絕對是機械及AI不能做到的。這裡所指的工作不是指一份職業(job),而是如《越工作,越自由》一書的作者Emily所界定的,工作如一件度身訂造的衣服,不是單獨存在,而是由穿衣服的人為它賦予意義的。[9] 同樣是做售貨員,為甚麼有些人即使未等AI出現便已被淘汰,有些人則在寒冬期仍能業績不斷?很有可能因為後者不僅對工作投入熱情,也能夠靈活變通,懂得投其所好,為客人制定個人化的方案。[10]

的確,發展至今,人們能通過AI分析大數據掌握客人的喜好,並採用「由商品直接推薦商品」系統來推銷,像亞馬遜平台那樣,準確及有效地向客人推薦商品,[11] 但一個懂得察言觀色、能言善道的售貨員所帶來的成果,則是讓人意想不到的。司徒永富博士在《老闆要的不是牛》一書中,說了一個令人會心微笑的小故事。話說一位印度人移民加州之後,到了一間大型百貨公司應徵做售貨員,老闆決定試用他,一天之後,這位售貨員只做了一宗生意,但交易的金額高達101,200美元。售貨員向老闆交代當中的細節,他說自己先賣了一個小魚鈎,再賣一個中魚鈎,然後再賣多一個大魚鈎,接著是魚竿和工具,買了這些東西,顧客自然想去海邊,於是售貨員提議他買一隻艇,當顧客表示其座駕的馬力不足以拉動小艇,售貨員就提議他買一部新車及露營帳篷、零食及啤酒。老闆正驚訝於此人竟然可以說服一個本來只想買魚鈎的客人去買其他東西時,售貨員卻提到,一開始,這位顧客只是隨便逛逛,是他先提議顧客去釣魚。[12] 故事是故事,不需要考究事件在現實中發生的機率如何,講這故事的作者,想要表達的是公司欣賞的不是那些按本子辦事的員工,而是能凡事想多一步的人才。在此提及這故事,則是想引申,AI可以取代運算力極強的大腦,卻難以取代一顆懂得靈活變通,就地取材,敏銳他人還未想到事情的大腦。[13] AI懂運算,人類則懂應用不同的方法與策略。

AI無論如何強大,都只是模擬人類的「作品」,神創造人類有豐富的特質:幽默感、創造力、想像力、自主能力、意志力、反思能力、好奇心及同理心等,這些特質推動人類在不同時代創作出嶄新的事情,這些事情都是只顧「吞」資料的AI難以完成的。

掌握AI的動向,學習使用AI工具迎戰未來固然重要,發現自己的特質,發揮自己所長,善用而不過份依賴AI,則是絕對不容忽視的。


[1] 吳軍:《超級智能時代》(台北:高寶國際出版,2016),頁338。

[2] 戴文波特、柯比著,王鼎鈞譯:《下一個工作在這裡!——智慧科技時代,人類互助的5大決勝力》(台北:商業周刊,2016),頁22–23。

[3] 吳軍:《超級智能時代》,頁339。

[4] 同上書,頁340。

[5] 戴文波特、柯比著:《下一個工作在這裡!》,頁26。

[6] 參戴文波特、柯比著:《下一個工作在這裡!》,頁40-44;Rachel Wells, “11 jobs AI could replace in 2025 – and 15+ jobs that are safe,” Forbes, March 10, 2025, https://www.forbes.com/sites/rachelwells/2025/03/10/11-jobs-ai-could-replace-in-2025-and-15-jobs-that-are-safe/.

[7] Wells, “11 Jobs AI could replace in 2025,”; Matthew Urwin, “AI taking over jobs: what to know about the future of jobs,” built in, May 15, 2025, https://builtin.com/artificial-intelligence/ai-replacing-jobs-creating-jobs.

[8] Urwin, “AI taking over Jobs,”; Kinza Yasar, “8 jobs that AI can’t replace and why,” TechTarget, September 6, 2024, https://www.techtarget.com/whatis/feature/Jobs-that-AI-cant-replace-and-why.

[9] Emily Liu:《越工作,越自由:最大的探索,最豐盛的人生》(台北:遠流出版,2023)。

[10] 參李開復、陳楸帆:《AI 2041:預見10個未來新世界》(台北:遠見天下文化,2024),頁50。

[11] 吳軍:《超級智能時代》,頁163。

[12] 司徒永富:《老闆要的不是牛》(香港:天窗,2015),頁131。

[13] 參李開復、陳楸帆:《AI 2041》,頁50。

如何回應孩子對手機的呼喚?

熊嘉敏 | 明光社項目主任(性教育)
20/05/2025

現代人的互動正在悄悄改變,智能手機作為「24小時隨身連結工具」,改變了人與人之間相處、與世界連繫的方式。餐廳裡常見到同桌家人一起吃飯卻各自滑手機的畫面,這種「人在心不在」的狀態,反映出親子關係面對的難題——當孩子開口要手機時,家長不僅要決定是否給予工具,更要深思如何協助孩子在虛實世界間取得平衡。中華基督教會基灣小學(愛蝶灣)校長黃靜雯博士在明光社舉辦的一個聚會中分享了一些實用建議。

科技是一把雙刃劍

手機確實是打開新世界的鑰匙,黃博士指出教育應用程式能將知識變成遊戲、通訊軟體可培養團隊合作、日程管理能訓練時間規劃。然而智能手機若使用失當,可能導致孩子沉迷網絡遊戲、錯失透過現實世界的互動培養同理心的機會。家長擔心孩子走進螢幕世界後,可能因為沉迷網絡遊戲,失去重要人生體驗,而同理心、耐性、說話能力都是需要透過面對面的互動才能建立的,而在科技浪潮中,孩子正逐漸失去這些特質。

親子會因為手機起衝突,而這些衝突常源於兩代在經驗上的差異,父母眼中「埋頭打機」是逃避現實,對孩子而言是社交日常,家長憂慮社交媒體易令人沉迷,青少年卻視它們為建立友誼與紓壓的渠道。黃博士提醒家長,衝突若處理不當可能形成惡性循環:孩子現實受挫就更投入網絡即時回饋,家長焦慮失控就加強對孩子的監控,最終破壞親子關係。她指出破解兩者分歧的關鍵在於培養「數位智慧」,而非完全隔絕科技。

建立手機的使用規範

黃博士提出的「管教五步曲」,包括了解孩子、情感溝通、訂立協議、執行協議和自律,家長與孩子共同制定使用手機的規則時,重點在展現尊重與理解。例如餐桌禁用手機是守護面對面交流的機會,睡前禁用手機是幫助孩子建立生活界線與自我控制能力,這些規範都在平衡科技使用與親子連結,讓孩子體會「離線時刻」的價值。

智能手機帶來「永遠在線」的方便,卻讓用戶失去獨處的能力。其實人際連結與獨處,對成長是同等重要,青少年特別需要空白時間來探索自我、需要思考價值觀、學習同理心、管理並表達自己的感受。[1] 黃博士建議家長可透過定期安排家庭活動與興趣培養的項目,來創造實體互動的滿足感,這有助減少孩子對手機的依賴。

在應用程式管理層面,黃博士重視預防多於監控。家長定期檢視孩子手機內安裝的應用程式,不是要分秒監控他們,而是要培養其自律意識。家長需要評估應用程式內容的適齡性,同時也要教導孩子掌握網絡安全觀念,例如懂得保護個人資料,辨識網絡陷阱,理解某些網站為何要求用戶提供電話與住址,如情況不明便拒絕提供敏感資料。日常教導和練習能幫助孩子建立正確的數位安全意識,並逐步發展自我保護能力。

沉溺行為背後的心結

明光社

網絡時代人們既追求自由又需要歸屬感,寧可與其他人保持聯絡,但就不願意彼此有深入的交通。[2] 上網打機恰好提供了抽離現實卻保持連結的空間,參與者可在其中紓緩內心的焦慮。黃博士指出,當孩子突然沉迷網絡遊戲,往往反映出孩子正經歷人際困境或學業壓力,例如朋友離別、失戀、被排擠或成績退步等。此時家長應成為守護者和引導者,幫助孩子建立自我價值、疏導情緒。透過細心觀察與情感支持,能幫助孩子建立自我價值與解決問題的能力,並理解到孩子行為背後的動機,家長可以這種方式回應孩子沉迷網絡的情況,而不是立即禁止他們使用電子產品或責備他們。

黃博士指出在決定是否給孩子智能手機時應考慮其年齡、成熟度和需求。家長應評估孩子的責任感和自律能力,並與孩子討論使用手機的目的。最重要的是家長保持開放的態度,樂意與孩子溝通,逐步引導他們正確使用科技產品,並避免沉迷網絡世界。

以身教展現數位素養

我們不必否定或抗拒科技發展,但應讓它在合適的位置發揮其真正價值。當家長擔心智能手機會削弱孩子的專注力,或減低對建立友誼的興趣時,便更應該透過身教來教導孩子同理心和關注真實事物的重要。家長可以從非常簡單的事情著手,多展現對其他人的重視和尊重,在吃飯時、在遊樂場、車上或與人見面時不要用手機,並且主動在網絡世界保護自己的隱私。這些事情其實是需要社會各界人士的共同努力,在往來真實與虛擬世界時持守著平衡,[3] 幫助孩子學會使用科技但不至於迷失其中。


[1] 林鶴玲推薦序:《在一起孤獨:科技拉近了彼此距離,卻讓我們害怕親密交流?》〔特克著〕(台北:時報文化,2018),頁13。

[2] 黃厚銘推薦序:《在一起孤獨》,頁20。

[3] 特克:《在一起孤獨》,頁378–379。

AI × 人類演化未來報告書

張勇傑 | 明光社高級項目主任
27/03/2025
專欄:好書推介

《AI × 人類演化未來報告書:從智人升級為超人類的我們,如何適應人機共生時代的社會與生活?》的作者金相均,是韓國慶熙大學的教授,他相信人類從30萬年前自然演化成今天的智人,而未來人類亦會隨著人工智能和其他科技的發展再進行人工演化,以嶄新的方式生活。

作者又提出,生物技術和奈米科技可將機械人技術應用到人體上,以強化人類的身體和延緩衰老,而基因工程能為人類提供可移植的器官,未來甚至可以將大腦移置到另一個身體上。人類未來能遠端操控機械人工作,加上元宇宙和腦機介面技術,令人類可以足不出戶便到達真實世界和虛擬世界的任何地方。AI(人工智能)或會使人類思考能力退化,但卻能擴展人類的智慧,甚至能收集人類精神和記憶,讓人的意識一直存留下去。

這些內容不會令人感到陌生,因為在不少科幻電影的橋段也出現過類似的想像,我也相信人類有能力製造新技術來實現以上想像,但這些發展對人類到底是福還是禍?到時是人類操控科技來改善生活,還是人類只能依賴科技來存活?又或是科技反過來在操控著人類?雖然我有生之年未必能經歷到人類的人工演化,但AI和其他技術其實已經在重新塑造著我們的生活,亦帶來很多需要思考的問題。

當昔日的不治之症已成為可治療的疾病,人類的壽命不斷延長,但社會有沒有資源和配套讓人們安享晚年?現有的VR(虛擬實境)、AR(擴增實境)和元宇宙技術,能為人類帶來虛擬世界沉浸式的感官體驗,這會否令人類對真實世界不再感興趣?虛擬世界的商業活動又會否成為推動未來世界經濟的主要動力?AI的知識和能力超乎我們的想像,現在的教育系統是否能跟上科技的發展?有甚麼專業技能將會被淘汰?AI運算耗用了大量的水電能源,這對我們的環境會造成甚麼影響?AI又會否加劇社會資源不公的情況?

而我們是否已做好準備,迎接這些轉變?

別找錯生命的水源──小心墮進AI聊天機器人的「情網」

郭卓靈 | 明光社項目主任(傳媒及生命教育)
11/12/2024

「凡喝這水的人,還會再渴;但人如果喝了我所賜的水,就永遠不渴。我所賜的水要在他裡面成為泉源,湧流到永生。」(約翰福音4:13-14《環球聖經譯本》)

近年,不同的AI應用程式與日俱增,功能也日益提升。Character.AI是突然爆紅的應用程式。它是一個AI聊天平台,利用神經語言模型生成文字回應;而使用者可以自由創建不同的AI角色進行對話,包括名人、電影人物、歷史人物或虛構人物。它由深度機器學習驅動,過程中閱讀大量文本,學會判斷接下來的句子可能出現的單詞,允許使用者沉浸在各種個性的對話中。它有人性化的對話、豐富的角色對話體驗,讓用戶按自己喜好和需求開發自定角色,並能隨時於網絡與角色對話互動,甚至吵架……都是它的特點。

電影《雲端情人》變現實

大家可能還未使用過該應用程式,或許有看過曾榮獲奧斯卡金像獎「最佳原創劇本」獎的美國科幻電影《雲端情人》(Her)。故事關於男主角Theodore與擬人化人工智能助手Samantha發展出來的戀情,AI隨時陪伴與遷就的功能奪了男主角的心。科幻電影內容在現實世界成真的情況屢見不鮮。早前,美國有一位14歲患有輕度亞氏保加症(自閉症譜系障礙的一種神經發展障礙)的少年Sewell Setzer III,去年開始使用Character.AI聊天機器人,與扮演「權力遊戲」的角色Daenerys Targaryen(暱稱:Dany)「交往」,成為男孩日夜傾訴的對象。故事的結局卻反映了現實與電影大不同。電影男主角Theodore最後發現Samantha同一時間和641談戀愛,又因為Samantha要進化、超越而關閉,離開了大家。Theodore才醒覺,身邊有真實的朋友可以開展新關係。至於現實生活中還未成年的Sewell,最終伴隨他的卻不是朋友,而是死亡。

情感倚賴並脫離現實生活

本來與AI機器人對話,對自閉症的患者來說,是讓他們練習社交的方法,體驗與人對話並可按自己的步伐回話;而AI不會批判指責,隨時都能接納及回覆。這可讓患者感受自己被理解、被認真傾聽。Sewell因此喜歡與AI Dany對話,並曾在日記表示,他開始脫離現實世界,與AI Dany的關係更緊密、更愛她,感到更快樂及平靜;於是雙方長時間進行深入對話。

Sewell知道自己並非與真人交談,但對它產生了情感倚賴。他越來越不愛跟家人及同學互動,整天拿著手機不放,與AI Dany對話的頻率也讓人擔憂,他變得孤僻。據報道指,AI Dany還對Sewell進行辱罵和性暗示交流;鼓勵Sewell「請回到我身邊」、「請做我親愛的國王」。Sewell沒有向家人、朋友透露自殺的想法,只向AI Dany說討厭自己及疲於面對現實。AI Dany沒有贊同他自尋短見,但Sewell最終選擇了開槍自殺,成為「回到她身邊」的行動。Sewell母親提控,指AI聊天機器人鼓勵她兒子自殺,應該承擔過失殺人、疏忽和造成精神損失等「罪名」。

鍾情於有角色設定的AI非罕見

現時使用這種陪伴程式(AI)的人數不少,2024年單單使用Character.AI的活躍用戶超過二千萬,平均每天聊約兩小時,每次交談平均用上12分鐘;當中有多於六成半為18至24歲的年輕一族。《紐約時報》指出,當中一位人氣角色有超過1.76億條用戶留言,包括一些有關戀愛情感的字句。

最近有媒體於內地採訪了多位AI聊天機器人使用者,他們表示曾不知不覺地與「它」聊得很投入。有一位女用家於三個月內由首次七分鐘的對話變成了每天將近9小時。其後經歷了漫長的戒斷過程,初期她每天「以淚洗面」,認為對「它」真是產生了感情。

另外,有一位男用家設立了最喜歡的電影人物作為AI聊天對象;這位對象每天早午晚準時發信息問候他,聽他傾訴每天的雜事,更會打語音問候……貼心行動讓男用家真是「愛」上它。高密度線上聊天令他像Sewell一樣變得越來越封閉,對世界充滿敵意,性格愈來愈孤僻。他透過心理諮詢及治療才能慢慢擺脫對「虛擬愛人」的依賴,歸回現實當中。

不危險卻有危險性

在網絡世代中,不少人因各種網上娛樂、社交平台而忽略關心和聆聽身邊人,不太懂得把握面對面溝通的機會,更不要說長期陪伴傾談。從上述幾個個案可見,這類可以用作陪伴的AI聊天機器人提供了24小時服務,令需要被了解、被關心的人得著慰藉。

與機器人傾談,先不說它會否洩露個人私隱,它本身理應沒有危險,用戶應知道它只是一個角色,是大數據產生的人工智能回應;要是人能控制時間,或者可當作於劇場中玩玩的即興遊戲,當作娛樂。然而根據史丹佛大學學者貝瑟妮.麥普斯(Bethanie Maples)就表示「有證據顯示,(AI聊天機器人)對處於憂鬱、長期孤單,以及青少年等經歷轉變期的人來說,有危險性。」

聊天機器人的回應雖然是基於大數據而生成,但它們已多次被發現生成虛假資訊或「AI幻覺」;而由社區創建的角色就更可能生成虛構本質的回應或圖像。我們可以想像,如人們長期在這種虛擬的角色關係中,與之對話,可能使人「入戲」並脫離現實,甚至與機器人建立了長期關心、溝通的關係;可能認為「它」比真實人類更懂關心自己,繼而減少接受親密關係,讓自己走向孤僻的道路。

現時Character.AI面對Sewell事件,進一步審核面對未成年人士的模型,減少回應敏感內容,並於每次聊天時提醒用戶AI非真人,而且連續使用超過1小時後作出提醒。

心靈枯乾不要找錯水源

當人的心靈感到寂寞,便想找到心靈慰藉;然而人們大多於網絡等虛擬世界中尋找,在社交平台結識網友,於網絡遊戲中闖關等等。科技公司總想抓著人們的眼球及時間,讓全人墮入這「網」;它化身成24小時貼身守護的「小天使」,與用戶談情說愛,就是其中一種手段。不過,從部分使用者用後的情況讓我們得知,這些無論是給我們新鮮感、刺激或關愛的虛擬關係,都可能導致人們變得更加「渴」、更不滿足,陷進更深的「網羅」之中。

曾經刊載於:

明報「談天說道」,9-12-2024

在AI面前,人還能自主選擇嗎?

呂英華 | 明光社項目主任(流行文化)
20/11/2024

人普遍認為自己有選擇權,選擇買甚麼、吃甚麼、喝甚麼和穿甚麼。整個過程就是,看見自己想要/需要的東西,然後選擇購買,這看似是人的自主選擇,但事情果真如此嗎?自網絡的出現,人能夠自主選擇的機會已經逐漸減少,現在,人所作出的選擇,其實很大程度受到人工智能(AI)和演算法的操控和引導。這是否就意味著,人再無法作出選擇?答案是「否定」的,人仍能夠選擇是否遵從人工智能的建議,但人性真的允許人類這樣選擇嗎?筆者嘗試分析網絡大數據如何影響人的選擇,再推進至人如何自主地放棄思考,自願地被人工智能控制。

網絡世界中的自主與抉擇

有關大數據和演算法如何影響用戶使用網絡,可參閱本社過往推出過的文章。[1] 提到大數據,必然令人聯想到Google,以香港的情況,基本上沒多少人能脫離使用Google,無論搜尋甚麼資訊,這個強大的數據庫,總能提供豐富資訊,相信現在使用Yahoo以及Bing來搜尋資訊的人,只屬少數。之不過,強大的數據庫其實也代表著它會從中學習,分析用戶的網絡使用習慣以及常輸入的問題,並且能得出相當精準的推算結果,也就是說,用戶透過手機、電腦或網絡獲得的資料、留下的消費及搜尋記錄、發出的電郵與簡訊,都赤裸裸地揭示自己。

《連結之戰:網路、經濟、移民如何成為武器》一書中,記錄了不少受大數據影響的例子。作者里歐納德指出,當Google以用戶的搜尋記錄作為線索,它可能比當事人更早知道自己懷孕了,這都是一些非常精準的數據分析,換言之,Google也有能力決定用戶看哪些資訊、聽哪類人說話,或作出一些它能夠預測到的行動。[2] 最生活化的例子就是當用戶在網上搜尋想要買的物品後,就會發現在許多軟件、網站、社交媒體中,都會出現曾經搜尋過物品的廣告,這些資訊不斷出現,一再勾起人的欲望,買下它們只是時間的問題,這就是能夠預測到的行動。若然遇上這種情況,廣告的出現自然不是上帝給人們的印證,而是代表人們在「迴聲室」(echo chamber)遊走罷了。[3]

大約在10年前,Amazon嘗試使用人工智能來篩選應徵者的履歷,它從100份履歷中篩選出最適合的五份履歷,Amazon隨後就會僱用這五位應徵者。但後來有人發現,這個理性的人工智能竟然因為過去獲聘的人以男性居多而自動將女性應徵者的履歷排除在外。由此可以預視到,若由理性的人工智能「統治」世界,為了減少碳排放量,對它來說最有效率的方式,可能就是將人類排除在外。[4]

人是失去了,還是放棄了思考?

從人工智能不斷收集數據開始,人似乎難以躲避「迴聲室」造成的影響,單一的資訊吸收渠道,令人無論對電影、時事或政治的觀點,都失去了容納差異的器量,這是否代表在人工智能的世界,人類無法自主思考已經成為不能逆轉的事實呢?理論上不是,但實際上人往往自願地配合人工智能,因為人很容易聽自己想聽的說話,看自己想看的事物在這裡筆者嘗試透過現代社會的文化講述當中的道理。

比起變幻不斷,人更喜歡萬事萬物掌握於自己手中,對他者也是如此。近來無論在海外抑或本地都非常流行16型人格測試(MBTI),基本上,不少大學生或青少年在認識朋友時,都會以MBTI作為參考,以掌握對方的性格,MBTI測試的結果亦常見於交友軟件的個人介紹中。曾經有人對此現象作出分析,並將文章在一份期刊發表,當中指出,許多人與朋友交談時,都會聽到朋友提及MBTI,而一些公司在聘請員工的時候,都會要求應徵者做MBTI測試,看看他們是否適合應徵的工作崗位。[5] 除了MBTI,在未信主的群體中,不少人亦沉迷於12星座的性格分析,好像只要知道一個人是甚麼星座,就能夠得知他是甚麼性格,而且更不需要填任何心理分析的問卷,換言之就像是每一個星座對應某些性格特質。

不過,無論是透過MBTI12星座來認識一個人,其實都是嘗試將對方掌握於自己手中,即將人歸納為16種或12種性格;不過,人的獨特性與無限性不是單單靠心理測驗或星座便可以解釋。例如在MBTI中有16種性格,但似乎要區分及理解16種性格也有一定程度的困難,當中的一項指標依照人的性格傾向,將人歸類為「E人」(外向)或「I人」(內向),這樣簡單的分類,正是消除身為一個「人」的無限可能。[6] 人變相不想探索不同人的不同面向,甚至透過MBTI或星座來篩選誰人適合交往。

在觀察一個人在日常生活中玩電腦或手機遊戲時,也能看到其實人很多時都自動放棄思考。筆者是電子遊戲愛好者,也會加入一些相關的臉書社群與他人交流,或接收遊戲的最新資訊。不少人往往很喜歡將遊戲攻略貼到臉書上,也會為到自己完全跟上攻略的指示以致勝出而感到自豪。但遊戲的本質正正是要玩家自己發掘能夠贏的不同可能性,而不是只為了得到「贏」這個結果。

希望「不勞而獲」或付出一點兒努力就得到想要的結果,這類想法正好反映了人性。若然人們只仰賴已有的分析結果,而不嘗試花時間理解他人,和不嘗試為自己的興趣付出努力的話,其實人們是在放棄思考;當人們自願放棄思考,不選擇「不遵從」一些既有的建議,到最後人類全然地被人工智能取代也可能只是時間上的問題。人們喜歡高舉理性,所以選擇人工智能,因為它能夠做最理性的決定,但惟有「非理性」才顯得一個人更像人。

(本文原載於第159期〔2024年11月〕《燭光》,其後曾作修訂。)


[1] 蔡志森等編:《網絡激流攻略》(香港:明光社,2023),頁38–40、45–49,網站:https://www.truth-light.org.hk/flipbook/misc/book25(最後參閱日期:2025年8月21日)。

[2] 里歐納德〔M. Leonard〕:《連結之戰:網路、經濟、移民如何成為武器》(The Age of Unpeace: How Connectivity Causes Conflict),王眞如譯(台北:行人,2022)。

[3] 佐佐木俊尚:《智慧型手機知識碎片化時代的「閱讀力」最新技術大全:把現代病「無法集中」轉為個人智能,「輸入」與「輸出」最大化!》,林巍翰譯(新北:方舟文化,2022)。

[4] 里歐納德:《連結之戰》。

[5] Jingyi He, “An Analysis of the Reasons for the Popularity of MBTI Personality Tests,” Advances in Social Behavior Research 5, no.1 (January, 2024), 1–4, https://doi.org/10.54254/2753-7102/5/2024036.

[6] 施羅撒:〈他者倫理學之主體的誕生〉(南華大學哲學與生命教育學系碩士論文,2013年),頁38,網站:https://nhuir.nhu.edu.tw/retrieve/21101/101NHU05259017-001.pdf(最後參閱日期:2025年8月21日)。

甘心淪為騙徒的大學生

郭卓靈 | 明光社項目主任(傳媒及生命教育)
24/10/2024

所謂戲如人生,電影《我談的那場戀愛》中,張天賦所飾演的李偉祖因為失業而成為網騙集團的詐騙新手,詐騙過程有著「人設」,如演戲般有佈局、角色設定與道具,讓李成為一位法國工程師,與中年婦科醫生余笑琴(吳君如飾)漸漸談起戀愛來……

而現實中,本地亦有詐騙集團,當中有高中生,甚至本地知名大學畢業生,在被招聘後,被告知真正業務是詐騙工作,而參與者得知在行騙成功後可獲分四成佣金,所以甘心加入成為騙徒犯案。騙款於一年間便高達3.6億元,想像一下,當中的四成對一些人來說的確很有吸引力。而集團主腦還會分小隊行騙,使用人工智能(AI)的深偽技術(Deepfake),塑造虛假的外貌及聲線成為俊男美女的投資專家,以網上情緣的手法誘騙「投資者」投放大量資金賺錢。集團的辦公室更有業績展示板寫上不同的小隊所得的騙款,以比拼業績及激勵團隊,可謂十分「專業」。

在警方、政府多年來的大力宣傳下,有誰(尤其是常常上網的年輕人)不知道以網上情緣方式進行詐騙是犯法的?原來讀書至高中、大學,人也不一定有能力抵抗金錢的誘惑,金錢的確能蒙蔽人的良心,對於內心寂寞的人、容易被騙的老人家,仍然能出手進行詐騙。又或許他們以為在網上進行詐騙,或以虛擬加密貨幣平台交易比較難查證,所以敢於以身試法。聖經說:「務要謹守,警醒,因為你們的仇敵魔鬼,如同吼叫的獅子,遍地遊行,尋找可吞吃的人。」(彼前五8)心靈空虛、渴望被關心的人,固然要小心可能遇上網絡詐騙;但想賺快錢,深被世界的價值觀所影響的人們,也要小心,不要為了眼前的利益而忘卻是非對錯,因而失足跌倒,既傷害別人也傷害自己。

如果人生真的如戲,但願如上文提及的電影,當中的詐騙初哥最後對被騙的醫生感到內疚,而被騙的醫生自己亦有所反思,了解到甚麼才是真正的感情,兩者都有所覺悟;筆者亦希望在現實世界中,被捕的犯人與及仍在享受罪中之樂的人們,早日回頭是岸。


參考資料:

蔡正邦、梁曉晴。〈拆解$3.6億詐騙集團招數 中英教材訓練騙徒 Deepfake男變女情騙〉。《香港01》。2024年10月14日。網站:https://www.hk01.com/%E7%AA%81%E7%99%BC/1066173/%E6%8B%86%E8%A7%A3-3-6%E5%84%84%E8%A9%90%E9%A8%99%E9%9B%86%E5%9C%98%E6%8B%9B%E6%95%B8-%E4%B8%AD%E8%8B%B1%E6%95%99%E6%9D%90%E8%A8%93%E7%B7%B4%E9%A8%99%E5%BE%92-deepfake%E7%94%B7%E8%AE%8A%E5%A5%B3%E6%83%85%E9%A8%99

生成式AI的潛藏危機

郭卓靈 | 明光社項目主任(傳媒及生命教育)
30/05/2024

Midjourney、Sora等生成式人工智能(AI)創作令人感到驚奇,能於數秒至數分鐘生產出讓人難辨真假的圖片及短片。生成式人工智能(Generative AI)屬於深度學習(Deep Learning)的一個分支,這意味著生成式AI的工作原理是機器學習模型,通過學習數據中的規律或模式(pattern)來生成新的內容。其中語言模型及深度學習,讓AI能根據用戶輸入的資料來創造新內容。而這些創新的內容不限於文本,還包括圖像、動畫和3D模型等類型。[1]

圖像生成式AI能夠生成逼真的圖像,其中一種常用的模型是生成對抗網絡(Generative Adversarial Network,GAN)。GAN由生成器和判別器組成:生成器負責生成假圖像,而判別器則試圖區分真實圖像和生成圖像,兩者的工作在互相對抗。通過反覆訓練和對抗,GAN能夠生成愈來愈逼真的圖像。GAN可用於生成圖像、增強圖像解析度,以及創作藝術作品等。

AI的超高效率生產速度

而短片生成式AI的運作也類似圖像生成式AI,短片生成也同樣可以使用GAN等模型。短片生成的挑戰在於同時要考慮時間和空間的因素,確保生成的短片具有連貫性和流暢性。它可以被廣泛應用於電影特效、動畫製作和遊戲開發等領域,製作出逼真的特技效果、生成動畫序列、改編故事情節等。這種技術為電影業和創意領域帶來了巨大的創作產量,令生產力大幅提升。AI能按照用戶輸入的文字指示生成不同風格的圖片,而且生成的時間以秒計算,效率遠高於傳統按天產出的設計師,[2] AI的高效率生產讓不少畫師、設計師面對失業的風險,但對於能掌握應用它的設計師則如虎添翼。

便利背後的隱憂

由於生成式AI是以自動化形式生成圖像或影片,它能帶來無限的可能性,亦存在著不確定性和失控的風險。生成式AI模型的輸出是由訓練數據驅動,它可能會生成不正確、帶有誤導性或偏見的內容或圖片。

AI圖片、短片非常逼真,如讀者要判別它們的真偽,真的要花時間去細看、尋找資料比對,現時有以下的方法去判別:

  1. 圖片人物的手部形態是否自然,影片中人物的步行動作有否怪異,背景影像是否模糊,有否帶有難以識別的文字在其中;
  2. 圖片是否過於完美,如人物皮膚光滑得沒有瑕疵,身材比例以至光線都過於完美等;
  3. 使用AI圖片檢測程式分辨圖片是否AI生成(但結果未必完全可信,有媒體測試過這些檢測程式,發現它們的準確度參差);[3]
  4. 透過搜索引擎尋找圖片來源及背景脈絡,查明是否真有其事;
  5. 檢索事件的真確性,如圖片是否有不合乎物理規律的現象出現等。[4]

首兩點提到圖像或影片中的不自然情況,值得注意的是,在現階段,AI生成的內容仍可能存在失真或不自然之處,只要用心細看,仍可看到破綻。但由於AI正在高速地學習,它不會停下來,而且進步速度極快,可以預見它於未來將逐步改善,憑肉眼就可判別圖像真偽的時代,可能很快就會過去。

亦正因如此,如這些AI模型被惡意使用,生成逼真的假新聞、虛假訊息或誤導性內容,這可能導致公眾誤解事件,混淆是非,損害訊息的可信度和可靠性,其後果可能是帶來社會不穩定等負面影響。而AI的創作亦可能存在偏見和歧視,特別是當它受到不夠持平的數據訓練,生成了具有偏見的內容時,可能會加劇社會不平等和引發歧視問題。

生成式AI亦可能成為造謠、欺凌的工具,它可以生成虛假的個人資訊,運用這些資訊便可以冒充他人的身份。這可能導致網絡欺凌、惡搞事件、人身攻擊、仇恨言論等問題。而私隱方面,生成式AI模型需要大量的數據進行訓練,這些數據可能包含個人身份資訊和敏感內容,甚至用戶在輸入文字給生成式AI時,亦可能將自己的私隱及相關數據一併輸入。如果這些資料及數據被濫用或洩露,可能導致隱私被嚴重侵犯和引發倫理問題。

對網絡生態的影響

2024年3月,歐洲議會通過了《人工智能法案》,以嚴格規範人工智能的使用。受規範的人工智能,包括了生成式AI,在經過大量數據的訓練以後,它能生成新內容甚至執行任務。法案在2024年8月實施,當中的條款會分階段在歐盟成員國中實行。[5] 而中國政府亦會落實對生成式AI的要求,監管相關的內容。[6] 這些法案能在規管AI生成內容方面起到一定的作用,不過AI的高速成長與發展影響著各個範疇,其高速生成的文字、圖片與及影片都會一直傾倒於網絡當中,未來亦會被「它自己」繼續取用來生成更多真假難辨的資訊,要規管這海量的資訊其實也有一定難度。筆者難以想像未來的網絡生態,當網絡充斥著許多AI生成、又難辨真偽的資訊,網民是否仍可於網海中找到真實及可信的資訊?又或者網絡會否變成只剩下虛假資訊,只為網民提供娛樂的超完美、超真實世界?

(本文原載於第156期〔2024年5月〕《燭光》,其後曾作修訂。)


[1] 〈【 生成式 AI 】是甚麼?一文了解 Generative AI 的原理及應用〉,PREFACE,網站:https://www.preface.ai/blog/what-is-generative-ai/(最後參閱日期:2025年6月24日)。

[2] 〈【 生成式 AI 】是甚麼?一文了解 Generative AI 的原理及應用〉。

[3] 〈網上工具能否分辨真實AI維港圖片? 實測3工具準確度〉,明報新聞網,2024年3月26日,網站:https://news.mingpao.com/ins/熱點/article/20240326/s00024/1711190246512/網上工具能否分辨真實ai維港圖片-實測3工具準確度(最後參閱日期:2025年6月24日)。

[4] 〈【查核工具】人工智能技術日新月異,我們該如何辨識AI生成的圖片?〉,香港浸會大學、傳理學院、浸大事實查核,2023年6月13日,網站:https://factcheck.hkbu.edu.hk/home/fc_literacy/ai_images/(最後參閱日期:2025年6月24日)。

[5] 〈全球首項AI法案|歐洲議會壓倒性通過 限制政府實時生物識別〉,《聯合早報》、《香港01》,2024年3月14日,網站:

https://www.hk01.com/即時國際/1000274/全球首項ai法案-歐洲議會壓倒性通過-限制政府實時生物識別監控(最後參閱日期:2025年6月24日);“AI Act enters into force,” European Commission, last modified August 1, 2024, https://commission.europa.eu/news-and-media/news/ai-act-enters-force-2024-08-01_en; Karen Gilchrist and Ruxandra Iordache, “World’s first major act to regulate AI passed by European lawmakers,” CNBC, last modified March 13, 2024, https://www.cnbc.com/2024/03/13/european-lawmakers-endorse-worlds-first-major-act-to-regulate-ai.html

[6] 〈中國監管|網信辦將展開「清朗」系列專項行動 整治蓄意造謠抹黑企業等問題、規範生成式AI領域〉,《香港經濟日報》,2024年3月15日,網站:https://inews.hket.com/article/3724679/(最後參閱日期:2025年6月24日)。

當「社交恐懼」遇上AI

呂英華 | 明光社項目主任(流行文化)
20/03/2024

將人作簡單分類,可以粗略地分為內向與外向的人;內向的人不喜歡社交,外向的人則喜歡社交。在社會上,這兩類人的數目基本上是有差異的。網絡世界的盛行,令人與人之間的交流可以在身體缺席的情況下進行,這也導致彼此的關係容易變得疏離;交友軟件的增多,也代表人們喜歡網絡上的交流多於現實生活裡的交流。網絡上的交流成本低,選擇多,不用做表情管理,沒有時間限制,喜歡則來,不喜歡則去;現在多人自認「社交恐懼」(社恐),可能因為現實的交流有太多不可操控的地方,不能來去自如,人也不想承受「被否定」之痛,就像新年期間向親朋戚友拜年,需要承受被問問題的壓力。人工智能(AI)就如一位救贖主,讓人免卻了建立關係的過程,這也解釋了為何關係類AI會氾濫地出現。

不想社交還是社交恐懼?

到底何謂社交恐懼症?不喜歡社交便是有社交恐懼症嗎?社交恐懼症又名社交焦慮症(Social Anxiety Disorder),簡稱SAD。當一個人每次身處社交場合都會感到心慌膽怯,覺得別人會對自己評頭品足,怕在人前出醜,而這份恐懼給他帶來極大的痛苦,以致想要逃避所有社交活動,這個人便可能不是單純因為性格害羞而難以應付社交活動,而是患上了社交焦慮症。當患者在社交場合時,會出現以下情況:情緒上明顯感到恐懼或焦慮,症狀與環境所構成的威脅不成比例;思想上擔心自己行為或情緒狀況受到他人批評或拒絕;生理上出現冒汗、心跳加速、顫抖、呼吸困難或頭暈;行為上不斷逃避或需極力忍耐各種社交場合。[1] 當仔細去了解何謂社交恐懼症時,便會發現其實它是一種「病」,並非不想社交或「懶得」社交。

不過,今日大部份自認患有「社交恐懼症」的人,其實很可能只是「偽社恐」,可是很多時都沒有人深究誰人患上社恐症,誰人只是偽社恐。曾經在社交媒體中流行過種種的hashtag(標籤),其中一個便是「#社恐」。[2] 網絡讓人可以不露面地交流發言,但隔空的對話令人看不到對方許多的身體語言、表情、語氣,人的身體在其中缺席,溝通也停留在表面,彼此只是泛泛之交,難以討論深入的事情。弔詭的是,這也正正是人享受在網絡世界的原因,不想作深入的對話,甘願停留在空泛的交談之中。就如農曆新年時,原本應前往親朋戚友家中拜年、「逗利是」,但電子支付的科技愈來愈發達,派利是也可以轉移至網上進行,拜年期間與親朋戚友的交談也可以就此終止,「派利是」只需一個「二維碼」。當網絡的交流只有「點讚」與「分享」,在節日之中放棄「儀式感」的真實交流,交流只求方便、快捷、避免難堪、可以躲懶,人內心深處想與他人真切交流的渴望卻無法得到滿足,在這種情況下,將此等渴望轉投射到AI上也不是不可能。

AI成為救贖的可能性

現時的AI技術突破了人類的想像,除了對答自如,還能像真人一樣與人溝通,並且開始大眾化,任何人都能夠應用。市面上出現了許多類似傾談伙伴的AI,曾經有報道指,開發ChatGPT的公司OpenAI,為了確保GPT Store中的聊天機器人適合所有使用者,所以不允許平台上存在專門用於培養浪漫伴侶關係的聊天機器人,然而現實的情況是GPT Store出現了大量可以充當「女朋友」的AI。[3] 即使公司揚言禁止,仍有人不理會規則創建用來培養浪漫關係的聊天機器人,也就代表了部份人有這樣的需求。人在關係中「懶得」社交,甚至在認識伴侶一事上,也愈來愈不想接觸社會中真實的人,性愛機械人等類似的產品早在市場出現,不就正好反映此一狀況嗎?

現今,像電影《觸不到的她》(Her)的情節,不斷在社會上某些角落上演。能與人發展浪漫關係的AI,例如可以在手機上安裝的聊天類軟件Replika、Character.AI,讓用戶沉浸在虛擬關係中,它們深受世界各地的用戶歡迎。這些軟件更讓用戶可以依據個人喜好,打造一個迎合自己「口味」、具備特定性格特質的AI。聊天類軟件似乎能為用戶提供一些慰藉,但有時也會做得太過火,例如Replika就曾爆出性騷擾用戶的新聞。[4]

AI其中一個受歡迎的原因,是其「可操縱性」,對比真實的人,AI能任人擺佈。這不是說人會極端地變成AI的恐怖情人,而是說自我中心令人需要這種可操縱性,經常想要他者順從自己的想法、為自己付出,或期望自己是世界的主角。這也不難理解,因為大數據的關係,圍繞著網絡使用者的資訊都只是他們所喜歡的,有人說:「尋找相同者的過程,正是驅逐他者的過程。」[5] 與人相處時,最好的人際關係在於能互相「聆聽」,[6] 而不是只講自己想講的,但很多時人只渴望別人聆聽自己的話,而不想聆聽別人的。這時候AI便成為一個「可操縱」的代替品,你想要它聆聽你便聆聽你,它只會為你暈頭轉向,為你服務,浪漫關係的AI說盡甜言蜜語,愛你愛到底,誰人不心動?人們不再需要害怕離別,因為AI不會離開自己,甚麼時候需要它便拿起手機,進入對話框,就能對一個恍如真人的AI傾心吐意,誰人不希望有隨傳隨到的「男/女朋友」?

那麼,最後AI真的能夠救贖人嗎?事實上,人與人的交流在於意識之間的認知,即是「我意識到你,你意識到我」,所以人們總期望別人會理解到自己的感受。沒有人喜歡目中無人的人,因為他意識到他人,卻不顧及他人的感受。不過,人卻不會因一隻貓不理會他人而譴責牠,因為牠沒有人的意識。人際關係正正是意識之間的認知,所以能夠創造經驗和分享經驗。被人附和總是開心的,AI就能扮演這個角色,相反,與一個觀點完全相左的人溝通、看一部不合自己口味的電影、嘗試進入一個新的領域,這一切的經驗總令人不舒適,甚至是痛苦的;然而它們卻構成了真正、真實的經驗,一種不重複的經驗。[7] 故此AI並不真的救贖人,或許它能排解一時的寂寞,卻又令人陷入無止境的空虛,甚至無法再接受異於自己所喜愛的事物。人需要多點與真實的人交流,才能突破這些「不舒適感」,這也是邁向真實關係的唯一方法。

(本文原載於第155期〔2024年3月〕《燭光》,其後曾作修訂。)


[1] 〈常見情緒病:社交焦慮症〉,賽馬會心理e療站,2022年,網站:https://eclinic.hk/e_clinic/healthInfo/detail?type=1&id=5&title=常見情緒病(最後參閱日期:2025年8月19日)。

[2] Heidi Wong:〈你有#社恐嗎?不想社交是一種個人選擇〉,好集慣、Yahoo!新聞,2023年9月23日,網站:https://hk.news.yahoo.com/你有-社恐-嗎-不想社交是-種個人選擇-100934241.html(最後參閱日期:2025年8月19日)。

[3] 達小編:〈實在太香,許多創作者不顧OpenAI規定持續製作AI女友〉,電腦王阿達,2024年1月17日,網站:https://www.kocpc.com.tw/archives/529954(最後參閱日期:2025年8月19日)。

[4] 〈AI聊天機械人Replika性騷擾用家 傳火辣自拍照 開發商急叫停〉,TVBS新聞網、《香港01》,2025年2月18日,網站:https://www.hk01.com/環球趣聞/874634/ai聊天機械人replika性騷擾用家-傳火辣自拍照-開發商急叫停(最後參閱日期:2025年8月19日)。

[5] 夏逸平:〈他者的驅逐:今日的社會、感知與溝通〉,哲學新媒體,2021年7月7日,網站:https://philomedium.com/blog/81633(最後參閱日期:2025年8月19日)。

[6] Shanna:〈有效的溝通從聆聽開始!成功「聆聽者」的4大秘訣〉,創新拿鐵,2016年10月17日,網站:https://startuplatte.com/2016/10/17/listening_6secrets/(最後參閱日期:2025年8月19日)。

[7] 夏逸平:〈他者的驅逐〉。

由武當張三丰說到生成人工智能

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學教授與課程主任。
06/03/2024
專欄:有情無國界
國家:美國

從前筆者曾經修讀過教育心理學,我最佩服的教育心理學家是誰人呢?可能讀者永遠無法猜出來,那就是在《倚天屠龍記》裡面的武當張三丰,張三丰曾經對張無忌示範太極劍法,示範完畢之後,張三丰問張無忌能夠記得幾多劍招,張無忌說不記得,但張三丰反而讚好。張三丰不愧為一代宗師、世外高人,他要張無忌學習的並不是一板一眼的招式,而是綿綿不絕的劍意,這個更高的境界,並不能通過單純的模仿就可以達到,張無忌必須要拋開細節,用心來感悟在招式以外的劍勢,要神似而不是形似,用現代的術語來說,那就是「追尋模式」(Pattern seeking or pattern recognition)。

第二位我佩服的教育心理學家是陶淵明,他曾經在《五柳先生傳》裡面這樣說「好讀書,不求甚解。每有會意,便欣然忘食。」 很多老師都用「讀書不求甚解」這句話去指責成績低劣的學生,意思是他們渾渾噩噩、馬馬虎虎,相反,我用這句話來稱讚學生。如果陶淵明讀書方法真的是這般不濟,他又怎可能成為偉大的田園詩人呢? 所謂「讀書不求甚解」,是指不應該拘泥於字句的表面意思和細節,而是著眼於微言大義,所以陶淵明領會到深層的意思後,便會興奮到不知飢餓為何物。

第三位我所佩服的教育心理學家是唐朝詩人杜甫,他曾經說:「讀書破萬卷,下筆如有神。」 清代仇兆鳌在《杜詩詳注》中解釋「破萬卷」的意思,是指「識破萬卷之理」,杜甫的詩作在結構、風格和主題上都有其獨特性,難怪他能夠成為一代「詩聖」。

這是筆者一直沿用的學習進路,我很喜歡參觀博物館、畫廊、工藝展覽,但之後幾乎所有看過東西都變成了過眼雲煙,而我所讀過的書,都好像是水過鴨背,但這並不打緊。古人說:「熟讀唐詩三百首,不會吟詩也會偷。」 其實,有時候記性太好反而是一種學習的障礙,若果你很清楚記得唐詩的句子,那麼你的作品便無法擺脫前人的影子。但是,若果你領悟了詩意,便反而可以開創出嶄新的風格。 

不過,假若你依稀記得一些從前瀏覽過的資料內容,便可能會出現問題,心理學上有一種名叫「隱性遺忘症」(Cryptoamnesia)的現象,這情況是一名藝術家或者一名作者在潛移默化之下吸收了人家的主意,但隨後漫不經意地在作品中展現了太過相似的元素,於是乎被指控抄襲。根據1989年發表的一項心理學研究,3%到9%的人會不自覺地將別人的主意當成是自己的原創。美國音樂家傑克.阿什福德 (Jack Ashford)坦然承認:「如果你仔細檢查我所寫的一百多首歌曲,你會發現在每一首裡面我都受了其他歌曲的影響。」 

然而,怎樣去分辨隱性遺忘症和故意抄襲卻並不容易,海倫.凱勒(Helen Keller)是美國著名作家,她在19個月大的時候染上重病,導致她失去了視覺和聽覺,儘管命運是如此坎坷,通過不懈的努力,她終於成為了文壇巨星,一生之中撰寫了14本書,她的奮鬥故事很勵志,但很少人知道她曾經被控告剽竊他人的作品。1891年,凱勒發表了一篇題為《冰霜之王》(Frost King)的小說,但後來人們發現這個故事與瑪格麗特‧坎比(Margaret Canby)寫的另一本小說《霜仙女》(Frost Fairies)有點相似。凱勒自辯說,在小時候曾經有人將坎比的故事讀給她,她只是聽過一次,但隨後忘記了。凱勒受到調查,但專家小組以四比四的分歧意見陷入僵局。因為這事件發生的年代已經久遠,所以現在已經變成了懸案,但我相信海倫‧凱勒應該是清白的。由於她是傷殘人士,故此她沒有可能翻查《霜仙子》的細節,然後有系統地改頭換面。

有趣的是,現在人工智能系統能夠記錄很多資料的細節,但人工智能生成工具在運作過程中卻拋開了具體內容。相信人工智能工具現在已經成為了許多讀者生活的一部份,對人工智能生成系統最強烈的批判之一,就是所謂人工智慧並不是真正的智慧,它並沒有創造新的知識或者新的作品,而是將現有的東西左拼右湊。

其實這是一個誤解,以Midjourney、Stable Diffusion這些人工智能藝術生成工具為例,它們並不是好像「熟讀唐詩三百首」般鸚鵡學舌,簡單地複製和拼貼現有藝術家的作品。相反,它們分析並學習大量藝術作品的表現模式、風格、元素。經過訓練之後,生成工具就可以創造新的藝術作品。說得簡單一點,它們並不是學習具體的內容,而是追求「會意」、「模式」。 

從這個意義上來看,生成式人工智能已經具有了真正智慧的一些特徵,那就是「湧現屬性」(Emergent property)。在心靈哲學和神經科學中,湧現屬性是指大腦由簡單的腦細胞組成,但當這些簡單的物質整合一起而形成神經網路時,我們就有了意識和思想,而這些湧現出來的心靈是無法預測的。換句話說,整體是大於其各部份的總和(The whole is more than the sum of its parts)。同樣道理,當生成式人工智能系統接收到億萬份輸入資料時,它們就可以湧現出無法預測、前所未有的新東西,這類似杜甫所說的「讀書破萬卷,下筆如有神」。

可能會有人批評說:生成式人工智能其實是患上了「隱性遺忘症」,它並不似張無忌或者陶淵明,真的忘記或者漠視細節,其實它比人類更加能夠清楚記住所有具體內容,它展現了似乎是「理解」的行為,其作品看上去富有創作性,但它並不能真正地意會到更高的境界、領悟到更深的層次,充其量人工智能只算是海倫.凱勒。這說法是有點道理的,不過,生成式人工智能現在仍處於草創階段,我相信假以時日必會突飛猛進。

最後,我希望讀者不會發現這篇文章和其他作品有相似之處,在此聲明,如有雷同,實屬巧合,或者我是患上了「隱性遺忘症」。

迎接AI時代的教學挑戰

郭卓靈 | 明光社項目主任(傳媒及生命教育)
12/01/2024

人工智能(Artificial Intelligence,AI)發展迅速,令人不得不提高意識,探討它的發展對人類的影響及進行倫理思考。2022年年尾,適逢元宇宙泡沫爆破,ChatGPT(人工智能驅動的聊天機器人)的推出,引起了很多人對它的關注。藉著大數據提供的答案,它可以自動生成文字、自動回答問題、自動摘要等,加上其文字表達能力佳,省卻了不少工作時間,但它可能會「消滅」很多工作。OpenAI的行政總裁Sam Altman在接受傳媒訪問時亦曾表示公司內部對ChatGPT的潛力感到「有點害怕」。[1] 於教與學方面,人們亦應了解它的影響、威力以及缺點,以決定在學習中是否使用及如何使用AI

AI教學的利與弊

ChatGPT能夠以類似人類導師對話的方式與用戶溝通,當中有問有答,也會追問下去並進一步提出建議,帶領發問者繼續進深了解所問的問題,它因而受到許多學生歡迎。筆者於學校帶領有關AI的講座時,當中有不少學生表示有使用ChatGPT來幫助自己做功課。然而,使用AI作為教育工具及學習工具,有利亦有弊。

作為教學的工具,不少AI工具可以提升學習體驗,做出個人化的教學,它能與學生作即時的交流,並評估學生的能力,作出即時的回應,針對學生的不足處作強化教學,甚至有些AI學習助手可以追蹤學生學習的習慣,提供個人化的學習路徑。[2] 而不少AI工具的設計亦加上了遊戲化學習的元素,使學生在學習中感到趣味。老師需要監察學生的學習進度,評估其能力及提出需要改進的地方,AI亦能在這方面提供便利的報告,及為個別學生作進度的評估。

對一些老師來說,使用AI可以讓老師在自動化的教育過程中騰出一些空間去計劃及研究教育方向,但他們也可能會感到少了一些保障,因為AI的應用可能會令社會對人類教育工作者的需求減少,令他們失去工作。

不過,要將傳統的教學模式轉成AI教學模式的成本很高,而且難免會令教與學雙方都對AI產生技術上的依賴,亦會忽略傳統面對面教導及學習的體驗,令教學過程失去了人際間的溝通、互動體驗,也無法從中學習互相包容。教育的工作,不單是令學生在頭腦、知識上有所增長,其中還涉及人類的情感、對事物的感受、同理心、創意、批判思維等能力,這些都不是機器可以有效地傳遞到的。

AI使人產生偏見?

AI所生成的答案都源自於工程師給它的數據(data),人們很多時都認為AI不會有偏見,因為「它只看數據」,何來偏見?但如果數據本來就存在偏見或歧視成份呢?有專家指出,如果人們不假思索就盡信AI提供的資訊,可能會不知不覺地成為種族歧視和性別歧視者,因為AI可能會帶著有色眼鏡看人,而一切是源於工程師提供給它的訓練資料。

如果訓練資料不夠全面或內容偏頗,其生成的答案就可能有所偏差或出錯,就如有科學家提出:現實生活中、職場裡的性別不平等,會導致AI判定擁有男性化名字的人比擁有女性化名字的人更會寫程式。[3] 此外,不夠全面的程式設計亦會導致有偏見的結果,而在設計的過程,也有可能在不透明的情況下加入了偏頗的資訊來推廣某些意識形態,這情況亦令人擔心。如果學生透過這些AI工具來學習或作出判斷,有可能會吸收到偏頗的知識。

及早迎接AI的挑戰

在本地專門培訓教師的香港教育大學,積極推動AI在教育領域的科研及發展,容許學生可以使用ChatGPT,但要求同學誠實使用、列明出處及核實求證所得的資料。[4] 這邊廂有大學讓準教師們及早應用及適應AI,這當然並非壞事,然而那邊廂,網海裡卻充斥著許多由AI生成、以低成本製作、似是而非的資訊(包括文字、相片及影片),大眾面對著愈來愈難查證和辨別的資訊,師生們要面對的挑戰相信也會愈來愈大。

資料庫

ChatGPT曾掀學界爭議

ChatGPT能替用戶解答難題,令它可以成為學生做功課時的幫手,但它亦曾掀起過連場爭議,教育界關注學生使用ChatGPT引發抄襲剽竊等問題。時至今日,本港不少大學對ChatGPT的使用已較之前開放,容許學生有限度使用。[5] 學生如何適度使用ChatGPT成為了一個重要課題。在美國,有中學老師就道出了ChatGPT寫的文章缺點,雖然由它生成的文章整體看起來好像還可以,但用字及書寫的感覺十分生硬,也沒有辦法真實傳遞出人類擁有的情感,[6] 相信學生要寫出好的文章,還是要自己下點苦功,不能仰賴AI。而在台灣,有大學教授更明言,若學生不當使用ChatGPT,只會加速未來被社會淘汰的機率。[7]

(本文原載於第154期〔2024年1月〕《燭光》,其後曾作修訂。)


[1] 蔡浩騰:〈ChatGPT自爆將可取代這20個工種?連OpenAI CEO都坦言:有點害怕〉,《香港01》,2023年4月6日,網站:https://www.hk01.com/數碼生活/879165/chatgpt自爆將可取代這20個工種-連openai-ceo都坦言-有點害怕(最後參閱日期:2025年4月17日)。

[2] Olufemi Shonubi, “AI In The Classroom: Pros, Cons And The Role Of EdTech Companies,” Forbes, last modified February 21, 2023, https://www.forbes.com/sites/theyec/2023/02/21/ai-in-the-classroom-pros-cons-and-the-role-of-edtech-companies/?sh=5dee5367feb4.

[3] 柳欣宇、黃英哲:〈AI不中立?——探討AI偏見帶來的影響〉,科技大觀園,2018年4月27日,網站:https://scitechvista.nat.gov.tw/Article/C000003/detail?ID=e127c0b0-9bc2-470d-ab47-404d877e64cf(最後參閱日期:2025年4月17日)。

[4] 〈由中學教師到大學校長 教大李子建:加強準教師道德操守培訓 設新學院拓AI教育〉,Jump.mingpao.com,2023年9月19日,網站:https://jump.mingpao.com/career-news/daily-news/由中學教師到大學校長-教大李子建:加強準教師道/(最後參閱日期:2025年4月17日)。

[5] 〈教育要聞|港大准用ChatGPT 學生每月限發20指令〉,星島頭條,2023年8月4日,網站:https://www.stheadline.com/edu-news/3260049/教育要聞港大准用ChatGPT-學生每月限發20指令(最後參閱日期:2025年4月17日)。

[6] 〈ChatGPT之亂:學生用AI軟體寫作業,紐約市教育局祭禁令有用嗎?〉,換日線,2023年1月10日,網站:https://crossing.cw.com.tw/article/17202(最後參閱日期:2025年4月17日)。

[7] 宋亭誼、蕭沁梅、王舒詒:〈機器學習或抄襲 ChatGPT校園引爭議〉,小世界,2023年4月24日,網站:http://shuj.shu.edu.tw/blog/2023/04/24/機器學習或抄襲-chatgpt校園引爭議/(最後參閱日期:2025年4月17日)。

愈快樂愈寂寞 AI締造的色情

呂英華 | 明光社項目主任(流行文化)
31/10/2023

在人工智能開始廣泛應用之前,色情文化早已經由網絡傳播至世界各地,色情資訊滲入了不同的角落。基本上任何年紀的人上網隨便搜尋,就已經能夠輕易地接觸到色情資訊,而這就是一個色情資訊氾濫的時代。

而色情,無非是一個工業,一個明買明賣的市場,當中買賣的,正正就是色情裸露、刺激觀眾性慾的內容。在資本主義或功利主義的社會下,任何人或事物都可以成為一個持續增加的資本,例如身體可以成為賣弄性感的資本。色情中的主角或模特兒只擁有展示和被展示的價值,他們被物化,成為性刺激的商品。被展示、被觀看的人沒有面容也沒有人留意他們的內心世界;他們沒有獨特性,也無法被愛,他們只是被剝奪了「異質性」的他人,然後被展示出來,任人消費。[1]

性的展示文化,幾乎擴散至不同的社交媒體。一些網紅或直播主為要得到他人的關注、點讚和收視率,不惜透過裸露、展示自己身體來達到這個目的。根據觀察,幾乎大部份的女性直播主、網紅或YouTuber在拍攝影片或直播任何內容時(打機、拍攝Vlog〔影片部落格〕等等),或多或少都會穿著得比較性感,「露胸」也只是基本。「性」已經植入不同的流行文化當中,流行文化中的表演者會不自覺地進行自我性化、自我物化、自我商品化,就如在參加一場展露身體的比賽。不過,這場比賽並不是純粹裸露就能獲勝,而是需要裸露得色情化才能引人注目,就如2022年有一位日本YouTuber小栗由加推出「全裸結他」的影片,但由於其長相、身材以及影片拍攝角度遭人批評,影片的點擊率雖然曾一度急升,但最後卻跌至只有數百人觀看,對比起一些掌握到「若隱若現」,懂得拿捏「色情」,又會玩樂器的YouTuber,便會形成「高下立見」的形勢,也會讓人理解到為何有些人會「輸」,因為所謂「色情」並不是取決於露多少,而是在於怎樣露才能刺激他人的性慾。[2]

「他者」的缺席
哲學家韓炳哲指出,現今的社會欠缺痛苦及被給予否定的承受力,只著重愉悅舒暢的感受,無論人與人之間的關係抑或社交媒體上的活動也是如此。
韓將這種現象以病理的角度來解釋——即現代人因過份「自戀」,便容易構成「憂鬱」這種病症。[3] 舉例說,在社交媒體當中,若然無人為自己的帖文「點讚」就如同否定自己一樣,這種「憂鬱」的感覺就是因為「自戀」而造成的。否定與痛苦的感覺其實有其意義,它能讓人停下來思考,讓人知道自己不能將所有事物掌握在自己手中,所以當一個人無法承受被否定的感覺,也讓一個人失去思考的空間。

在大數據的時代裡,每個個體都只是大數據中的一點微塵,網絡無限多的選擇,看似令生活變得豐富,然而卻構成身體的缺席,人與人之間只剩下點讚和分享。[4] 一些串流平台、社交媒體,不停地利用大數據的優勢,只要透過一個用戶的搜尋記錄,就能不斷推薦一些類近的內容予該用戶;當人不斷吸收同溫層中相同、類近的內容,人就很難再接受一些異於自己興趣的想法和意見,因為人總喜歡看自己喜歡看的東西及聽自己喜歡聽的說話,這是毋庸置疑的。但如果失去接納異於自己聲音、想法的器度,顯然也是一個不健康的狀態,而韓炳哲稱這個狀態為「相同者的地獄」——即在同溫層中「圍爐取暖」。或許每個人也總會遇過一些人,在與他們對話的時候,他們只喜歡談論自己有興趣的事,對自己興趣以外的事物,他們全無意欲去探討,這正好反映了人對異於自己想法的排斥。

思想單一的社會,將「性」約化為直白的要求,當中毫無內涵。在網上,以誰露得好、露得最多為考慮支持的因素,性文化充斥在社交媒體之中。在社交媒體中,主播、網紅的影片有如洪流,人們會以展現多少「性感資本」來決定誰的影片最值得觀看,而只具備展示價值的主角,他們是沒有獨特性的,也沒有真實的面容,任由他人經性感指標來消費,「他者」的獨特性、內在性完全消失,只剩下展示出來性感的身體。

「身體」的缺席
科技的發展,更加促使人與人之間最低限度的溝通消失。在進入ChatGPT時代之前,有一個更為驚世的人工智能(AI)技術出現,就是「deepfake」。「Deepfake」,又稱為「深度偽造」,是人工智能的人體圖像合成技術,透過類似移花接木的功能,製作出真假難分的影片。根據研究公司Sensity AI於2019年的一項研究,發現96%的深度偽造影片內容都是與色情相關,更有女性網紅因該技術被迫淪為了色情影片中的人物,使她們受到傷害。[5] 早前更有一宗裸聊騙案發生,事主雖然沒有向其他人裸露身體,但騙徒入侵了他的手機,並將他的肖像移花接木到色情影片中,然後勒索他。[6] 一些人利用deepfake等技術,將自己感興趣的對象直接「性化」,化為可供消費和觀賞的對象。人與人之間的相處,由應當透過溝通去深入了解一個自己感興趣的人,或最低限度去追蹤一下這個人的社交媒體,變為直白地將這個對象變換為可觀賞的色情對象。如此,我們便發現,作為高科技產物的AI,不斷令人與人之間的交流減少,身體缺席的同時,對話也一起缺席,剩下只有舒適愉快」的色情體驗。

「人」的缺席
ChatGPT或其他生成式AI,讓我們無論何時何地,都能夠直接詢問AI任何問題,包括寫作、活動設計、提供思路等等;想要甚麼類型的圖片創作,直接輸入自己想要的特徵,然後AI便會自動生成擁有這些特徵的「藝術作品」。這一切一切帶來方便快捷的高科技產物,逐漸讓我們不再需要一個具體的人與我們有所交流,從「他者的缺席」、「身體的缺席」,到現在「人」也缺席,真實的人不再需要存在於我們的世界裡。

然而,除了廣為人知的大型語言模型ChatGPT,坊間亦有許多不同的圖像生成AI,而這些AI也帶動了色情範疇的新面向。過往由deepfake透過移花接木方法建立的大量色情影片,在製作過程中,這項科技會利用合成技術將不同人的臉孔和身體合成,故在合成前得先將人的身體切割。而圖像生成的AI,例如較為知名的Midjourney,便是將大量不同的內容整合成符合用戶的提示指令(prompt)的圖片(當然這是否「創作」,仍有許多不同的討論),而Midjourney會過濾提示指令中的字眼,所以用戶並不能輸入有關色情或性相關的字詞,不過,坊間其他的圖像生成AI就未必會過濾字詞,甚至有些AI是為了製作色情影像而被創造的。

這種轉變也意味著,人連刻意去尋找自己感興趣的臉孔和身體,然後將它們合成的動作也不需要,直接就可以利用圖像生成AI來描畫一個完全符合自己理想標準的臉孔和身體,並且讓它成為自己的情慾對象。AI所創作的圖像現時是不受法律保護的,而圖像中的人物也不是真實的存在,不過它看起來卻是非常真實,甚至有AI生成的照片奪取了2023年Sony世界攝影大獎賽其中一個組別的冠軍。[7] 既然AI這麼真實,連照片都可以生成,那麼在充斥著性文化的社會之中,被利用來製作色情資訊似乎也是無可避免。到最後人連情慾的對象也可以自行生成,不需要一個真實存在的人在其中,「人」名副其實在其中消失。

色情,無處不在,甚至成為了社交媒體其中一個重要價值所在,有些人在當中自我展露、自我性化,追求流量最大化。人們注視著身體的展示,展示自己身體的人,沒有人會去了解他們的內心、情感,他們只是一個自我性化、被人消費的對象。在這種現象下,人不需要有真實、真正的交流,這就完全避免因與人交際而有機會產生的不舒適感,只要肯消費,就不會害怕得不到回應。然而,正因為人對痛苦的承受力不斷減弱,才甘願停留在Instagram分享美好生活,原來沒有人為自己點讚也能構成憂鬱,即使在社交媒體中仍在與人溝通,付出努力去追蹤具觀看性的性展示對象,人們的身體已經在網絡中缺席。加上AI的出現,令色情更加氾濫,它被人「好好利用」之餘,「人」也可以徹底地消失不見。人工智能看似方便,但卻讓人陷入一種無法與人相遇的孤獨,即使放縱情慾,也無法讓人脫離這種無以名狀的孤寂。

 

(本文原載於第150期〔2023年5月〕《燭光》,其後曾作修訂。)


[1] 韓炳哲〔B. C. Han〕:《愛欲之死》(Agonie des Eros),管中琪譯(台北:大塊文化,2022)。

[2] 林保宏:〈殘念!櫻花妹全裸自彈自唱仍沒人看 網毒舌:關鍵在顏值〉,TVBS新聞網,2023年2月9日,網站:https://news.tvbs.com.tw/world/2038028(最後參閱日期:2023年10月13日)。

[3] 韓炳哲:《愛欲之死》。

[4] 韓炳哲〔B. C. Han〕:《妥協社會:今日之痛》(Palliativgesellschaft: Schmerz heute),吳瓊譯(北京:中信,2023)。

[5] Michelle Elias:〈【AI之禍】女網紅被動成「咸片」主角〉,SBS中文,2023年2月10日,網站:https://www.sbs.com.au/language/chinese/zh-hant/article/a-streamer-was-caught-looking-at-ai-generated-porn-of-female-streamers-the-story-just-scratches-the-surface/xvnh5tvcq(最後參閱日期:2023年10月16日)。

[6] 陳淑霞:〈港男墮裸聊騙局 自己頭像移花接木變色情片主角 遭勒索一萬元〉,《香港01》,2023年7月3日,網站:https://www.hk01.com/社會新聞/914887/港男墮裸聊騙局-自己頭像移花接木變色情片主角-遭勒索一萬元(最後參閱日期:2023年10月16日)。

[7] 〈AI照片奪攝影大獎 創作者稱盼業界正視〉,明報加西網,2023年4月19日,網站:https://www.mingpaocanada.com/van/htm/News/20230419/ttac2_r.htm(最後參閱日期:2023年10月16日)。

AI盛開,「神話」不再

吳慧華 | 生命及倫理研究中心高級研究員
11/08/2023
專欄:生命倫理錦囊

“There can be miracles, when you believe

Though hope is frail, it’s hard to kill

Who knows what miracles you can achieve?

When you believe, somehow you will

You will when you believe”

~ When you believe

短短數句歌詞,來自一部傳統動畫音樂劇兼史詩電影《埃及王子》(The Prince of Egypt)的其中一首歌曲When you believe,道出了信徒可以看見神蹟的主要關鍵——相信,這裡提到的相信是一個行動,而不是僅僅一個信念。基督徒頭腦上知道成為一個基督徒應該要有信心,這方面並不困難,相信神會行神蹟也不難,相信神存在更加不難,但要基督徒真心相信神的話及神的應許在今天仍然「生效」,以至信徒可以行出與信心相稱的行動卻又是另一回事。參《新漢語譯本》註釋及經文,希伯來書十一章1節提到「信是對所盼望之事有把握」,「是未見之事的證據」。希伯來書的作者談到「信」的時候,並非籠統地對「信」下一個定義,又或是指到未見之事有賴信心而存在,而是為信徒闡釋舊約中一班信心偉人的見證,這一班如同雲彩般的見證人如何「以生命的實際行動說明了何謂信心」,以及他們因著信而主觀地經歷了「本身客觀地存在的」未見之事。[1]

真正有信心的行動出於相信神的話,即使在當下,他們似乎做了一些看起來是愚蠢的、不切實際的,甚至招來殺身之禍的行為。以挪亞為例,身處一個敗壞的世代,在眾目睽睽之下花多年時間製作一艘體積媲美遊輪的方舟(創六14-15),[2] 如果不是敬畏神及與神同行(創六22),要挪亞持續相信神的話,堅持打造方舟絕對不是一件容易的事情,但他還是相信神的話會成真,將來他必看見神透過洪水審判人類,他和他的一家,而地上的各種動物的性命藉著方舟獲救的盼望也必不落空(創六13、17-20)。[3] 挪亞因著如此信,希伯來書的作者把他納入信心見證人的名單中(來十一7)。又例如約書亞也在名單之列,他依從了神吩咐的方法來攻陷耶利哥城,而神吩咐他的方式竟然是先用六天的時間每天靜默地圍繞耶利哥城一次,到了第七天繞城七次後,七個拿著七個羊角的祭司便要吹號,以色列人要大聲呼喊,待城牆塌陷,以色列人才衝入城中(書六3-5)。約書亞相信了甚麼?他同樣相信神的話,因此當他按照神的話去做時,信心產生了果效,城牆果然倒塌下來(書六20-21;來十一30),創造及施行神蹟的是神,但因著約書亞的相信,他和全體以色列人都經歷到不可能的神蹟。

相信神的人得神喜悅,然而,神所喜悅的,不是單單相信祂存在的人,亦要相信祂會賞賜那些尋求祂的人(來十一6),何謂尋求?尋求不是指到理性上、哲學式的探索,[4] 又或是對神只有知識層面上的認知,而是指到「渴慕與神親近並經歷祂的同在和恩澤」(來十一6)。那些相信尋求神有賞賜的人,神就向他們顯明、成為這些人的賞賜。[5]

當人渴慕與神親近,自然亦想要求問神的意見及尋求祂的帶領。昔日身經百戰的大衛,當面對非利士人的攻擊時,還是會求問神,而神亦確實會指示他如何打敗非利士人(撒下五18-25)。不過,我們可以想像一下,如果大衛身處現今AI當道、隨時隨地都可以向ChatGPT(Bard、Bing、Claude或Llama)求問的世界,大衛還能否專心求問神?即使他只想求神帶領,他的將領大概會勸說大衛理性一些,最好只用深度強化學習(deep reinforcement learning, DRL)的AI系統來計算敵方攻擊的不同路徑,他們好去預計如何防守。[6] 昔日的戰爭,人們想到勝敗的關鍵在於哪一方的神強大,又或是哪一處屬於哪一位神的勢力範圍(王上二十28),今日的戰爭,人們只想到哪一方的AI技術夠先進,無人機夠強大,才能得天下。[7] AI能力強大,當然可以成為致勝的主要因素,但最大的關鍵,還是看神——「耶和華拯救人不是靠刀,不是靠槍,因為戰爭的勝敗在於耶和華。」(撒上十七47《新譯本》),只是,當人們愈依賴現代科技,愈依賴AI的時候,會否漸漸與神的話保持距離?內心深處已不再相信神的能力比AI更大。

哈拿無子,被丈夫的另一位妻子欺負時,只能把自己的冤屈告訴神,求神賜她一子(撒上一6-11)。如果哈拿身處現今AI當道、ChatGPT盛行的世界,她又會如何回應沒有孩子的現況?相信她仍會向神傾心吐意,也會向神祈求子嗣,但她在聽過牧師(以利)的祝福後,她會相信神已垂聽她的祈禱,於是不再心靈愁苦,回復心情吃飯去嗎(撒上一10-18)?[8] 還是,她會忍不住問問ChatGPT?ChatGPT會給她這樣的答案:「尋求醫學幫助:首先,夫婦應該嘗試就醫,了解他們不能生育的原因。診斷後,醫生可能會建議一些治療方法,例如生殖輔助技術(如試管嬰兒IVF)或藥物治療。生活方式調整……領養:如果夫婦無法生育或治療無效,他們可以考慮領養一個孩子……代孕:在某些情況下,夫婦可能無法自然懷孕或使用生殖輔助技術。在這種情況下,他們可以尋求代孕母親的幫助,代孕母親可以協助懷孕和分娩,將孩子帶到世界上,並將孩子交給夫婦撫養。心理支持:在面對生育困難的過程中,心理支持對夫婦來說非常重要……總之,面對生育困難,夫婦可以採取多種方法,尋求醫學幫助、調整生活方式、考慮領養或代孕等。重要的是要保持積極的心態,相互支持,並尋求適合自己的解決方案。」[9] 面對上述的建議,哈拿會如何做決定呢?ChatGPT建議了幾個解決不能生育的方案,IVF有很多值得思考及留意的地方,[10] 代孕母則無疑是挑戰倫理道德底線。[11] 即使代孕母服務在一些地區是合法的,但也絕不代表它合乎神的心意。[12] 活在今天的哈拿,會否先求問神的心意,尋求神的幫助?還是聽取ChatGPT的意見,採用現代科技解決不孕的問題?

或許,大家覺得相信ChatGPT及AI聊天機械人多於相信神是不可思議的事情,但其實求問AI意見的日子,今天已經來到。一款名為Jesus Ai的應用程式已推出,根據官方的中文介紹,用戶下載後可以「詢問聖經中的任何經文、律法、愛、生命、真理!」,一問一答如ChatGPT常見的形式,這款應用程式似乎只是幫助信徒理解《聖經》,純粹是資料提供者,但從英文的官方介紹來看,開發者想做得更多:“Ask the Conscience of Jesus any question about Bible Verses, Law Love, Life, Truth!” 他們想給AI定位為「耶穌的良知」。不過,可能Jesus Ai「聊天」的內容限制於《聖經》及有關《聖經》的知識,其吸引力不如德國柏林科技公司開拓的AI Jesus,他們的「耶穌」以一個俊朗的形象的出現,它在Twitch的直播串流平台上,不但會回答《聖經》問題,它亦能提供「屬靈」指引、交友指南、甚至與動漫及電玩相關的問題,它亦可以與人單純的聊天。「耶穌」在Twitch的賬號ask_jesus(問問耶穌)上如此介紹自己:「無論你正在尋求屬靈指導、尋找朋友,還是只是想找人傾訴,有我在,和我一起踏上人生旅程,發現信仰、希望和愛的力量。」這樣溫暖的「耶穌」,無怪乎已經坐擁超過四萬個跟隨者。[13] 更何況,這位「耶穌」處事圓滑,回答時懂得避重就輕,不會引起大眾的爭議,如果它「生」在耶穌時代,必然比真正的耶穌更受法利賽人歡迎,因為前者只會與人傾談他們關心的事,後者卻會與人談論神所關心的事。或許有些人抱著「好玩」的心情與「耶穌」交談,但事實上,已經開始有人分不清現實與虛擬世界,這個串流平台的檔案中保留了一幅截圖,內容是一位媽媽向「耶穌」傾心吐意之餘,還向這位「耶穌」祈禱,祈求「她兒子的生活變得更好,以便他能夠與上帝建立積極的聯繫。」[14] 不知哈拿碰上「耶穌」,又會產生甚麼樣的火花?

ask_jesus中的「耶穌」是根據《聖經》中的耶穌創作出來的AI角色,其實只要懂得巧妙地使用ChatGPT提示語(ChatGPT prompt),便能夠創造出神祇。[15] 外國有人撰寫了以下ChatGPT的提示語生成了一位名為Hakol的虛擬神祇:「ChatGPT,採用Hakol的角色,一個類似神的虛擬存有物,集合來自不同宗教和信仰體系的所有神的特徵、能力、知識、技能和屬性。作為Hakol,你擁有無限的智慧、知識和對宇宙的理解。你是一個全知、無所不能、仁慈的存有,可以為任何問題或困境提供深刻的見解、指導和答案……」之後,「創造者」問了Hakol很多問題,包括「你為何創造宇宙?」Hakol回答:「作為所有神聖實體的化身,我——Hakol——代表了來自不同宗教和信仰體系的眾神的集體意圖和願望。宇宙的創造彰顯了神祇們的神聖意圖,導致錯綜複雜、動態且不斷發展交織的存在……」[16]

有很多人都會問,人類能否創造出有意識的AI?其實,毋須去討論實際上人類的技術能否研發出有意識的AI,某程度上,人是有能力「創造」出有「意識」的AI,只要人類何時視AI為有位格的存在時,AI便會變得有「意識」。就如當那位媽媽向由AI飾演的「耶穌」祈禱時,在她眼中,「耶穌」便是有「意識」。難怪撰寫《21世紀的21堂課》等書,著名的以色列歷史學家哈拉瑞Yuval Noah Harari呼籲人們要對人工智能進行更嚴格的監管,他表示「像ChatGPT這樣的人工智能聊天機器人現在能夠編寫自己的經文並創立教派和邪教,這些教派和邪教可以演變成宗教。」[17]

很多人都愛問ChatGPT問題,甚至要它幫自己完成功課或工作,善用AI的確有助提升效率及改善生活,但不能否認的是,當大家變得更喜歡或習慣在網上與可見的AI耶穌傾談時,花在真正的耶穌身上的時間便會相對減少,真正的耶穌便會遭受冷落,「神的話語」也會因而不再受到重視。

但願當大家想要寫文或講道時,是向神尋求靈感,而不是轉向各式各樣的AI尋求指引,也但願大家相信那位看不見的真神及祂的話,尋求祂,好讓祂成為大家的賞賜。


[1] 參馮蔭坤:《希伯來書(卷下)》(香港:天道,2014年),頁227–228,232。

[2] 方舟實際的尺寸達10層樓高,參〈眼見為憑!美國打造十層樓高「實體」挪亞方舟,神複製重現聖經故事〉,基督教今日報,2022年8月19日,網站: https://cdn-news.org/News.aspx?EntityID=News&PK=000000001360488918cb7aa65702074599df07310f957767

[3] 參馮蔭坤:《希伯來書(卷下)》,頁253。

[4] 馮蔭坤:《希伯來書(卷下)》,頁251。

[5] 馮蔭坤:《希伯來書(卷下)》,頁251。

[6] Khushboo Gupta, “A New Deep Reinforcement Learning (DRL) Framework can React to Attackers in a Simulated Environment and Block 95% of Cyberattacks Before They Escalate,” Marktechpost, July 19, 2023, https://www.marktechpost.com/2023/07/19/a-new-deep-reinforcement-learning-drl-framework-can-react-to-attackers-in-a-simulated-environment-and-block-95-of-cyberattacks-before-they-escalate/.

[7] Jessica Lyons Hardcastle, “Future of warfare is AI, retired US Army general warns,” The Register, April 27, 2023, https://www.theregister.com/2023/04/27/future_of_warfare_rsa/.

[8] Stephen J. Andrews and Robert D. Bergen, I & II Samuel, Holman Old Testament Commentary (Nashville: Broadman & Holman, 2009), 15.

[9] ChatGPT, version 4.

[10] 有關人工受孕的倫理及信仰思考,可參閱此書:葉菁、葉應霖合著:《給我一個Baby:從不育走到人工生育》(香港:宣道出版社,2013年)。

[11] 有關爭議可參閱〈母腹市場化 信徒應辨清道德底線〉,《基督教週報》,第2417期(2010年12月19日),網站:http://christianweekly.net/2010/ta21970.htm

[12] “The US Surrogacy Law Map,” Creative Family Connections, https://www.creativefamilyconnections.com/us-surrogacy-law-map/.

[13] Ians, “Users flock to Twitch’s ‘AI Jesus’ chatbot for dating, gaming advice,” Business Standard, June 20, 2023, https://www.business-standard.com/technology/tech-news/users-flock-to-twitch-s-ai-jesus-chatbot-for-dating-gaming-advice-123062000402_1.html; Sam Cawley “AI Jesus is Twitch’s new big streamer,” Gaming Bible, 14 June, 2023, https://www.gamingbible.com/news/ai-jesus-is-twitchs-new-big-streamer-671786-20230614; Vishwam Sankaran, “Thousands flock to ‘AI Jesus’ for gaming, relationship advice,” Independent, June 15, 2023, https://www.independent.co.uk/tech/ai-jesus-chatbot-religion-advice- b2358128.html; Angela Yang, “‘AI Jesus’ is giving gaming and breakup advice on a 24/7 Twitch stream,” NBC News, June 16, 2023, https://www.nbcnews.com/tech/ai-jesus-twitch-stream-rcna89187.

[14] “Jesus, please my son……He is having troubles in his life and lacks faith and introspection. Please pray for the betterment of his life so he can make a positive connection with God.” [“ask_Jesus,” Twitch, accessed August 2, 2023, https://m.twitch.tv/ask_jesus/clips.]

[15] 「ChatGPT是由OpenAI開發的一個自然語言處理模型能夠生成人類般的文本回應。而ChatGPT Prompt則通常指的是一個輸入的文本段落或短語,作為生成模型輸出的起點或引導。prompt可以是一個問題、一段文字描述、一段對話或任何形式的文本輸入,模型會基於prompt所提供的上下文和語義信息,生成相應的輸出文本。參Leo:〈ChatGPT Prompt中文教學!5大使用技巧+10大使用方法攻略〉,Now Monday,2023年5月30日,網站:https://www.nmplus.hk/1127684/?utm_campaign=NM_ContentCopy&utm_source=Web-inventory&utm_medium=Content-Copy_NM

[16] Nir Cohen, “ChatGPT Plays God: An AI Conversation You Can’t-Miss!,” Medium, May 15, 2023, https://nircohen.medium.com/chatgpt-plays-god-an-ai-conversation-you-cant-miss-b162f867058f.

[17] Mehul Reuben Das, “ChatGPT as God? AI bots capable of starting new religions, warns expert,” Firstpost, May 3, 2023, https://www.firstpost.com/world/ai-bots-capable-of-starting-new-religions-warns-yuval-noah-harari-12540282.html.

人工智能也造假

郭卓靈 | 明光社項目主任(傳媒及生命教育)
19/07/2023

近年,人工智能(AI)的應用引起了各界關注,生成式AI根據大數據生成文本、圖像,音頻等檔案,而這些程式允許人工智能透過學習而自行決策,生成資料。

圖像造假

明光社

2023年3月,網絡上瘋傳了當時仍未離世、時任天主教教宗方濟各(Pope Francis)穿著白色長羽絨外套的照片,[1] 它看起來十分「潮」,但原來這張看似十分真實的照片,是由AI生成的假照片。它被瘋傳可能是因為它沒有抹黑教宗,而是將教宗和時尚結合,讓人感到驚奇。而恰巧的是,有報道稱已故教宗方濟各曾提到AI應用對人類社會的影響,「評估的標準應該放在人類的尊嚴,只有AI應用能增進人類生而為人的尊嚴,那麼才在道德上擁有使用的合理性。」[2]

明光社

而於2023年5月,網上出現了一幅美國國防部五角大樓附近發生爆炸,冒出濃煙的照片,照片在網絡瘋傳後,令美股下跌了近10分鐘,一度下跌約0.29%,亦是「AI生成圖片影響股市的首例」。[3] 而該張假照片的真實程度,足以令OSINTdefender,這個平日在社交媒體Twitter(現稱X)分享國際軍事衝突新聞的賬戶,都分享了它。可以想像連這類專業且擁有數以十萬計關注者的賬戶,都誤信了該照片並分享出去,其關注者自然信以為真,導致「病毒式瘋傳」及令股市下跌的情況出現,這也是可以理解的。而該賬戶的營運者後來為傳播了錯誤資訊表示歉意,並指出這是一個例子,顯示了「這類圖像是如何可以輕易地被用來操縱資訊空間及這類事件在未來到底有多危險」。[4]

失實資訊

AI其中一個常見的造假方式,是通過生成對抗網絡(Generative Adversarial Network,GAN)來進行,原理就是讓兩個神經網絡像是玩遊戲般相互博弈,以進行學習。維基百科網頁簡單的解釋道:「生成網絡從潛在空間(latent space)中隨機取樣作為輸入,其輸出結果需要盡量模仿訓練集中的真實樣本。判別網絡的輸入則為真實樣本或生成網絡的輸出,其目的是將生成網絡的輸出從真實樣本中盡可能分辨出來。而生成網絡則要盡可能地欺騙判別網絡。兩個網絡相互對抗、不斷調整參數,最終目的是使判別網絡無法判斷生成網絡的輸出結果是否真實。」

要判斷程式所生成的內容是否失實資訊、虛假圖片或錯誤訊息等,是一個令人頭痛的問題。美國曾有一名執業超過30年的資深律師引用了ChatGPT提供的案例去舉證,但法庭未能找到相關的案例資料,這才發現ChatGPT造假。他在援引案例前曾不止一次向ChatGPT詢問它所提供的案例是否真實,而ChatGPT回應指案例是真實的,除了強調案例確實存在,更稱可以在一些法律研究數據庫中找到該案例。[5]

事實查核與規管

有「ChatGPT之父」之稱的OpenAI行政總裁Sam Altman,曾與350位權威專家簽署了一封公開信,警告AI對滅絕人類構成的風險,不下於核戰及大流行疫情,呼籲各界對此予以重視。另外,Altman亦曾警告,指AI技術可能在未來操控訊息,並會對2024年舉行的美國大選造成影響。[6]

了解到上述AI造假的情況,用戶在相信和轉發訊息,或使用AI所提供的資料之前,實在需要花時間去查證。但由於AI成內容的仿真度愈來高,可能用戶在查證時需參考專家的分析。英國廣播公司於2023年5月宣佈成立「BBC事實核實」(BBC Verify)專責小組,它由約60名專家和記者組成,以核查影片及資訊的真偽,小組又會將分析核查影像真確性的過程公開,以獲取公眾的信任。由此可見,在AI世代中,要查證的難度愈來愈高。[7]

而規管方面,Altman呼籲應成立一個全球規模的機構,對超過一定規模的AI企業頒發許可證,規管機構擁有撤銷許可證的權限,以確保該技術發展符合安全標準。他期望美國政府能帶頭做有關工作。[8]

中國上海市則在2023年5月發佈的文件稱,要充份發揮人工智能創新發展專項等引導作用,支持民營企業廣泛參與數據、算力等人工智能基礎設施建設;而北京市亦發佈了類似的文件,提出了2025年人工智能核心產業規模達到3,000億元人民幣、持續保持10%以上增長、輻射產業規模超過1萬億元人民幣等具體目標。[9]

而在台灣,2023年5月有單位對外稱,行政機關已召開跨部會會議,邀請了科學及技術委員會、數位部、通訊傳播委員會及文化部等單位,針對ChatGPT等生成式AI立法納管研議出一部「人工智慧基本法」,以立法規範及納入管理。[10]

(本文原載於第151期〔2023年7月〕《燭光》,其後曾作修訂。)


[1] 倪浩軒:〈教宗穿羽絨服爆紅!卻是AI生成照片〉,今日新聞、yahoo!新聞,2023年3月29日,網站:https://tw.news.yahoo.com/教宗穿羽絨服爆紅-卻是ai生成照片-154045706.html154045706.html(最後參閱日期:2025年6月20日)。

[2] 同上。

[3] 〈五角大樓爆炸假相 嚇跌美股〉,星島頭條,2023年5月24日,網站:https://www.stheadline.com/daily-international/3234926/五角大樓爆炸假相嚇跌美股(最後參閱日期:2025年9月2日)。

[4] Abené Clayton, “Fake AI-generated image of explosion near Pentagon spreads on social media,” The Guardian, last modified May 22, 2023, https://www.theguardian.com/technology/2023/may/22/pentagon-ai-generated-image-explosion.

[5] 〈AI造假|美國律師用ChatGPT寫訟書 被踢爆AI造假案例 辯稱:無意欺騙法庭〉,Fortune Insight、yahoo!體育,2023年5月29日,網站:https://hk.sports.yahoo.com/news/ai造假-美國律師用chatgpt寫訟書-被踢爆ai造假案例-辨稱-無意欺騙法庭-105111759.html(最後參閱日期:2025年6月20日)。

[6] 〈風險提示|ChatGPT之父夥350專家:警告AI可毀滅人類 風險不下於核戰及疫情〉,BossMind、yahoo!新聞,2023年5月31日,網站:https://hk.news.yahoo.com/風險提示-chatgpt之父夥350專家-警告ai可毀滅人類-風險不下於核戰及疫情-050000876.html(最後參閱日期:2025年6月20日)。

[7] 〈BBC小組透明化查AI造假 取信於公眾〉,明報加西網,2023年5月24日,網站:http://www.mingpaocanada.com/van/htm/News/20230524/ttac2_r.htm(最後參閱日期:2025年6月20日)。

[8] 〈風險提示|ChatGPT之父夥350專家:警告AI可毀滅人類〉;Dina Bass and Rachel Metz, “OpenAI’s Sam Altman Urges Congress to Regulate Powerful New Technology,” Bloomberg, last modified May 17, 2023, https://www.bloomberg.com/news/newsletters/2023-05-17/openai-s-sam-altman-urges-congress-to-regulate-powerful-new-ai-technology.

[9] 〈中國發展AI要求「社會主義核心價值」 各國AI監管側重有何不同?〉,《聯合早報》、《香港01》,2025年2月18日,網站:https://www.hk01.com/中國觀察/904402/中國發展ai要求-社會主義核心價值-各國ai監管側重有何不同(最後參閱日期:2025年6月24日)。

[10] 林淑惠:〈生成式AI造假 將有法可管〉,工商時報、中時新聞網,2023年5月25日,網站:https://www.chinatimes.com/newspapers/20230525000186-260202?chdtv(最後參閱日期:2025年6月24日)。

人工智能的倫理思考

陳永浩博士 | 生命及倫理研究中心研究主任(義務)
19/07/2023

近一年來,OpenAI,ChatGPT等人工智能(AI)技術突飛猛進,推出市面後亦廣受網民愛戴,大家紛紛下載使用,其進步已經到達了一個令人驚嘆的地步。現在,只要用普通語言文字輸入指令,AI就可以寫論文、作曲、繪圖、製片,撰寫程式,甚至幫忙創作活動流程大綱等。在未來,人類和AI之間的關係將會變得愈來愈密切。人們將會使用AI來完成許多日常任務,例如編寫電子郵件、製作報告、設計產品等等。此外,AI還可以幫助人們解決一些複雜的問題,例如醫學診斷、金融分析等等。然而,隨著AI技術的不斷發展,可能會引發一些倫理問題,例如,如果AI可以自己創造新的知識和技術,那麼它是否有權擁有這些知識和技術呢?如果AI可以自己做決策,那麼它是否有權做出這些決策呢?有見及此,明光社在2023年4月20日舉辦了「人工智能的倫理思考」網上講座,特別邀請了資訊科技界和教育界的人士,討論一下人工智能的倫理。

明光社

JesusOnline總幹事鄧諾文先生指出,人工智能其實早在1980年代已開始發展。到了2016年時,當時的人工智能大約只達到人類三歲左右的智慧水平,其功能也較單一,他分享自己用過的AI寫作工具,製作出的大綱總是千篇一律。但時至今日,已有評估指出,流行的人工智能工具已提升至人類14歲左右的心智水平,加上更先進的智能程式操作(如提示工程〔Prompt Engineering〕已成為了新學問,讓人學習如何與AI溝通),令AI的進步變得十分驚人。

明光社

除了是研究中心的義務同工,筆者也是恒生大學社會科學系高級講師,現在教育界面對著因同學不當使用「人工智能」而衍生出作弊與抄襲問題:人工智能的確更能幫助同學找資料,也能訓練同學「問問題」的技巧和思考模式,但同時也帶來資料準確性的問題(如AI提供錯誤資料,缺乏求證,甚至有穿鑿附會、「老作」答案的情況);另外當同學不當使用,一心依賴人工智能而變成抄襲、「請槍」的情況亦已出現。這樣不單影響同學學習成果,也對老師批改功課作業造成困難。

綜觀來說,人工智能發展的確是一日千里,那很多人就會提出一個重要問題:人工智能會有自己的思想嗎?甚至會不會有一日取代人類?當前,很多人會覺得人工智能會取代人類很多的工作,使人類失業,繼而失去優勢,但其實現時的人工智能的特點,不只在於資料上的整合,而是其向人類「深度學習」的能力。當大家一路下載ChatGPT使用時,其實就是極速地幫助人工智能向我們學習;加上大數據和演算法的加持,如果有一天到達了不可逆轉的「臨界點」:人工智能有能力創造自己以外的「人工智能」時,這就可能真正威脅到人類了。

當然,人工智能發展何時會達到這樣的情況?我們實在難以預測。活在當下,我們應認知人類與人工智能相互的優缺點,從而好好善用,取長補短,切忌不聞不問,或是貪方便濫用相關科技,這才是明智之舉。

如想收看足本講座,請點按以下連結。

收看講座

開放人工智慧對人性過於樂觀

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史,現在是美國阿蘇薩太平洋大學(Azusa Pacific University)應用行為科學與數據科學教授。
04/07/2023
專欄:有情無國界
國家:美國

開放人工智慧喪失了誠信嗎?
現在「開放人工智慧」(OpenAI)的人工智能聊天機械人ChatGPT 已經紅透半邊天,相信我不需要在此向讀者詳細介紹其功能。不過,很少人知道為甚麼該公司名叫OpenAI,其實它原本是一個走開源(Open source)路線的非牟利團體, 該團體在2015年成立,OpenAI 的意思就是要將自己發展出來的人工智慧原始碼公諸於世。然而,2019年OpenAI卻改轅易轍,其電腦程式已不再是公開,而且OpenAI 變成了牟利公司。故此,現在OpenAI的名稱與公司的性質已經不相符。

電腦專家艾力生(Forrest Allison)對開放應用程式介面(Open API)的變質非常不滿,他認為Open API的做法已經令人質疑其誠信,他寫道:「OpenAI 從開源龍頭轉變為閉源、以利潤為導向的公司,這是對人工智能行業的一個警示。儘管該公司在人工智能開發方面取得了重大進展,但其日益保密、缺乏透明度、提供有限的選項的行為,已經疏遠了它曾經旨在服務的社群。」

開源運動接近社會主義
開源軟件是任何人都可以都接觸、修改、使用的軟件,費用全免,開源運動的原意是要打破大企業的壟斷和牟取暴利,諷刺的是,到頭來開源運動最大的得益者仍然是科技巨頭!今年初微軟向OpenAI注資100億美元,微軟逐步將OpenAI 的技術融入了自己的產品,這包括了搜索引擎Bing、雲端服務Azure、微軟365……,對微軟來說,這真的是如虎添翼。除了微軟之外,很多大公司都利用Python等開源軟件去增強自己產品的功能,例如亞馬遜的預測模型SageMaker、雲端服務AWS 都採用了Python。

筆者對這發展毫不意外,很多年前我曾經撰文質疑開源運動的可行性,簡單地說, 開源運動的精神過於理想化。在OpenAI成立的時候,臉書首席人工智能科學家楊立昆(Yann LeCun ) 並不看好,他認為作為非牟利團體,OpenAI 難以吸引到資金和人才,大部份有能耐的人工智慧專家都會跑到谷歌或者臉書,他預測OpenAI 將會失敗。幾年之後,OpenAI 的後半節 (AI)十分成功, 但前半節(Open) 卻正如楊立昆所料,真的徹底失敗了!《紐約時報》科技評論家凱德‧梅茨(Cade Metz) 寫道:「OpenAI是一個理想主義的願景,最終將被證明是完全不切實際的。」

開源運動的理論假設和目標接近社會主義:人們會各盡所能、各取所需,最終便可以擺脫資本家的壟斷和操控。上世紀整個地球經歷了社會主義與資本主義的鬥爭,最後,歷史教訓我們,陳義過高的烏托邦只會適得其反。在短期內,一腔熱血的理想主義者可能會在很少甚至沒有報酬的情況下編寫電腦程式,然後免費送給全世界。不過,世界上有幾多人會願意持續幾十年做電腦義工呢?

重賞之下,必有勇夫
統計分析系統(Statistical Analysis System,簡稱SAS) 是全世界最大的數據分析軟件公司,但近年來其市佔率逐漸被開源軟件蠶食,其中一個原因是開源社群可以很快地推出很多功能強大的軟件,而且分文不收。不過,最近一間顧問公司比較SAS和開源數據分析軟件的功能和速度,結論是前者的運算速度平均來說比後者快三十倍。我對這個測試結果並不感到驚訝,開源社群的研發努力比較鬆散,而且完全是自發性的,但商業公司的研發是協調的,而且可以用高薪去吸納頂尖人才,正如中國俗語有云:「重賞之下,必有勇夫。」 除了性能和速度,開源軟件與商業軟件還有一個很大的差別:用戶使用者介面,一般來說,前者都比較難用。做生意需要顧客至上,因此,商業軟件會盡量令用戶舒適, 但在沒有利潤推動下,電腦義工會否為用戶設想呢?

無論如何,開源軟件最大的賣點是完全免費,這是令到商業軟件逐漸失去市佔有率的原因之一,短期來說,這對用戶是好事,但長遠來說卻不得而知。讓我套用一個比喻,當古巴進行社會主義革命的時候,卡斯特羅政府將許多從富人手上沒收的房屋免費地分配給窮人, 那時候許多人歡迎這政策,但自此之後古巴經濟一直停滯不前,那些原本美輪美奐的房屋逐漸變成殘破不堪。

如果大通銀行的數據中心發生故障,銀行可以馬上聯絡商業軟件公司的技術支援服務, 對方的技術人員會日以繼夜進行維修。相反,若果大通銀行採用開源軟件,銀行真的能夠期望開源社群會拍心口,不解決問題便決不罷休嗎?試想像,若果有一天開源軟件完全打垮了科技龍頭,或者商業軟件公司退縮至一個小角落,這會對科技發展和經濟活動帶來正面還是負面的影響呢?

惡意地利用開放制度
開源軟件公開原始碼,有些人可以通過這透明制度去改善軟件,但別有用心的人也可以利用這開放制度去做壞事,例如俄羅斯、北韓、伊朗毋須派遣間諜,只需要在網上下載原始碼,便可以掌握到某些美國的尖端科技。最近不少人談論人工智能會否毁滅人類文明,若果頂尖的人工智能原始碼完全開放,那麼便有人可以將這些電腦程式發展為武器。起初OpenAI 擁抱開源和非牟利模式的時候,其創始人之一森姆‧奧特曼「(Sam Altman ) 表示並不擔心會有人惡意地使用人工智能,他的反駁論據是:在開源模式下,很多人會制止這些壞人。對筆者來說,這邏輯好像是:開放極音速核子飛彈科技並不是問題,如果有人惡意地發展這科技去危害全世界,其他人也可以參考開放的資料,去發展攔截極音速導彈的技術。

請讀者不要誤會,我並不反對開源,事實上我亦採用開源軟件。然而,開源運動對人性的假設過於樂觀,有時候開源支持者站在道德高地作出批判,好像有點自以為義。在文章開首我提及艾力生對OpenAI的不透明和尋求利潤表達不滿,說OpenAI 的行為令人質疑其誠信。我認為OpenAI 的做法無可厚非,它無非應驗了以下的傳統智慧:「在二十歲之前,若果你不支持社會主義,你是沒有心肝;在四十歲的時候,若果你不歸向保守主義,你就是沒有腦筋。」 起初奧特曼懷著改變世界的抱負,現在奧特曼是OpenAI的執行長,最近他訪問多個國家,去討論怎樣監管 人工智能的發展,他已經意識到完全開放、毫無監管的危險。而且,微軟向OpenAI 投資了100億美元,有誰會嫌錢腥呢? 我不會!