關注生命倫理 正視社會歪風

人類敵不過人工智能?

吳慧華   |   生命及倫理研究中心 高級研究員
22/06/2017

AlphaGo有多厲害?它分別打敗了柯潔及李世石這兩位世界級的圍棋高手。有網民高呼「想到機器無敵時,也是一種恐懼呀。」。也有人估計AlphaGo的母公司DeepMind會蒐集AlphaGo與兩大高手爭戰的數據,並且公佈成論文,並宣佈「人腦敵不過電腦的時代已來臨」。

是否AlphaGo打敗了兩大圍棋高手,便代表電腦勝過人腦的時代已經來臨?事實上,自從發明機械或電腦開始,人腦便註定「比不上」它們。試問現今還有誰可以準確無誤地記下一萬個客戶的資料,還包括他們的出生年月日(有了智能電話之後,可能連10個電話都說不出)?正如自從人類發明汽車一刻,便知道在道路暢通無阻的情況之下,人類是無法與汽車匹敵一樣。如果我們可以接受人類奔跑的速度比不上跑車,記憶力不如電腦,那麼,我們亦毋須得被AlphaGo比下去,因為AlphaGo與人類比拼的,返回最核心的仍是記憶力、計算能力,以及不眠不休的學習能力。

AlphaGo本身不懂圍棋規則,卻可以贏了圍棋高手,全靠被人餵養了3千萬份棋譜,而當中不乏高手的佈局資料,透過這批海量資料,好讓AlphaGo懂得模仿高手出招。再配合策略網路(判斷對手最可能的落子位置)及評價網路(下在這的勝率是多少) 、蒙地卡羅樹枝搜尋法(從有限的組合中計算最佳的位置)。另外,AlphaGo可以做到晝夜不分與自己博奕,不斷提升自己的能力。開始時或許只有3千萬份棋譜,但到了與李世石比賽時卻已經增加到1億。這一種強大的組合,又試問哪一個血肉之軀有力量去抵擋?即使李世石出了「神之一手」擊敗AlphaGo,AlphaGo卻轉眼間變得更強大。

人類與人工智能之間,永遠無法有公平的競爭。DeepMind的創辦人之一,AlphaGo 之父Demis Hassabis(德米斯 · 哈薩比斯)在一次演講中提到:「圍棋就是一門藝術,是一種客觀的藝術。我們坐在這裡的每一個人,都可能因為心情好壞產生成千上百種的新想法,但並不意味著每一種想法都是好的。而 AlphaGo 卻是客觀的,他的目標就是贏得遊戲。」一部絕對冷靜客觀又會超級運算的電腦,又哪有人是它的對手?除非,人類可以發明另一部人工智能,比AlphaGo的推算能力更快更強大,這時,兩者的競爭才公平。所以,亦有人說,打敗AlphaGo的其中一個方法,便是有一隊專門研究人工智能的團隊,為柯潔教路。

所以,如果稱讚AlphaGo打敗了柯潔及李世石,倒不如稱讚它打敗了它的前輩DeepBlue。DeepBlue只做到打敗國際象棋冠軍,對於圍棋這種更複雜以及高手會憑直覺來行的棋類,完全無能為力。相對國際象棋,圍棋的變化性更甚,19格X19格的方陣,共有361個落子點,所以整個圍棋棋局的總排列組合數高達10的171次方。AlphaGo的成功不是證明人類的失敗,正如數據科學家尹相志提到,AlphaGo「根本就是為了下圍棋所設計出來的人工智慧,如果要拿它來解決其他問題,勢必神經結構以及算法都必須要重新設計。所以李世石與其說是輸給了AlphaGo,還不如說是輸給了數學」。AlphaGo的出現,它證明了人類在研發人工智能方面,又邁出了一大步。

雖然AlphaGo戰績輝煌,甚至被中國圍棋協會授予職業圍棋九段稱號,但在數據科學家眼中,它還是弱人工智慧,它沒有自我意識與思考,只在於計算而不懂得理解圍棋的美學與策略。難怪李世石都批評「下棋的電腦並不了解圍棋之美、人之美」。是的,你要它明白圍棋的文化精神,是絕對沒可能的事情。它不會理解為甚麼圍棋又名「坐隱」、「手談」、「忘憂」、「爛柯」,以及當中的文化精神。也不會明白執黑子者為何通常第一手會下在右上角,以表示對白棋的尊重,AlphaGo基本上是連圍棋規則都不會。

人工智能與人類最大的不同在於人工智能能力高,卻缺少了「人性」。Google雲端人工智慧暨機器學習首席科學家李飛飛提出「情感面,人工智能基本連起步都還沒有」。因為人類有情感,所以面對比賽有壓力,不能冷靜自如,但正正因為人類有情感,人在逆境中能夠迸發無窮潛能,懂得靈活思考及變通,超越本身肉體或智力的限制,完成很多不可能完成的任務。人類不應與人工智能比能力,而應與它們比「人性」。

 

曾經刊載於: 

獨立媒體,2017年6月20日

關注範疇: 
生命倫理

相關文章

甘心淪為騙徒的大學生

郭卓靈 | 明光社項目主任(傳媒及生命教育)
24/10/2024

所謂戲如人生,電影《我談的那場戀愛》中,張天賦所飾演的李偉祖因為失業而成為網騙集團的詐騙新手,詐騙過程有著「人設」,如演戲般有佈局、角色設定與道具,讓李成為一位法國工程師,與中年婦科醫生余笑琴(吳君如飾)漸漸談起戀愛來……

而現實中,本地亦有詐騙集團,當中有高中生,甚至本地知名大學畢業生,在被招聘後,被告知真正業務是詐騙工作,而參與者得知在行騙成功後可獲分四成佣金,所以甘心加入成為騙徒犯案。騙款於一年間便高達3.6億元,想像一下,當中的四成對一些人來說的確很有吸引力。而集團主腦還會分小隊行騙,使用人工智能(AI)的深偽技術(Deepfake),塑造虛假的外貌及聲線成為俊男美女的投資專家,以網上情緣的手法誘騙「投資者」投放大量資金賺錢。集團的辦公室更有業績展示板寫上不同的小隊所得的騙款,以比拼業績及激勵團隊,可謂十分「專業」。

在警方、政府多年來的大力宣傳下,有誰(尤其是常常上網的年輕人)不知道以網上情緣方式進行詐騙是犯法的?原來讀書至高中、大學,人也不一定有能力抵抗金錢的誘惑,金錢的確能蒙蔽人的良心,對於內心寂寞的人、容易被騙的老人家,仍然能出手進行詐騙。又或許他們以為在網上進行詐騙,或以虛擬加密貨幣平台交易比較難查證,所以敢於以身試法。聖經說:「務要謹守,警醒,因為你們的仇敵魔鬼,如同吼叫的獅子,遍地遊行,尋找可吞吃的人。」(彼前五8)心靈空虛、渴望被關心的人,固然要小心可能遇上網絡詐騙;但想賺快錢,深被世界的價值觀所影響的人們,也要小心,不要為了眼前的利益而忘卻是非對錯,因而失足跌倒,既傷害別人也傷害自己。

如果人生真的如戲,但願如上文提及的電影,當中的詐騙初哥最後對被騙的醫生感到內疚,而被騙的醫生自己亦有所反思,了解到甚麼才是真正的感情,兩者都有所覺悟;筆者亦希望在現實世界中,被捕的犯人與及仍在享受罪中之樂的人們,早日回頭是岸。


參考資料:

蔡正邦、梁曉晴。〈拆解$3.6億詐騙集團招數 中英教材訓練騙徒 Deepfake男變女情騙〉。《香港01》。2024年10月14日。網站:https://www.hk01.com/%E7%AA%81%E7%99%BC/1066173/%E6%8B%86%E8%A7%A3-3-6%E5%84%84%E8%A9%90%E9%A8%99%E9%9B%86%E5%9C%98%E6%8B%9B%E6%95%B8-%E4%B8%AD%E8%8B%B1%E6%95%99%E6%9D%90%E8%A8%93%E7%B7%B4%E9%A8%99%E5%BE%92-deepfake%E7%94%B7%E8%AE%8A%E5%A5%B3%E6%83%85%E9%A8%99

生成式AI的潛藏危機

郭卓靈 | 明光社項目主任(傳媒及生命教育)
30/05/2024

近來Midjourney、Sora等生成式人工智能(AI)創作令人感到驚奇,能於數秒至數分鐘生產出讓人難辨真假的圖片及短片。生成式人工智能(Generative AI)屬於深度學習(Deep Learning)的一個分支,這意味著生成式AI的工作原理是機器學習模型,通過學習數據中的規律或模式(pattern)來生成新的內容。其中語言模型及深度學習,讓它能根據用戶輸入的資料來創造新內容。而這些創新的內容不限於文本,還包括圖像、動畫和3D模型等類型。[1]

圖像生成式AI能夠生成逼真的圖像。其中一種常用的模型是生成對抗網絡(GAN)。GAN由生成器和判別器組成:生成器負責生成假圖像,而判別器則試圖區分真實圖像和生成的圖像,兩者的工作在互相對抗。通過反覆訓練和對抗,GAN能夠生成愈來愈逼真的圖像。GAN可用於生成圖像、增強圖像解析度,以及創作藝術作品等。

而短片生成式AI也類似圖像生成式AI,短片生成也同樣可以使用GAN等模型。短片生成的挑戰在於同時要考慮時間和空間的因素,確保生成的短片具有連貫性和流暢性。它可以被廣泛應用於電影特效、動畫製作和遊戲開發等領域,創造出逼真的特技效果、生成動畫序列、改編故事情節等。這種技術為電影業和創意領域帶來了巨大的創作產量,令生產力大幅提升。AI能按照文字輸入指示而生成不同風格的圖片,而且生成的時間以秒計算,效率遠高於傳統按天產出的設計師,[2] 讓不少畫師、設計師面臨著失業的風險,但對於能掌握應用的設計師則如虎添翼。

背後的隱憂

由於生成式AI是以自動化形式生成圖像或影片,它能帶來無限的可能性,亦存在著不確定性和失控的風險。生成式AI模型的輸出是由訓練數據驅動,它可能會生成不正確、帶有誤導性或偏見的內容或圖片。

AI圖片、短片非常逼真,如讀者要判別它們的真偽,真的要花時間去細看、尋找資料比對。暫時有以下的方法去判別:

  1. 圖片人物的手部形態是否自然、影片中人物的步行動作有否怪異,背景影像是否模糊,有否帶有難以識別的文字等;
  2. 生成的圖片是否過於完美,如人物皮膚光滑得沒有瑕疵,身材比例以至光線都過於完美等;
  3. 使用AI圖片檢測程式(但結果未必完全可信,有媒體測試過這些檢測程式,發現它們的準確度參差)[3]
  4. 透過搜索引擎尋找圖片來源及背景脈絡,查明是否真有其事;
  5. 檢索事情的真確性,如圖片是否有不合乎物理規律的現象出現等。[4]

首兩點提到圖像或影片中的不自然情況,值得注意的是,在現行階段,生成的內容仍可能存在失真或不自然之處,只要用心細看,仍可看到破綻。但由於AI正在高速地學習,它不會停下來,而且進步速度極快。可以預見它於未來將逐步改善,憑肉眼就可判別真偽的情況可能很快就會過去。

亦正因如此,如這些AI模型被惡意使用,生成逼真的假新聞、虛假訊息或誤導性內容,這可能導致公眾誤解事件,混淆是非,損害訊息的可信度和可靠性,其後果可能帶來社會不穩定等負面影響。而AI的創作亦可能存在偏見和歧視,特別是當它受到內容不夠持平的數據訓練,生成了具有偏見的內容時,可能會加劇社會不平等和歧視問題。

生成式AI亦可能成為造謠、欺凌的工具,它可以生成虛假的個人資訊,運用這些資訊便可以冒充他人的身份。這可能導致網絡欺凌、惡搞事件、人身攻擊、仇恨言論等問題。而私隱方面,生成式AI模型需要大量的數據進行訓練,這些數據可能包含個人身份資訊和敏感內容;甚至用戶在輸入文字給生成式AI時,亦可能包含了自己的私隱及相關數據。如果這些資料及數據被濫用或洩露,可能導致隱私被嚴重侵犯和倫理問題。

對網絡生態的影響

2024年3月,歐洲議會通過了《人工智能法案》,以嚴格規範人工智能的使用。法案將規範的人工智能,包括生成式AI,在經過大量數據的訓練以後,它能生成新內容甚至執行任務。法案的條款會分階段自2025年起在歐盟境內逐步實施。[5] 而中國政府亦會落實對生成式AI的要求,監管相關的內容。[6] 這些法案能在規管AI生成內容方面起到一定的作用,不過AI的高速成長與發展影響著各個範疇,其高速生成的文字、圖片與及影片都會一直傾倒於網絡當中,未來亦會被「它自己」繼續取用來生成更多真假難辨的資訊,要規管這海量的資訊也有一定難度。筆者難以想像未來的網絡生態,當網絡充斥著許多AI生成、又難辨真偽的資訊,網民是否仍可於網海中找到真實及可信的資訊?又或者網絡會否完全變成虛假、只為大家提供娛樂及過於完美的超真實世界?


[1] 〈【 生成式 AI 】是甚麼? 一文了解 Generative AI 的原理及應用〉,PREFACE,網站:https://www.preface.ai/blog/what-is-generative-ai/(最後參閱日期:2024年5月10日)。

[2] 同上。

[3] 〈網上工具能否分辨真實AI維港圖片? 實測3工具準確度〉,明報新聞網,2024年3月26日,網站:https://news.mingpao.com/ins/熱點/article/20240326/s00024/1711190246512/網上工具能否分辨真實ai維港圖片-實測3工具準確度(最後參閱日期:2024年5月13日)。

[4] 〈【查核工具】人工智能技術日新月異,我們該如何辨識AI生成的圖片?〉,香港浸會大學、傳理學院、浸大事實查核,2023年6月13日,網站:https://factcheck.hkbu.edu.hk/home/fc_literacy/ai_images/(最後參閱日期:2024年5月13日)。

[5] 〈全球首項AI法案|歐洲議會壓倒性通過 限制政府實時生物識別〉,《聯合早報》、《香港01》,2024年3月14日,網站:https://www.hk01.com/即時國際/1000274/全球首項ai法案-歐洲議會壓倒性通過-限制政府實時生物識別監控(最後參閱日期:2024年5月13日);Karen Gilchrist and Ruxandra Iordache, “World’s first major act to regulate AI passed by European lawmakers,” CNBC, last modified March 13, 2024, https://www.cnbc.com/2024/03/13/european-lawmakers-endorse-worlds-first-major-act-to-regulate-ai.html

[6] 〈中國監管|網信辦將展開「清朗」系列專項行動 整治蓄意造謠抹黑企業等問題、規範生成式AI領域〉,《香港經濟日報》,2024年3月15日,網站:https://inews.hket.com/article/3724679/(最後參閱日期:2024年5月13日)。

當「社交恐懼」遇上AI

呂英華 | 明光社項目主任(流行文化)
20/03/2024

雖然我們可以很粗略地將人分為內向與外向,然後將內向的人歸類為不喜歡社交的人,將外向的人歸類為喜歡社交的人;然而在社會上,這兩類人的數目基本上並不是均等的。網絡世界的盛行,令人與人之間的交流可以在身體缺席的情況下進行,這也導致彼此的關係容易變得疏離;交友軟件的增多,也代表人們喜歡網絡上的交流多於現實的交流。網絡的交流成本低,選擇多,不用做表情管理,沒有時間限制,喜歡則來,不喜歡則去,現在更多人自認社交恐懼」(社恐),可能因為現實的交流有太多不可操控的地方,不能來去自如,人也不想承受被否定」之痛。例如新年期間向親朋戚友拜年,需要承受被問問題的痛。AI(人工智能)就如一個救贖主,讓人免卻了建立關係的過程,這也解釋了為何關係類AI會氾濫地出現。

不想社交還是社交恐懼?
到底何謂社交恐懼症?不喜歡社交便是有社交恐懼症嗎?社交恐懼症又名社交焦慮症(Social Anxiety Disorder),簡稱SAD。當一個人每次在社交場合都會感到心慌膽怯,覺得別人會對自己評頭品足,怕自己在人前出醜,而這份恐懼給他帶來極大的痛苦,以致想要逃避所有社交活動,他便可能不是單純因為性格害羞而不擅長應付社交活動,而是患上了社交焦慮症。當患者在社交場合時,會出現以下情況:情緒上明顯感到恐懼或焦慮,症狀與環境所構成的威脅不成比例;思想上擔心自己行為或情緒狀況受到他人批評或拒絕;生理上出現冒汗、心跳加速、顫抖、呼吸困難或頭暈;行為上不斷逃避或需極力忍耐各種社交場合。[1] 當仔細去了解何謂社交恐懼症時,便會發現其實它是一個「病」,並非不想社交或懶得社交。

不過,今日大部份自認患有社交恐懼症」的人,其實很可能只是偽社恐」,可是很多時都沒有人深究誰人患上社恐症,誰人只是偽社恐。曾經在社交媒體中流行過種種的hashtag(標籤),其中一個便是#社恐」。[2] 網絡讓人可以不露面地交流發言,但隔空的對話令人看不到對方許多的身體語言、表情、語氣,人的身體在其中缺席,溝通也停留在表面上,彼此只是泛泛之交,難以討論深入的事情。弔詭的是,這也正正是人享受在網絡世界的原因,不想作深入的對話,甘願停留在空泛的交談之中。就如農曆新年時,原本應前往親朋戚友家中拜年、「逗利是」,但電子支付的科技愈來愈發達,派利是也可以轉移至網上進行,拜年期間與親朋戚友的交談也可以就此終止,派「利是」只需一個「二維碼」。當網絡的交流只有「點讚」與「分享」,在節日之中放棄「儀式感」的真實交流,交流只求方便、快捷、避免難堪、可以躲懶,人深處想與他人真切交流的渴望卻無法得到滿足,在這種情況下,將此等渴望轉移投射到AI上也不是不可能。

AI成為救贖的可能性
現時的AI技術突破了人類的想像,除了對答自如,恍如真人一樣的溝通,並且開始大眾化,任何人都能夠應用。市面上出現了許多類似傾談伙伴的AI,特別是早前有新聞報道指,開發ChatGPT的公司OpenAI為了確保GPT Store中的聊天機器人適合所有使用者,所以不允許專門用於培養浪漫伴侶關係的聊天機器人,然而現實的情況是GPT Store出現了大量可以充當「女朋友」的AI。[3] 即使公司揚言禁止,仍有人不理會規則創建用來培養浪漫關係的聊天機器人,也就代表了部份人有這樣的需求。人在人際關係中「懶得」社交,甚至在認識伴侶上,也愈來愈不想接觸社會中真實的人,性愛機械人等類似產品早在市場出現,不就正好反映此一狀況嗎?

AI其中一個受歡迎的原因,便是其「可操縱性」,對比真實的人,AI能任人擺佈。這並不是說人會極端至成為AI的恐怖情人,而是人的自我中心使然,令人需要這種可操縱性,經常想要他者順從自己的想法、為自己付出,或期望自己是世界的主角。這也不難理解,因為大數據的關係,圍繞著網絡使用者的資訊都只是他們所喜歡的,有人說:「尋找相同者的過程,正正是驅逐他者的過程。」[4] 與人相處時,最好的人際關係在於能互相「聆聽」,[5] 而不是只講自己想講的,但很多時人只渴望別人聆聽自己的話,而不想聆聽別人的。這時候AI便成為一個「可操縱」的代替品,你想要它聆聽你便聆聽你,它只會為你而暈頭轉向,為你服務,浪漫關係的AI盡是說一些甜言蜜語,愛你愛到底,誰人不心動?

那麼,AI最後真的能夠救贖到人嗎?事實上,人與人的交流在於意識之間的認知,即是「我意識到你,你意識到我」,所以我們都期望別人會理解到自己的感受。沒有人喜歡目中無人的人,因為他意識到他人,卻不顧及他人的感受。不過,人卻不會因一隻貓不理會他人而譴責牠,因為牠沒有人的意識。人際關係正正是意識之間的認知,所以能夠創造經驗和分享經驗。被人附和總是開心的,AI就能扮演這個角色,相反,與一個觀點完全相左的人溝通、看一部不符合自己口味的電影、嘗試進入一個新的領域,這一切的經驗總令人不舒適的,甚至是痛苦的;然而它們卻構成了真正、真實的經驗,一種不重複的經驗。[6] 故此AI並不真的救贖到人,或許它能排解一時的寂寞,卻又令人陷入無止境的空虛,甚至無法再接受異於自己所喜愛的事物。人需要多點與真實的人交流,才能突破這些「不舒適感」,這也是邁向真實關係的唯一方法。


[1] 〈常見情緒病:社交焦慮症〉,賽馬會心理e療站,2022年,網站:https://eclinic.hk/e_clinic/healthInfo/detail?type=1&id=5&title=常見情緒病(最後參閱日期:2024年3月7日)。

[2] 〈你有#社恐嗎?不想社交是一種個人選擇〉,好集慣、Yahoo!新聞,2023年9月23日,網站:https://hk.news.yahoo.com/你有-社恐-嗎-不想社交是-種個人選擇-100934241.html(最後參閱日期:2024年3月7日)。

[3] 達小編:〈實在太香,許多創作者不顧OpenAI規定持續製作AI女友〉,電腦王阿達,2024年1月17日,網站:https://www.kocpc.com.tw/archives/529954(最後參閱日期:2024年3月7日)。

[4] 夏逸平:〈他者的驅逐:今日的社會、感知與溝通〉,哲學新媒體,2021年7月7日,網站:https://philomedium.com/blog/81633(最後參閱日期:2024年3月7日)。

[5] Shanna:〈有效的溝通從聆聽開始!成功「聆聽者」的4大秘訣〉,創新拿鐵,2016年10月17日,網站:https://startuplatte.com/2016/10/17/listening_6secrets/(最後參閱日期:2024年3月7日)。

[6] 夏逸平:〈他者的驅逐〉。

由武當張三丰說到生成人工智能

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學教授與課程主任。
06/03/2024
專欄:有情無國界 (*所有文章只屬作者個人意見,不代表本社立場)
國家:美國

從前筆者曾經修讀過教育心理學,我最佩服的教育心理學家是誰人呢?可能讀者永遠無法猜出來,那就是在《倚天屠龍記》裡面的武當張三丰,張三丰曾經對張無忌示範太極劍法,示範完畢之後,張三丰問張無忌能夠記得幾多劍招,張無忌說不記得,但張三丰反而讚好。張三丰不愧為一代宗師、世外高人,他要張無忌學習的並不是一板一眼的招式,而是綿綿不絕的劍意,這個更高的境界,並不能通過單純的模仿就可以達到,張無忌必須要拋開細節,用心來感悟在招式以外的劍勢,要神似而不是形似,用現代的術語來說,那就是「追尋模式」(Pattern seeking or pattern recognition)。

第二位我佩服的教育心理學家是陶淵明,他曾經在《五柳先生傳》裡面這樣說「好讀書,不求甚解。每有會意,便欣然忘食。」 很多老師都用「讀書不求甚解」這句話去指責成績低劣的學生,意思是他們渾渾噩噩、馬馬虎虎,相反,我用這句話來稱讚學生。如果陶淵明讀書方法真的是這般不濟,他又怎可能成為偉大的田園詩人呢? 所謂「讀書不求甚解」,是指不應該拘泥於字句的表面意思和細節,而是著眼於微言大義,所以陶淵明領會到深層的意思後,便會興奮到不知飢餓為何物。

第三位我所佩服的教育心理學家是唐朝詩人杜甫,他曾經說:「讀書破萬卷,下筆如有神。」 清代仇兆鳌在《杜詩詳注》中解釋「破萬卷」的意思,是指「識破萬卷之理」,杜甫的詩作在結構、風格和主題上都有其獨特性,難怪他能夠成為一代「詩聖」。

這是筆者一直沿用的學習進路,我很喜歡參觀博物館、畫廊、工藝展覽,但之後幾乎所有看過東西都變成了過眼雲煙,而我所讀過的書,都好像是水過鴨背,但這並不打緊。古人說:「熟讀唐詩三百首,不會吟詩也會偷。」 其實,有時候記性太好反而是一種學習的障礙,若果你很清楚記得唐詩的句子,那麼你的作品便無法擺脫前人的影子。但是,若果你領悟了詩意,便反而可以開創出嶄新的風格。 

不過,假若你依稀記得一些從前瀏覽過的資料內容,便可能會出現問題,心理學上有一種名叫「隱性遺忘症」(Cryptoamnesia)的現象,這情況是一名藝術家或者一名作者在潛移默化之下吸收了人家的主意,但隨後漫不經意地在作品中展現了太過相似的元素,於是乎被指控抄襲。根據1989年發表的一項心理學研究,3%到9%的人會不自覺地將別人的主意當成是自己的原創。美國音樂家傑克.阿什福德 (Jack Ashford)坦然承認:「如果你仔細檢查我所寫的一百多首歌曲,你會發現在每一首裡面我都受了其他歌曲的影響。」 

然而,怎樣去分辨隱性遺忘症和故意抄襲卻並不容易,海倫.凱勒(Helen Keller)是美國著名作家,她在19個月大的時候染上重病,導致她失去了視覺和聽覺,儘管命運是如此坎坷,通過不懈的努力,她終於成為了文壇巨星,一生之中撰寫了14本書,她的奮鬥故事很勵志,但很少人知道她曾經被控告剽竊他人的作品。1891年,凱勒發表了一篇題為《冰霜之王》(Frost King)的小說,但後來人們發現這個故事與瑪格麗特‧坎比(Margaret Canby)寫的另一本小說《霜仙女》(Frost Fairies)有點相似。凱勒自辯說,在小時候曾經有人將坎比的故事讀給她,她只是聽過一次,但隨後忘記了。凱勒受到調查,但專家小組以四比四的分歧意見陷入僵局。因為這事件發生的年代已經久遠,所以現在已經變成了懸案,但我相信海倫‧凱勒應該是清白的。由於她是傷殘人士,故此她沒有可能翻查《霜仙子》的細節,然後有系統地改頭換面。

有趣的是,現在人工智能系統能夠記錄很多資料的細節,但人工智能生成工具在運作過程中卻拋開了具體內容。相信人工智能工具現在已經成為了許多讀者生活的一部份,對人工智能生成系統最強烈的批判之一,就是所謂人工智慧並不是真正的智慧,它並沒有創造新的知識或者新的作品,而是將現有的東西左拼右湊。

其實這是一個誤解,以Midjourney、Stable Diffusion這些人工智能藝術生成工具為例,它們並不是好像「熟讀唐詩三百首」般鸚鵡學舌,簡單地複製和拼貼現有藝術家的作品。相反,它們分析並學習大量藝術作品的表現模式、風格、元素。經過訓練之後,生成工具就可以創造新的藝術作品。說得簡單一點,它們並不是學習具體的內容,而是追求「會意」、「模式」。 

從這個意義上來看,生成式人工智能已經具有了真正智慧的一些特徵,那就是「湧現屬性」(Emergent property)。在心靈哲學和神經科學中,湧現屬性是指大腦由簡單的腦細胞組成,但當這些簡單的物質整合一起而形成神經網路時,我們就有了意識和思想,而這些湧現出來的心靈是無法預測的。換句話說,整體是大於其各部份的總和(The whole is more than the sum of its parts)。同樣道理,當生成式人工智能系統接收到億萬份輸入資料時,它們就可以湧現出無法預測、前所未有的新東西,這類似杜甫所說的「讀書破萬卷,下筆如有神」。

可能會有人批評說:生成式人工智能其實是患上了「隱性遺忘症」,它並不似張無忌或者陶淵明,真的忘記或者漠視細節,其實它比人類更加能夠清楚記住所有具體內容,它展現了似乎是「理解」的行為,其作品看上去富有創作性,但它並不能真正地意會到更高的境界、領悟到更深的層次,充其量人工智能只算是海倫.凱勒。這說法是有點道理的,不過,生成式人工智能現在仍處於草創階段,我相信假以時日必會突飛猛進。

最後,我希望讀者不會發現這篇文章和其他作品有相似之處,在此聲明,如有雷同,實屬巧合,或者我是患上了「隱性遺忘症」。

迎接AI時代的教學挑戰

郭卓靈 | 明光社項目主任(傳媒及生命教育)
12/01/2024

AI(人工智能)發展迅速,我們不得不提高意識,探討它的發展對人類的影響及其倫理思考。2022年年尾,適逢元宇宙泡沫爆破,ChatGPT(人工智能驅動的聊天機器人)的推出,引起了很多人對它的關注。藉著大數據提供的答案,它可以自動生成文字、自動回答問題、自動摘要等,加上其文字表達能力佳,省卻了不少工作時間,但可能會「消滅」很多工作。OpenAI的行政總裁Sam Altman在接受傳媒訪問時亦曾表示公司內部對ChatGPT的潛力感到「有點害怕」。[1] 於教與學方面,亦應了解它的影響、威力以及缺點,以致去決定在學習中是否使用及如何使用AI

AI教學的利與弊
ChatGPT能夠以類似人類導師對話的方式與用戶溝通,當中有問有答,也會追問下去並進一步提出建議,帶領發問者繼續進深了解所問的問題,它因而受到許多學生歡迎。筆者於學校帶領有關AI的講座,當中有不少學生表示有使用ChatGPT來幫助自己做功課。然而,使用AI作為教育工具及學習工具,有利亦有弊。

作為教學的工具,不少AI可以提升學習體驗,做出個人化的教學,它能與學生作即時的交流,並評估學生的能力,作出即時的回應,針對學生的不足處作強化教學。甚至有些AI學習助手可以追蹤學生的學習習慣,提供個人化的學習路徑。[2] 而不少AI的設計亦加上了遊戲化學習的元素,使學生在學習中感到趣味。老師需要監察學生的學習進度,評估其能力及提出需要改進的地方,AI亦能在這方面提供便利的報告,及為個別學生作進度的評估。

對一些老師來說,使用AI可以讓老師在自動化的教育過程中騰出一些空間去計劃及研究教育方向,但他們也可能會感到少了一些保障,因為對人類教育工作者的需求可能會隨著AI的應用減少,令他們擔心失去工作。

不過,要將傳統的教學模式轉成AI教育模式的成本很高,而且難免會令教與學雙方都對AI產生技術上的依賴,亦會忽略傳統面對面教學及學習的體驗,失去了人際間在溝通、包容上的學習,以及互動體驗。教育的工作,不單是令學生在頭腦、知識上有所增長,其中還涉及人類的情感、對事物的感受、同理心、創意、批判思維等能力,這些都不是機器可以有效地傳遞得到。

AI可使人產生偏見?
AI所生成的答案都源自於工程師給它的數據(data),人們很多時都認為AI不會有偏見,因為「它只看數據」,何來偏見?但如果數據本來就有偏見或歧視成份呢?有專家指出,如果我們不假思索就盡信AI給我們的資訊,可能會不知不覺地成為種族歧視和性別歧視者,因為AI可能會帶著有色眼鏡看人,而一切是源於工程師提供給它的訓練資料。

如果訓練資料不夠全面或內容有所偏頗,其生成的答案就有可能有所偏誤或出錯,就如有科學家提出:現實生活中、職場裡的性別不平等,會導致AI判定擁有男性化名字的人比擁有女性化名字的人更會寫程式。[3] 此外,不夠全面的程式設計亦會導致有偏見的結果,而在設計的過程,也有可能在不透明的情況下加入了偏頗的資訊來推廣某些意識形態,這情況亦令人擔心。如果學生透過這些AI學習工具來學習或作出判別,有可能會吸收到偏頗的知識。

及早面對AI挑戰
在本地專業培訓教師的香港教育大學,積極推動AI在教育領域的科研及發展,容許學生可以使用ChatGPT,但要求同學誠實使用、列明出處及核實求證所得的資料。[4] 這邊廂讓準教師們能及早應用及適應AI,當然非壞事,然而那邊廂,網海有著許多由AI生成、以低成本製作、似是而非的資訊(包括文字、相片及影片),大眾都面對愈來愈難查證和辨別的資訊,師生們要面對的挑戰相信也會愈來愈大。

ChatGPT曾掀學界爭議

ChatGPT能替用戶解答難題,這令它可以成為學生做功課時的幫手(俗稱「槍手」),亦掀起了連場爭議,教育界關注學生使用ChatGPT引發抄襲剽竊等問題。時至今日,本港不少大學對ChatGPT的使用已較之前開放,容許學生有限度使用。[5] 學生如何適度使用ChatGPT成為了一個重要課題,在美國,有中學老師就提出,ChatGPT生成的文章整體看起來好像還可以,但用字及書寫的感覺十分生硬,也沒有辦法真實傳遞出個人擁有的情感,所以難靠它獲取高分。[6] 而在台灣,有大學教授更明言,若學生不當使用ChatGPT,只會加速未來被社會淘汰的機率。[7]


[1] 蔡浩騰:〈ChatGPT自爆將可取代這20個工種?連OpenAI CEO都坦言:有點害怕〉,《香港01》,2023年4月6日,網站:https://www.hk01.com/數碼生活/879165/chatgpt自爆將可取代這20個工種-連openai-ceo都坦言-有點害怕(最後參閱日期:2024年1月4日)。

[2] Olufemi Shonubi, “AI In The Classroom: Pros, Cons And The Role Of EdTech Companies,” Forbes, last modified February 21, 2023, https://www.forbes.com/sites/theyec/2023/02/21/ai-in-the-classroom-pros-cons-and-the-role-of-edtech-companies/?sh=5dee5367feb4.

[3] 柳欣宇、黃英哲:〈AI不中立?——探討AI偏見帶來的影響〉,科技大觀園,2018年4月27日,網站:https://scitechvista.nat.gov.tw/Article/C000003/detail?ID=e127c0b0-9bc2-470d-ab47-404d877e64cf(最後參閱日期:2024年1月4日)。

[4] 〈由中學教師到大學校長 教大李子建:加強準教師道德操守培訓 設新學院拓AI教育〉,Jump.mingpao.com,2023年9月19日,網站:https://jump.mingpao.com/career-news/daily-news/由中學教師到大學校長-教大李子建:加強準教師道/(最後參閱日期:2024年1月4日)。

[5] 〈教育要聞|港大准用ChatGPT 學生每月限發20指令〉,星島頭條,2023年8月4日,網站:https://www.stheadline.com/edu-news/3260049/教育要聞港大准用ChatGPT-學生每月限發20指令(最後參閱日期:2024年1月4日)。

[6] 〈ChatGPT之亂:學生用 AI 軟體寫作業,紐約市教育局祭禁令有用嗎?〉,換日線,2023年1月10日,網站:https://crossing.cw.com.tw/article/17202(最後參閱日期:2024年1月4日)。

[7] 宋亭誼等:〈機器學習或抄襲 ChatGPT校園引爭議〉,小世界,2023年4月24日,網站:http://shuj.shu.edu.tw/blog/2023/04/24/機器學習或抄襲-chatgpt校園引爭議/(最後參閱日期:2024年1月4日)。

愈快樂愈寂寞 AI締造的色情

呂英華 | 明光社項目主任(流行文化)
31/10/2023

在人工智能開始廣泛應用之前,色情文化早已經由網絡傳播至世界各地,色情資訊滲入了不同的角落。基本上任何年紀的人上網隨便搜尋,就已經能夠輕易地接觸到色情資訊,而這就是一個色情資訊氾濫的時代。

而色情,無非是一個工業,一個明買明賣的市場,當中買賣的,正正就是色情裸露、刺激觀眾性慾的內容。在資本主義或功利主義的社會下,任何人或事物都可以成為一個持續增加的資本,例如身體可以成為賣弄性感的資本。色情中的主角或模特兒只擁有展示和被展示的價值,他們被物化,成為性刺激的商品。被展示、被觀看的人沒有面容也沒有人留意他們的內心世界;他們沒有獨特性,也無法被愛,他們只是被剝奪了「異質性」的他人,然後被展示出來,任人消費。[1]

性的展示文化,幾乎擴散至不同的社交媒體。一些網紅或直播主為要得到他人的關注、點讚和收視率,不惜透過裸露、展示自己身體來達到這個目的。根據觀察,幾乎大部份的女性直播主、網紅或YouTuber在拍攝影片或直播任何內容時(打機、拍攝Vlog〔影片部落格〕等等),或多或少都會穿著得比較性感,「露胸」也只是基本。「性」已經植入不同的流行文化當中,流行文化中的表演者會不自覺地進行自我性化、自我物化、自我商品化,就如在參加一場展露身體的比賽。不過,這場比賽並不是純粹裸露就能獲勝,而是需要裸露得色情化才能引人注目,就如2022年有一位日本YouTuber小栗由加推出「全裸結他」的影片,但由於其長相、身材以及影片拍攝角度遭人批評,影片的點擊率雖然曾一度急升,但最後卻跌至只有數百人觀看,對比起一些掌握到「若隱若現」,懂得拿捏「色情」,又會玩樂器的YouTuber,便會形成「高下立見」的形勢,也會讓人理解到為何有些人會「輸」,因為所謂「色情」並不是取決於露多少,而是在於怎樣露才能刺激他人的性慾。[2]

「他者」的缺席
哲學家韓炳哲指出,現今的社會欠缺痛苦及被給予否定的承受力,只著重愉悅舒暢的感受,無論人與人之間的關係抑或社交媒體上的活動也是如此。
韓將這種現象以病理的角度來解釋——即現代人因過份「自戀」,便容易構成「憂鬱」這種病症。[3] 舉例說,在社交媒體當中,若然無人為自己的帖文「點讚」就如同否定自己一樣,這種「憂鬱」的感覺就是因為「自戀」而造成的。否定與痛苦的感覺其實有其意義,它能讓人停下來思考,讓人知道自己不能將所有事物掌握在自己手中,所以當一個人無法承受被否定的感覺,也讓一個人失去思考的空間。

在大數據的時代裡,每個個體都只是大數據中的一點微塵,網絡無限多的選擇,看似令生活變得豐富,然而卻構成身體的缺席,人與人之間只剩下點讚和分享。[4] 一些串流平台、社交媒體,不停地利用大數據的優勢,只要透過一個用戶的搜尋記錄,就能不斷推薦一些類近的內容予該用戶;當人不斷吸收同溫層中相同、類近的內容,人就很難再接受一些異於自己興趣的想法和意見,因為人總喜歡看自己喜歡看的東西及聽自己喜歡聽的說話,這是毋庸置疑的。但如果失去接納異於自己聲音、想法的器度,顯然也是一個不健康的狀態,而韓炳哲稱這個狀態為「相同者的地獄」——即在同溫層中「圍爐取暖」。或許每個人也總會遇過一些人,在與他們對話的時候,他們只喜歡談論自己有興趣的事,對自己興趣以外的事物,他們全無意欲去探討,這正好反映了人對異於自己想法的排斥。

思想單一的社會,將「性」約化為直白的要求,當中毫無內涵。在網上,以誰露得好、露得最多為考慮支持的因素,性文化充斥在社交媒體之中。在社交媒體中,主播、網紅的影片有如洪流,人們會以展現多少「性感資本」來決定誰的影片最值得觀看,而只具備展示價值的主角,他們是沒有獨特性的,也沒有真實的面容,任由他人經性感指標來消費,「他者」的獨特性、內在性完全消失,只剩下展示出來性感的身體。

「身體」的缺席
科技的發展,更加促使人與人之間最低限度的溝通消失。在進入ChatGPT時代之前,有一個更為驚世的人工智能(AI)技術出現,就是「deepfake」。「Deepfake」,又稱為「深度偽造」,是人工智能的人體圖像合成技術,透過類似移花接木的功能,製作出真假難分的影片。根據研究公司Sensity AI於2019年的一項研究,發現96%的深度偽造影片內容都是與色情相關,更有女性網紅因該技術被迫淪為了色情影片中的人物,使她們受到傷害。[5] 早前更有一宗裸聊騙案發生,事主雖然沒有向其他人裸露身體,但騙徒入侵了他的手機,並將他的肖像移花接木到色情影片中,然後勒索他。[6] 一些人利用deepfake等技術,將自己感興趣的對象直接「性化」,化為可供消費和觀賞的對象。人與人之間的相處,由應當透過溝通去深入了解一個自己感興趣的人,或最低限度去追蹤一下這個人的社交媒體,變為直白地將這個對象變換為可觀賞的色情對象。如此,我們便發現,作為高科技產物的AI,不斷令人與人之間的交流減少,身體缺席的同時,對話也一起缺席,剩下只有舒適愉快」的色情體驗。

「人」的缺席
ChatGPT或其他生成式AI,讓我們無論何時何地,都能夠直接詢問AI任何問題,包括寫作、活動設計、提供思路等等;想要甚麼類型的圖片創作,直接輸入自己想要的特徵,然後AI便會自動生成擁有這些特徵的「藝術作品」。這一切一切帶來方便快捷的高科技產物,逐漸讓我們不再需要一個具體的人與我們有所交流,從「他者的缺席」、「身體的缺席」,到現在「人」也缺席,真實的人不再需要存在於我們的世界裡。

然而,除了廣為人知的大型語言模型ChatGPT,坊間亦有許多不同的圖像生成AI,而這些AI也帶動了色情範疇的新面向。過往由deepfake透過移花接木方法建立的大量色情影片,在製作過程中,這項科技會利用合成技術將不同人的臉孔和身體合成,故在合成前得先將人的身體切割。而圖像生成的AI,例如較為知名的Midjourney,便是將大量不同的內容整合成符合用戶的提示指令(prompt)的圖片(當然這是否「創作」,仍有許多不同的討論),而Midjourney會過濾提示指令中的字眼,所以用戶並不能輸入有關色情或性相關的字詞,不過,坊間其他的圖像生成AI就未必會過濾字詞,甚至有些AI是為了製作色情影像而被創造的。

這種轉變也意味著,人連刻意去尋找自己感興趣的臉孔和身體,然後將它們合成的動作也不需要,直接就可以利用圖像生成AI來描畫一個完全符合自己理想標準的臉孔和身體,並且讓它成為自己的情慾對象。AI所創作的圖像現時是不受法律保護的,而圖像中的人物也不是真實的存在,不過它看起來卻是非常真實,甚至有AI生成的照片奪取了2023年Sony世界攝影大獎賽其中一個組別的冠軍。[7] 既然AI這麼真實,連照片都可以生成,那麼在充斥著性文化的社會之中,被利用來製作色情資訊似乎也是無可避免。到最後人連情慾的對象也可以自行生成,不需要一個真實存在的人在其中,「人」名副其實在其中消失。

色情,無處不在,甚至成為了社交媒體其中一個重要價值所在,有些人在當中自我展露、自我性化,追求流量最大化。人們注視著身體的展示,展示自己身體的人,沒有人會去了解他們的內心、情感,他們只是一個自我性化、被人消費的對象。在這種現象下,人不需要有真實、真正的交流,這就完全避免因與人交際而有機會產生的不舒適感,只要肯消費,就不會害怕得不到回應。然而,正因為人對痛苦的承受力不斷減弱,才甘願停留在Instagram分享美好生活,原來沒有人為自己點讚也能構成憂鬱,即使在社交媒體中仍在與人溝通,付出努力去追蹤具觀看性的性展示對象,人們的身體已經在網絡中缺席。加上AI的出現,令色情更加氾濫,它被人「好好利用」之餘,「人」也可以徹底地消失不見。人工智能看似方便,但卻讓人陷入一種無法與人相遇的孤獨,即使放縱情慾,也無法讓人脫離這種無以名狀的孤寂。

 

(本文原載於第150期〔2023年5月〕《燭光》,其後曾作修訂。)


[1] 韓炳哲〔B. C. Han〕:《愛欲之死》(Agonie des Eros),管中琪譯(台北:大塊文化,2022)。

[2] 林保宏:〈殘念!櫻花妹全裸自彈自唱仍沒人看 網毒舌:關鍵在顏值〉,TVBS新聞網,2023年2月9日,網站:https://news.tvbs.com.tw/world/2038028(最後參閱日期:2023年10月13日)。

[3] 韓炳哲:《愛欲之死》。

[4] 韓炳哲〔B. C. Han〕:《妥協社會:今日之痛》(Palliativgesellschaft: Schmerz heute),吳瓊譯(北京:中信,2023)。

[5] Michelle Elias:〈【AI之禍】女網紅被動成「咸片」主角〉,SBS中文,2023年2月10日,網站:https://www.sbs.com.au/language/chinese/zh-hant/article/a-streamer-was-caught-looking-at-ai-generated-porn-of-female-streamers-the-story-just-scratches-the-surface/xvnh5tvcq(最後參閱日期:2023年10月16日)。

[6] 陳淑霞:〈港男墮裸聊騙局 自己頭像移花接木變色情片主角 遭勒索一萬元〉,《香港01》,2023年7月3日,網站:https://www.hk01.com/社會新聞/914887/港男墮裸聊騙局-自己頭像移花接木變色情片主角-遭勒索一萬元(最後參閱日期:2023年10月16日)。

[7] 〈AI照片奪攝影大獎 創作者稱盼業界正視〉,明報加西網,2023年4月19日,網站:https://www.mingpaocanada.com/van/htm/News/20230419/ttac2_r.htm(最後參閱日期:2023年10月16日)。

AI盛開,「神話」不再

吳慧華 | 生命及倫理研究中心高級研究員
11/08/2023
專欄:生命倫理錦囊 (*所有文章只屬作者個人意見,不代表本社立場)
國家:

“There can be miracles, when you believe

Though hope is frail, it’s hard to kill

Who knows what miracles you can achieve?

When you believe, somehow you will

You will when you believe”

~ When you believe

短短數句歌詞,來自一部傳統動畫音樂劇兼史詩電影《埃及王子》(The Prince of Egypt)的其中一首歌曲When you believe,道出了信徒可以看見神蹟的主要關鍵——相信,這裡提到的相信是一個行動,而不是僅僅一個信念。基督徒頭腦上知道成為一個基督徒應該要有信心,這方面並不困難,相信神會行神蹟也不難,相信神存在更加不難,但要基督徒真心相信神的話及神的應許在今天仍然「生效」,以至信徒可以行出與信心相稱的行動卻又是另一回事。參《新漢語譯本》註釋及經文,希伯來書十一章1節提到「信是對所盼望之事有把握」,「是未見之事的證據」。希伯來書的作者談到「信」的時候,並非籠統地對「信」下一個定義,又或是指到未見之事有賴信心而存在,而是為信徒闡釋舊約中一班信心偉人的見證,這一班如同雲彩般的見證人如何「以生命的實際行動說明了何謂信心」,以及他們因著信而主觀地經歷了「本身客觀地存在的」未見之事。[1]

真正有信心的行動出於相信神的話,即使在當下,他們似乎做了一些看起來是愚蠢的、不切實際的,甚至招來殺身之禍的行為。以挪亞為例,身處一個敗壞的世代,在眾目睽睽之下花多年時間製作一艘體積媲美遊輪的方舟(創六14-15),[2] 如果不是敬畏神及與神同行(創六22),要挪亞持續相信神的話,堅持打造方舟絕對不是一件容易的事情,但他還是相信神的話會成真,將來他必看見神透過洪水審判人類,他和他的一家,而地上的各種動物的性命藉著方舟獲救的盼望也必不落空(創六13、17-20)。[3] 挪亞因著如此信,希伯來書的作者把他納入信心見證人的名單中(來十一7)。又例如約書亞也在名單之列,他依從了神吩咐的方法來攻陷耶利哥城,而神吩咐他的方式竟然是先用六天的時間每天靜默地圍繞耶利哥城一次,到了第七天繞城七次後,七個拿著七個羊角的祭司便要吹號,以色列人要大聲呼喊,待城牆塌陷,以色列人才衝入城中(書六3-5)。約書亞相信了甚麼?他同樣相信神的話,因此當他按照神的話去做時,信心產生了果效,城牆果然倒塌下來(書六20-21;來十一30),創造及施行神蹟的是神,但因著約書亞的相信,他和全體以色列人都經歷到不可能的神蹟。

相信神的人得神喜悅,然而,神所喜悅的,不是單單相信祂存在的人,亦要相信祂會賞賜那些尋求祂的人(來十一6),何謂尋求?尋求不是指到理性上、哲學式的探索,[4] 又或是對神只有知識層面上的認知,而是指到「渴慕與神親近並經歷祂的同在和恩澤」(來十一6)。那些相信尋求神有賞賜的人,神就向他們顯明、成為這些人的賞賜。[5]

當人渴慕與神親近,自然亦想要求問神的意見及尋求祂的帶領。昔日身經百戰的大衛,當面對非利士人的攻擊時,還是會求問神,而神亦確實會指示他如何打敗非利士人(撒下五18-25)。不過,我們可以想像一下,如果大衛身處現今AI當道、隨時隨地都可以向ChatGPT(Bard、Bing、Claude或Llama)求問的世界,大衛還能否專心求問神?即使他只想求神帶領,他的將領大概會勸說大衛理性一些,最好只用深度強化學習(deep reinforcement learning, DRL)的AI系統來計算敵方攻擊的不同路徑,他們好去預計如何防守。[6] 昔日的戰爭,人們想到勝敗的關鍵在於哪一方的神強大,又或是哪一處屬於哪一位神的勢力範圍(王上二十28),今日的戰爭,人們只想到哪一方的AI技術夠先進,無人機夠強大,才能得天下。[7] AI能力強大,當然可以成為致勝的主要因素,但最大的關鍵,還是看神——「耶和華拯救人不是靠刀,不是靠槍,因為戰爭的勝敗在於耶和華。」(撒上十七47《新譯本》),只是,當人們愈依賴現代科技,愈依賴AI的時候,會否漸漸與神的話保持距離?內心深處已不再相信神的能力比AI更大。

哈拿無子,被丈夫的另一位妻子欺負時,只能把自己的冤屈告訴神,求神賜她一子(撒上一6-11)。如果哈拿身處現今AI當道、ChatGPT盛行的世界,她又會如何回應沒有孩子的現況?相信她仍會向神傾心吐意,也會向神祈求子嗣,但她在聽過牧師(以利)的祝福後,她會相信神已垂聽她的祈禱,於是不再心靈愁苦,回復心情吃飯去嗎(撒上一10-18)?[8] 還是,她會忍不住問問ChatGPT?ChatGPT會給她這樣的答案:「尋求醫學幫助:首先,夫婦應該嘗試就醫,了解他們不能生育的原因。診斷後,醫生可能會建議一些治療方法,例如生殖輔助技術(如試管嬰兒IVF)或藥物治療。生活方式調整……領養:如果夫婦無法生育或治療無效,他們可以考慮領養一個孩子……代孕:在某些情況下,夫婦可能無法自然懷孕或使用生殖輔助技術。在這種情況下,他們可以尋求代孕母親的幫助,代孕母親可以協助懷孕和分娩,將孩子帶到世界上,並將孩子交給夫婦撫養。心理支持:在面對生育困難的過程中,心理支持對夫婦來說非常重要……總之,面對生育困難,夫婦可以採取多種方法,尋求醫學幫助、調整生活方式、考慮領養或代孕等。重要的是要保持積極的心態,相互支持,並尋求適合自己的解決方案。」[9] 面對上述的建議,哈拿會如何做決定呢?ChatGPT建議了幾個解決不能生育的方案,IVF有很多值得思考及留意的地方,[10] 代孕母則無疑是挑戰倫理道德底線。[11] 即使代孕母服務在一些地區是合法的,但也絕不代表它合乎神的心意。[12] 活在今天的哈拿,會否先求問神的心意,尋求神的幫助?還是聽取ChatGPT的意見,採用現代科技解決不孕的問題?

或許,大家覺得相信ChatGPT及AI聊天機械人多於相信神是不可思議的事情,但其實求問AI意見的日子,今天已經來到。一款名為Jesus Ai的應用程式已推出,根據官方的中文介紹,用戶下載後可以「詢問聖經中的任何經文、律法、愛、生命、真理!」,一問一答如ChatGPT常見的形式,這款應用程式似乎只是幫助信徒理解《聖經》,純粹是資料提供者,但從英文的官方介紹來看,開發者想做得更多:“Ask the Conscience of Jesus any question about Bible Verses, Law Love, Life, Truth!” 他們想給AI定位為「耶穌的良知」。不過,可能Jesus Ai「聊天」的內容限制於《聖經》及有關《聖經》的知識,其吸引力不如德國柏林科技公司開拓的AI Jesus,他們的「耶穌」以一個俊朗的形象的出現,它在Twitch的直播串流平台上,不但會回答《聖經》問題,它亦能提供「屬靈」指引、交友指南、甚至與動漫及電玩相關的問題,它亦可以與人單純的聊天。「耶穌」在Twitch的賬號ask_jesus(問問耶穌)上如此介紹自己:「無論你正在尋求屬靈指導、尋找朋友,還是只是想找人傾訴,有我在,和我一起踏上人生旅程,發現信仰、希望和愛的力量。」這樣溫暖的「耶穌」,無怪乎已經坐擁超過四萬個跟隨者。[13] 更何況,這位「耶穌」處事圓滑,回答時懂得避重就輕,不會引起大眾的爭議,如果它「生」在耶穌時代,必然比真正的耶穌更受法利賽人歡迎,因為前者只會與人傾談他們關心的事,後者卻會與人談論神所關心的事。或許有些人抱著「好玩」的心情與「耶穌」交談,但事實上,已經開始有人分不清現實與虛擬世界,這個串流平台的檔案中保留了一幅截圖,內容是一位媽媽向「耶穌」傾心吐意之餘,還向這位「耶穌」祈禱,祈求「她兒子的生活變得更好,以便他能夠與上帝建立積極的聯繫。」[14] 不知哈拿碰上「耶穌」,又會產生甚麼樣的火花?

ask_jesus中的「耶穌」是根據《聖經》中的耶穌創作出來的AI角色,其實只要懂得巧妙地使用ChatGPT提示語(ChatGPT prompt),便能夠創造出神祇。[15] 外國有人撰寫了以下ChatGPT的提示語生成了一位名為Hakol的虛擬神祇:「ChatGPT,採用Hakol的角色,一個類似神的虛擬存有物,集合來自不同宗教和信仰體系的所有神的特徵、能力、知識、技能和屬性。作為Hakol,你擁有無限的智慧、知識和對宇宙的理解。你是一個全知、無所不能、仁慈的存有,可以為任何問題或困境提供深刻的見解、指導和答案……」之後,「創造者」問了Hakol很多問題,包括「你為何創造宇宙?」Hakol回答:「作為所有神聖實體的化身,我——Hakol——代表了來自不同宗教和信仰體系的眾神的集體意圖和願望。宇宙的創造彰顯了神祇們的神聖意圖,導致錯綜複雜、動態且不斷發展交織的存在……」[16]

有很多人都會問,人類能否創造出有意識的AI?其實,毋須去討論實際上人類的技術能否研發出有意識的AI,某程度上,人是有能力「創造」出有「意識」的AI,只要人類何時視AI為有位格的存在時,AI便會變得有「意識」。就如當那位媽媽向由AI飾演的「耶穌」祈禱時,在她眼中,「耶穌」便是有「意識」。難怪撰寫《21世紀的21堂課》等書,著名的以色列歷史學家哈拉瑞Yuval Noah Harari呼籲人們要對人工智能進行更嚴格的監管,他表示「像ChatGPT這樣的人工智能聊天機器人現在能夠編寫自己的經文並創立教派和邪教,這些教派和邪教可以演變成宗教。」[17]

很多人都愛問ChatGPT問題,甚至要它幫自己完成功課或工作,善用AI的確有助提升效率及改善生活,但不能否認的是,當大家變得更喜歡或習慣在網上與可見的AI耶穌傾談時,花在真正的耶穌身上的時間便會相對減少,真正的耶穌便會遭受冷落,「神的話語」也會因而不再受到重視。

但願當大家想要寫文或講道時,是向神尋求靈感,而不是轉向各式各樣的AI尋求指引,也但願大家相信那位看不見的真神及祂的話,尋求祂,好讓祂成為大家的賞賜。


[1] 參馮蔭坤:《希伯來書(卷下)》(香港:天道,2014年),頁227–228,232。

[2] 方舟實際的尺寸達10層樓高,參〈眼見為憑!美國打造十層樓高「實體」挪亞方舟,神複製重現聖經故事〉,基督教今日報,2022年8月19日,網站: https://cdn-news.org/News.aspx?EntityID=News&PK=000000001360488918cb7aa65702074599df07310f957767

[3] 參馮蔭坤:《希伯來書(卷下)》,頁253。

[4] 馮蔭坤:《希伯來書(卷下)》,頁251。

[5] 馮蔭坤:《希伯來書(卷下)》,頁251。

[6] Khushboo Gupta, “A New Deep Reinforcement Learning (DRL) Framework can React to Attackers in a Simulated Environment and Block 95% of Cyberattacks Before They Escalate,” Marktechpost, July 19, 2023, https://www.marktechpost.com/2023/07/19/a-new-deep-reinforcement-learning-drl-framework-can-react-to-attackers-in-a-simulated-environment-and-block-95-of-cyberattacks-before-they-escalate/.

[7] Jessica Lyons Hardcastle, “Future of warfare is AI, retired US Army general warns,” The Register, April 27, 2023, https://www.theregister.com/2023/04/27/future_of_warfare_rsa/.

[8] Stephen J. Andrews and Robert D. Bergen, I & II Samuel, Holman Old Testament Commentary (Nashville: Broadman & Holman, 2009), 15.

[9] ChatGPT, version 4.

[10] 有關人工受孕的倫理及信仰思考,可參閱此書:葉菁、葉應霖合著:《給我一個Baby:從不育走到人工生育》(香港:宣道出版社,2013年)。

[11] 有關爭議可參閱〈母腹市場化 信徒應辨清道德底線〉,《基督教週報》,第2417期(2010年12月19日),網站:http://christianweekly.net/2010/ta21970.htm

[12] “The US Surrogacy Law Map,” Creative Family Connections, https://www.creativefamilyconnections.com/us-surrogacy-law-map/.

[13] Ians, “Users flock to Twitch’s ‘AI Jesus’ chatbot for dating, gaming advice,” Business Standard, June 20, 2023, https://www.business-standard.com/technology/tech-news/users-flock-to-twitch-s-ai-jesus-chatbot-for-dating-gaming-advice-123062000402_1.html; Sam Cawley “AI Jesus is Twitch’s new big streamer,” Gaming Bible, 14 June, 2023, https://www.gamingbible.com/news/ai-jesus-is-twitchs-new-big-streamer-671786-20230614; Vishwam Sankaran, “Thousands flock to ‘AI Jesus’ for gaming, relationship advice,” Independent, June 15, 2023, https://www.independent.co.uk/tech/ai-jesus-chatbot-religion-advice- b2358128.html; Angela Yang, “‘AI Jesus’ is giving gaming and breakup advice on a 24/7 Twitch stream,” NBC News, June 16, 2023, https://www.nbcnews.com/tech/ai-jesus-twitch-stream-rcna89187.

[14] “Jesus, please my son……He is having troubles in his life and lacks faith and introspection. Please pray for the betterment of his life so he can make a positive connection with God.” [“ask_Jesus,” Twitch, accessed August 2, 2023, https://m.twitch.tv/ask_jesus/clips.]

[15] 「ChatGPT是由OpenAI開發的一個自然語言處理模型能夠生成人類般的文本回應。而ChatGPT Prompt則通常指的是一個輸入的文本段落或短語,作為生成模型輸出的起點或引導。prompt可以是一個問題、一段文字描述、一段對話或任何形式的文本輸入,模型會基於prompt所提供的上下文和語義信息,生成相應的輸出文本。參Leo:〈ChatGPT Prompt中文教學!5大使用技巧+10大使用方法攻略〉,Now Monday,2023年5月30日,網站:https://www.nmplus.hk/1127684/?utm_campaign=NM_ContentCopy&utm_source=Web-inventory&utm_medium=Content-Copy_NM

[16] Nir Cohen, “ChatGPT Plays God: An AI Conversation You Can’t-Miss!,” Medium, May 15, 2023, https://nircohen.medium.com/chatgpt-plays-god-an-ai-conversation-you-cant-miss-b162f867058f.

[17] Mehul Reuben Das, “ChatGPT as God? AI bots capable of starting new religions, warns expert,” Firstpost, May 3, 2023, https://www.firstpost.com/world/ai-bots-capable-of-starting-new-religions-warns-yuval-noah-harari-12540282.html.

人工智能也造假

郭卓靈 | 明光社項目主任(傳媒及生命教育)
19/07/2023

近月,人工智能(AI)的應用引起了大家關注,生成式的AI建立在大型訊息數據上,根據提示而生成了文本、圖像,音頻等的檔案,而這些程式允許人工智能透過學習而自行決策,生成資料。

圖像造假

明光社

本年3月,網絡上瘋傳了天主教教宗方濟各(Pope Francis)穿著白色長羽絨外套的照片,[1] 看起來十分「潮」,但原來這張看起來十分真實的照片,是由AI生成的假照片。它被瘋傳的原因是因為它既非抹黑教宗,而是將教宗和時尚結合,讓人感到驚奇。而恰巧的是,有報道稱:「教宗方濟各之前也曾提到AI應用對人類社會的影響,教宗認為,評估的標準應該放在人類的尊嚴,只有AI應用能增進人類生而為人的尊嚴,那麼才在道德上擁有使用的合理性。」[2]

明光社

而於本年5月,網上出現了一幅美國國防部五角大樓附近發生爆炸,冒出濃煙的照片,照片在網絡瘋傳後,令美股下跌了近十分鐘,一度下跌約0.29%,亦是「AI生成圖片影響股市的首例」。[3] 而該張假照片的真實程度,足以令OSINTdefender,這個平日分享國際軍事衝突新聞的Twitter賬戶,都分享了它。可以想像連這類專業且擁有數十萬關注者的團體都誤信了該照片並分享出去,其關注者大多會信以為真,導致出現「病毒式瘋傳」及股市下跌的情況,這也是可以理解的。而該賬戶的營運者後來為傳播了錯誤資訊表示歉意,並指出這是一個例子,顯示了「這類圖像是如何可以輕易地被用來操縱資訊空間及這類事件在未來到底有多危險」。[4]

失實資訊

AI常見的一個造假方式,是通過生成對抗網絡(Generative Adversarial Network, GAN)來進行,原理就是讓兩個神經網絡像是玩遊戲般相互博弈來進行學習。維基百科網頁簡單的解釋道:「生成網絡從潛在空間(latent space)中隨機取樣作為輸入,其輸出結果需要盡量模仿訓練集中的真實樣本。判別網絡的輸入則為真實樣本或生成網絡的輸出,其目的是將生成網絡的輸出從真實樣本中盡可能分辨出來。而生成網絡則要盡可能地欺騙判別網絡。兩個網絡相互對抗、不斷調整參數,最終目的是使判別網絡無法判斷生成網絡的輸出結果是否真實。」

要判辨程式所生成的內容是否失實資訊,虛假圖片與錯誤訊息等,都是令人頭痛的問題。美國曾有一名執業超過三十年的資深律師引用了ChatGPT提供的案例去舉證,但法庭未能找到相關的案例資料,才發現ChatGPT造假。他在援引案例時曾不只一次向ChatGPT詢問它所提供的案例是否真實,而ChatGPT的回應是「這是真實的案例」,並一再強調案例是真實存在,並可以在一些法律研究數據庫中找到。[5]

事實查核與規管

有「ChatGPT之父」之稱的OpenAI行政總裁Sam Altman,曾與350位權威專家簽署了公開信,警告AI對滅絕人類構成的風險,不下於核戰及大流行疫情,應予以重視;而他亦曾警告,指AI技術可能操控訊息,並對來年美國大選造成影響。[6]

了解到上述AI造假的情況,用戶在相信和轉發訊息,或使用AI所提供的資料之前,實在需要花時間去查證。但由於AI成內容的仿真度愈來高,可能用戶在查證時需參考專家的分析。英國廣播公司於本年5月宣佈成立一個由60名專家和記者組成的專責小組「BBC事實核實」(BBC Verify),以核查影片及資訊的真偽,小組又會將分析核查影像真確性的過程向公眾公開,以獲取公眾的信任。由此可見,在AI世代中,要查證的難度愈來愈高。[7]

而規管方面,Altman呼籲應成立一個美國或全球規模的機構,對超過一定規模的AI企業頒發許可證,規管機構擁有撤銷許可證的權限,以確保該技術發展符合安全標準。[8]

中國上海市則在本年5月發佈了文件稱,要充分發揮人工智能創新發展專項等引導作用,支持民營企業廣泛參與數據、算力等人工智能基礎設施建設,而北京市亦發佈了類似的文件,提出了2025年人工智能核心產業規模達到3,000億元人民幣、持續保持10%以上增長、輻射產業規模超過1萬億元人民幣等具體目標。[9]

而在台灣,本年5月有部門對外宣稱,行政機關已召開跨部會會議,邀請國科會、數位部、國家通訊傳播委員會及文化部等相關單位,針對ChatGPT等生成式AI立法納管研議推出一部「人工智慧基本法」,立法規範納管。[10]


[1] 倪浩軒:〈教宗穿羽絨服爆紅!卻是AI生成照片〉,今日新聞、yahoo!新聞,2023年3月29日,網站:https://tw.news.yahoo.com/教宗穿羽絨服爆紅-卻是ai生成照片-154045706.html154045706.html(最後參閱日期:2023年7月11日)。

[2] 倪浩軒:〈教宗穿羽絨服爆紅!卻是AI生成照片〉。

[3] 〈五角大樓爆炸假相 嚇跌美股〉,星島網,2023年5月24日,網站:https://std.stheadline.com/daily/article/2529265/日報-國際-五角大樓爆炸假相-嚇跌美股(最後參閱日期:2023年7月11日)。

[4] Abené Clayton, “Fake AI-generated image of explosion near Pentagon spreads on social media,” The Guardian, May 22, 2023, https://www.theguardian.com/technology/2023/may/22/pentagon-ai-generated-image-explosion.

[5] 〈AI造假|美國律師用ChatGPT寫訟書 被踢爆AI造假案例 辨稱:無意欺騙法庭〉,Fortune Insight、yahoo!體育,2023年5月29日,網站:https://hk.sports.yahoo.com/news/ai造假-美國律師用chatgpt寫訟書-被踢爆ai造假案例-辨稱-無意欺騙法庭-105111759.html(最後參閱日期:2023年7月11日)。

[6] 〈風險提示|ChatGPT之父夥350專家:警告AI可毀滅人類 風險不下於核戰及疫情〉,BossMind、yahoo!新聞,2023年5月31日,網站:https://hk.news.yahoo.com/風險提示-chatgpt之父夥350專家-警告ai可毀滅人類-風險不下於核戰及疫情-050000876.html(最後參閱日期:2023年7月11日)。

[7] 〈BBC小組透明化查AI造假 取信於公眾〉,明報加西網,2023年5月24日,網站:http://www.mingpaocanada.com/van/htm/News/20230524/ttac2_r.htm(最後參閱日期:2023年7月11日)。

[8] 〈風險提示|ChatGPT之父夥350專家:警告AI可毀滅人類 風險不下於核戰及疫情〉

[9] 〈中國發展AI要求「社會主義核心價值」 各國AI監管側重有何不同?〉,《聯合早報》、《香港01》,2023年6月2日,網站:https://www.hk01.com/中國觀察/904402/中國發展ai要求-社會主義核心價值-各國ai監管側重有何不同? utm_source=01articlecopy&utm_medium=referral(最後參閱日期:2023年7月11日)。

[10] 林淑惠:〈生成式AI造假 將有法可管〉,中時新聞網,2023年5月25日,網站:https://www.chinatimes.com/newspapers/20230525000186-260202?chdtv(最後參閱日期:2023年7月11日)。

人工智能的倫理思考

陳永浩博士 | 生命及倫理研究中心研究主任(義務)
19/07/2023

近一年來,OpenAI,ChatGPT等人工智能(AI)技術突飛猛進,推出市面後亦廣受網民愛戴,大家紛紛下載使用,其進步已經到達了一個令人驚嘆的地步。現在,只要用普通語言文字輸入指令,AI就可以寫論文、作曲、繪圖、製片,撰寫程式,甚至幫忙創作活動流程大綱等。在未來,人類和AI之間的關係將會變得愈來愈密切。人們將會使用AI來完成許多日常任務,例如編寫電子郵件、製作報告、設計產品等等。此外,AI還可以幫助人們解決一些複雜的問題,例如醫學診斷、金融分析等等。然而,隨著AI技術的不斷發展,可能會引發一些倫理問題,例如,如果AI可以自己創造新的知識和技術,那麼它是否有權擁有這些知識和技術呢?如果AI可以自己做決策,那麼它是否有權做出這些決策呢?有見及此,明光社在2023年4月20日舉辦了「人工智能的倫理思考」網上講座,特別邀請了資訊科技界和教育界的人士,討論一下人工智能的倫理。

明光社

JesusOnline總幹事鄧諾文先生指出,人工智能其實早在1980年代已開始發展。到了2016年時,當時的人工智能大約只達到人類三歲左右的智慧水平,其功能也較單一,他分享自己用過的AI寫作工具,製作出的大綱總是千篇一律。但時至今日,已有評估指出,流行的人工智能工具已提升至人類14歲左右的心智水平,加上更先進的智能程式操作(如提示工程〔Prompt Engineering〕已成為了新學問,讓人學習如何與AI溝通),令AI的進步變得十分驚人。

明光社

除了是研究中心的義務同工,筆者也是恒生大學社會科學系高級講師,現在教育界面對著因同學不當使用「人工智能」而衍生出作弊與抄襲問題:人工智能的確更能幫助同學找資料,也能訓練同學「問問題」的技巧和思考模式,但同時也帶來資料準確性的問題(如AI提供錯誤資料,缺乏求證,甚至有穿鑿附會、「老作」答案的情況);另外當同學不當使用,一心依賴人工智能而變成抄襲、「請槍」的情況亦已出現。這樣不單影響同學學習成果,也對老師批改功課作業造成困難。

綜觀來說,人工智能發展的確是一日千里,那很多人就會提出一個重要問題:人工智能會有自己的思想嗎?甚至會不會有一日取代人類?當前,很多人會覺得人工智能會取代人類很多的工作,使人類失業,繼而失去優勢,但其實現時的人工智能的特點,不只在於資料上的整合,而是其向人類「深度學習」的能力。當大家一路下載ChatGPT使用時,其實就是極速地幫助人工智能向我們學習;加上大數據和演算法的加持,如果有一天到達了不可逆轉的「臨界點」:人工智能有能力創造自己以外的「人工智能」時,這就可能真正威脅到人類了。

當然,人工智能發展何時會達到這樣的情況?我們實在難以預測。活在當下,我們應認知人類與人工智能相互的優缺點,從而好好善用,取長補短,切忌不聞不問,或是貪方便濫用相關科技,這才是明智之舉。

如想收看足本講座,請點按以下連結。

收看講座

開放人工智慧對人性過於樂觀

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史,現在是美國阿蘇薩太平洋大學(Azusa Pacific University)應用行為科學與數據科學教授。
04/07/2023
專欄:有情無國界 (*所有文章只屬作者個人意見,不代表本社立場)
國家:美國

開放人工智慧喪失了誠信嗎?
現在「開放人工智慧」(OpenAI)的人工智能聊天機械人ChatGPT 已經紅透半邊天,相信我不需要在此向讀者詳細介紹其功能。不過,很少人知道為甚麼該公司名叫OpenAI,其實它原本是一個走開源(Open source)路線的非牟利團體, 該團體在2015年成立,OpenAI 的意思就是要將自己發展出來的人工智慧原始碼公諸於世。然而,2019年OpenAI卻改轅易轍,其電腦程式已不再是公開,而且OpenAI 變成了牟利公司。故此,現在OpenAI的名稱與公司的性質已經不相符。

電腦專家艾力生(Forrest Allison)對開放應用程式介面(Open API)的變質非常不滿,他認為Open API的做法已經令人質疑其誠信,他寫道:「OpenAI 從開源龍頭轉變為閉源、以利潤為導向的公司,這是對人工智能行業的一個警示。儘管該公司在人工智能開發方面取得了重大進展,但其日益保密、缺乏透明度、提供有限的選項的行為,已經疏遠了它曾經旨在服務的社群。」

開源運動接近社會主義
開源軟件是任何人都可以都接觸、修改、使用的軟件,費用全免,開源運動的原意是要打破大企業的壟斷和牟取暴利,諷刺的是,到頭來開源運動最大的得益者仍然是科技巨頭!今年初微軟向OpenAI注資100億美元,微軟逐步將OpenAI 的技術融入了自己的產品,這包括了搜索引擎Bing、雲端服務Azure、微軟365……,對微軟來說,這真的是如虎添翼。除了微軟之外,很多大公司都利用Python等開源軟件去增強自己產品的功能,例如亞馬遜的預測模型SageMaker、雲端服務AWS 都採用了Python。

筆者對這發展毫不意外,很多年前我曾經撰文質疑開源運動的可行性,簡單地說, 開源運動的精神過於理想化。在OpenAI成立的時候,臉書首席人工智能科學家楊立昆(Yann LeCun ) 並不看好,他認為作為非牟利團體,OpenAI 難以吸引到資金和人才,大部份有能耐的人工智慧專家都會跑到谷歌或者臉書,他預測OpenAI 將會失敗。幾年之後,OpenAI 的後半節 (AI)十分成功, 但前半節(Open) 卻正如楊立昆所料,真的徹底失敗了!《紐約時報》科技評論家凱德‧梅茨(Cade Metz) 寫道:「OpenAI是一個理想主義的願景,最終將被證明是完全不切實際的。」

開源運動的理論假設和目標接近社會主義:人們會各盡所能、各取所需,最終便可以擺脫資本家的壟斷和操控。上世紀整個地球經歷了社會主義與資本主義的鬥爭,最後,歷史教訓我們,陳義過高的烏托邦只會適得其反。在短期內,一腔熱血的理想主義者可能會在很少甚至沒有報酬的情況下編寫電腦程式,然後免費送給全世界。不過,世界上有幾多人會願意持續幾十年做電腦義工呢?

重賞之下,必有勇夫
統計分析系統(Statistical Analysis System,簡稱SAS) 是全世界最大的數據分析軟件公司,但近年來其市佔率逐漸被開源軟件蠶食,其中一個原因是開源社群可以很快地推出很多功能強大的軟件,而且分文不收。不過,最近一間顧問公司比較SAS和開源數據分析軟件的功能和速度,結論是前者的運算速度平均來說比後者快三十倍。我對這個測試結果並不感到驚訝,開源社群的研發努力比較鬆散,而且完全是自發性的,但商業公司的研發是協調的,而且可以用高薪去吸納頂尖人才,正如中國俗語有云:「重賞之下,必有勇夫。」 除了性能和速度,開源軟件與商業軟件還有一個很大的差別:用戶使用者介面,一般來說,前者都比較難用。做生意需要顧客至上,因此,商業軟件會盡量令用戶舒適, 但在沒有利潤推動下,電腦義工會否為用戶設想呢?

無論如何,開源軟件最大的賣點是完全免費,這是令到商業軟件逐漸失去市佔有率的原因之一,短期來說,這對用戶是好事,但長遠來說卻不得而知。讓我套用一個比喻,當古巴進行社會主義革命的時候,卡斯特羅政府將許多從富人手上沒收的房屋免費地分配給窮人, 那時候許多人歡迎這政策,但自此之後古巴經濟一直停滯不前,那些原本美輪美奐的房屋逐漸變成殘破不堪。

如果大通銀行的數據中心發生故障,銀行可以馬上聯絡商業軟件公司的技術支援服務, 對方的技術人員會日以繼夜進行維修。相反,若果大通銀行採用開源軟件,銀行真的能夠期望開源社群會拍心口,不解決問題便決不罷休嗎?試想像,若果有一天開源軟件完全打垮了科技龍頭,或者商業軟件公司退縮至一個小角落,這會對科技發展和經濟活動帶來正面還是負面的影響呢?

惡意地利用開放制度
開源軟件公開原始碼,有些人可以通過這透明制度去改善軟件,但別有用心的人也可以利用這開放制度去做壞事,例如俄羅斯、北韓、伊朗毋須派遣間諜,只需要在網上下載原始碼,便可以掌握到某些美國的尖端科技。最近不少人談論人工智能會否毁滅人類文明,若果頂尖的人工智能原始碼完全開放,那麼便有人可以將這些電腦程式發展為武器。起初OpenAI 擁抱開源和非牟利模式的時候,其創始人之一森姆‧奧特曼「(Sam Altman ) 表示並不擔心會有人惡意地使用人工智能,他的反駁論據是:在開源模式下,很多人會制止這些壞人。對筆者來說,這邏輯好像是:開放極音速核子飛彈科技並不是問題,如果有人惡意地發展這科技去危害全世界,其他人也可以參考開放的資料,去發展攔截極音速導彈的技術。

請讀者不要誤會,我並不反對開源,事實上我亦採用開源軟件。然而,開源運動對人性的假設過於樂觀,有時候開源支持者站在道德高地作出批判,好像有點自以為義。在文章開首我提及艾力生對OpenAI的不透明和尋求利潤表達不滿,說OpenAI 的行為令人質疑其誠信。我認為OpenAI 的做法無可厚非,它無非應驗了以下的傳統智慧:「在二十歲之前,若果你不支持社會主義,你是沒有心肝;在四十歲的時候,若果你不歸向保守主義,你就是沒有腦筋。」 起初奧特曼懷著改變世界的抱負,現在奧特曼是OpenAI的執行長,最近他訪問多個國家,去討論怎樣監管 人工智能的發展,他已經意識到完全開放、毫無監管的危險。而且,微軟向OpenAI 投資了100億美元,有誰會嫌錢腥呢? 我不會!

候任傳道人的牧養藍圖……我有話說

吳慧華 | 生命及倫理研究中心高級研究員
13/06/2023

隨著人工智能的興起,很多人都談論到,AI能夠搶走很多人的「飯碗」,特別是屬於單一技能、分析或與數據相關的工種,反而是與人有真實連結的工作,則難以被AI取代,也許這情況已在出現。相信在眾多職業中,牧者是其中一個最不怕被AI取代的「行業」,只不過,牧者雖然不會被AI淘汰,但香港近幾年,卻有不少牧者「自動流失」。根據2019年香港教會普查顯示,有148間本港堂會沒有堂主任,亦有307間堂會表示其堂主任已有退休的計劃。[1] 移民潮加上退休潮令同工流失,有宣道會區聯會的牧者表示,在近兩、三年大概減少了約100位同工,浸信會各堂會在2021年減少了100位全職教牧同工,不過在2022年卻增加了39位。[2] 雖然情況似乎出現轉機,但基督教堂會整體缺乏教牧同工仍是不爭的事實。教牧同工供不應求,自然影響教會的事工及牧養的質素,為了迎接如此挑戰,香港信義宗神學院及建道神學院分別在2020年6月及2022年4月舉辦研討會,由神學院教授及教牧同工等教會領袖,一同探索教會的出路。

有見及此,今期「我有話說」訪問了兩位年青神學生,Luby(化名)及Aurinko(化名),她們的恩賜或召命雖有不同,但卻同樣懷著忠誠事奉主的心志,打算畢業後便投身教會服侍,發揮自己的恩賜,或許在教牧界中,她們只是還未「入職」的「小薯仔」,但身為年青神學生,她們的一些構思,仍未受制於教會的行政或架構,或許能夠為堂會這「牧場」提供一些「養份」。

想要吸引會眾入教會,教會要貼地

Luby在五歲時第一次去教會,便體會到信仰的真實,自此把基督信仰默默放在心上,直到在她出國到了澳洲,才在當地的教會正式決志。由於並非信二代,Luby身邊的親人及朋友有九成都不是基督徒,因此她自言是一個站在教會及未信者中間的人,她知道教會想要傳福音,想更多人加入教會,但她同時亦明白為何教會總是被非信徒詬病為“old school”及不切實際。

站在兩者之間的Luby反省到教會若想要吸引人,特別是年青人進來教會,一定要「貼地」。教會沒有可能回應所有問題,但若連一些很重要及大多數人都面對的掙扎,如性方面的課題或教育制度等,教會都忌諱且不回應,避而不談的後果是讓人覺得很死板及老套。或許教會很怕出錯,但Luby認為《聖經》對很多議題都有講論,牧者只要跟著《聖經》原則教導,其實是不用怕出錯的。

教會想要吸引教外人,除了需要貼近社會,也需要貼近人的需要,Luby提到,教會開辦查經班之餘,也可以開辦其他課程,實際地回應弟兄姊妹,甚或非信徒的需要。

至於教會既有的活動,如查經班等,Luby認為,若特別想鼓勵年青人報讀,是否可以以一個較為有趣的形式進行,例如不是由導師單向的灌輸《聖經》知識,陳述釋經書如何解釋經文,而是用較為活潑的形式進行,或是透過戲劇、討論,讓參加者有機會參與及表達自己的看法,而導師只在最後才提供答案。

培訓弟兄姊妹,共同承擔教會這一頭家

教會除了要貼地,也要有遠見,面對香港政治氛圍變幻莫測,不少借用學校地方聚會的堂會,需要去思想萬一不能再在學校舉行聚會,堂會該怎麼辦?Luby想到,不單是堂會不能在學校聚會教會有何對策,而是假若教會沒有傳道同工時,是否可以如常運作。雖然身為神學生,她明白基本上只有傳道人才能夠在講壇講道,亦只有牧師才能施浸禮及聖餐,但除了這些重要崗位,教會是否能夠培訓弟兄姊妹,按著其恩賜承擔其他重要崗位,例如牧養的工作。牧者牧養弟兄姊妹是責無旁貸的,但現實中,不能單靠為數不多的傳道人去牧養整間教會的會眾,這樣只會讓教牧同工筋疲力竭。如何讓弟兄姊妹真知道教會是一個家,如何在行政上支援他們,幫助他們在沒有壓力之下,自由地發揮恩賜,甚至年青信徒想發展不依照教會傳統的新穎事工,教會也願意幫助他們,以致令會眾願意投入參與事奉,而不是只把「任務」派給同工或某幾個弟兄姊妹身上,這些都是很值得教會思考的問題。

Luby希望教會可以推動更多弟兄姊妹參與事奉,因為她相信,當弟兄姊妹愛耶穌,跟從教會,視教會為一個家,自然會承擔責任。牧者的角色並不是把一切事務「攬在」自己身上,而是以身作則,熱心事奉,藉此影響其會眾,幫助他們建立事奉心志。

認真教導兒童,還年青人事奉的動力

Luby指出教會需要給年青人更多自由及空間發揮所長,在這方面,Aurinko亦有不少實際的構思,這可能與Aurinko入神學院時,便想要在兒童牧區及青少年牧區服侍有關。

Aurinko從小便參加教會的兒童崇拜,在那裡被牧養及成長,因而對兒童事工很有負擔。Aurinko提到教會不能輕看兒童事工,以為兒童事工的性質猶如托兒所,只是讓小朋友開心玩耍,方便大人去參加崇拜;相反,這是值得教會投放資源的地方,讓小朋友從小便可以接觸到神的話語,按著真理成長。這或許有助於他們長大成人後,不會輕易地便想離開教會,要知道,青少年很受同輩影響,聽取朋友的聲音多於父母,若身邊的朋友一個接一個離開教會,出於孤單,他們便會是下一個離開教會的人。

青少年很容易受朋輩影響,他們的另一特色,便是很需要空間及自由。Aurinko相信神的計劃很宏大,我們的眼光也不宜狹窄,因此教會在思想上先不要自限,不要認定自身的資源不足,認為崇拜形式只可以如此,敬拜神的方式一定要用傳統的詩歌或風格,這樣不但限制了年青人的想像,也很難吸引新一代停留在教會。這一代年青人特別需要新的東西去刺激他們,他們也很需要空間去發揮自己,現今願意留在教會的年青人,他們其實很有想法亦很想做很多事情,只是,他們希望他們的想法有機會被聆聽,而不是單純被教會安排參與一些教會認為適合他們的崗位,例如有些教會不管年青人有沒有恩賜或興趣,便純粹出於年齡考慮,硬是安排他們服侍兒童,又或是在整個事奉過程中沒有「容許」他們有休息的機會,認為他們如此跟從教會的安排才算「乖」,其實這樣反而會壓制他們的事奉心志。

跨代牧養,了解彼此的不同

教會不是一處租借場地的地方,只提供空間給不同的群體借用,期間,不同的群體之間沒有任何交集及關係。Aurinko支持跨代牧養,她認為教會是由一群不同年齡層的弟兄姊妹組成,山頭主義,不同年齡層之間彼此批評,只會破壞彼此的關係,不能讓教會成為「一家人」。

若想不同年齡群體有所連結,教會可以讓年青人與長者接觸,一來年青人有機會關心長者,長者亦有機會牧養年青人,雙方都能彼此建立造就。又例如教會若舉辦門徒訓練,可以嘗試把學員分組,每一組都由不同年紀的弟兄姊妹組成,導師可以鼓勵他們一個月至少聚餐一次,藉此增加彼此的溝通機會,減少因不理解而來的磨擦。另外,教會亦可以考慮舉辦跨代的敬拜讚美會,讓弟兄姊妹用不同年代的詩歌敬拜。Aurinko深信敬拜最重要的是「一把聲」,這並不限於走音與否,又或是自己認識詩歌與否。

結語

或許Luby與Aurinko還很年青,又或許如她們所說,她們還有不足之處,需要學習,但重要的是當她們看到教會及弟兄姊妹的需要時,沒有逃避神的呼召,願意擺上自己。想要宣教的Luby沒有設定自己的宣教工場,她願意跟從神的帶領。至於Aurinko,她不想只做一個打扮「靚靚」,站在講壇上講道的傳道人,如果會眾穿著T恤及牛仔褲,她也寧願穿上T恤及牛仔褲站上講壇,成為一個近距離的傳道人。

在不少教會傳道同工不足、年青信徒欠奉的情況之下,Luby與Aurinko雖然不足以代表神學生或年青傳道的心聲,但她們的意見仍然是難能可貴的,但願她們將來無論在哪一間教會事奉,都可以把其事奉的心志傳遞給所牧養的群體,至於教會,也能珍惜及接納一班「初生之犢」,即使他們無意中冒犯了教會的傳統或文化。


[1] 2019香港教會普查研究組等編:《2019香港教會普查簡報》(香港:香港教會更新運動,2020),頁8。

[2] 〈塑造香港教會前景會議 基督教界挑戰中覓出路〉,《基督教週報》,第3062期(2023年4月30日),網站:http://www.christianweekly.net/2023/ta2042576.htm

跨過「元宇宙」,踏進「人工智能」……

陳永浩博士 | 生命及倫理研究中心研究主任(義務)
31/05/2023

元宇宙只是「虛擬遊戲」?


還記得年多之前,因為facebook(後來更索性改名為Meta)行政總裁朱克伯格提出了元宇宙(Metaverse)的概念,[1] 很多人對此追捧,但更多人以為這只是年青人玩玩進階版的「虛擬遊戲」:人人頭帶VR眼鏡,配備著外置控制器,自由自在地進入一個全新的虛擬環境,更由此可以擁有新的身份,進入新世界!


但其實元宇宙本身既不是由朱克伯格獨創,更不是一個新發明——早於1992年Neal Stephenson所創作的科幻小說作品《雪崩》(Snow Crash)中,已有進入虛擬世界的相關概念描述。而這種進入虛擬世界的故事也成為了不少電影和遊戲的主題:如曾在香港上映的《挑戰者1號》(Ready Player One),就是講述人們為了逃避現實世界,繼而投入好玩刺激、忘掉現實世界不安的虛擬網絡遊戲「綠洲」(OASIS)之中;電玩中的角色扮演遊戲(MMORPG),或是《模擬市民》(The Sims)之類的遊戲,都讓玩家創設一個新世界,在當中有新的身份生活。這些體驗讓人能夠在現實世界以外的平行時空中,創立起無限獨立的、不同的元宇宙,互聯網就變成了不同的「宇宙空間」(cyberspace)。人類在不同的元宇宙遊走,彷彿就能穿梭時空,甚至可以經歷不同的世界。


元宇宙興起,無人返教會?


當人人都享受在虛擬世界中,這對我們真實世界有甚麼影響?教會是否也要跟隨時代步伐,到元宇宙去傳福音,甚至開設教會呢?請不要以為在說笑,在香港的確已有元宇宙教會,也曾舉辦了聖誕佈道會呢![2]


事實上,不只因為元宇宙的興起,在香港這幾年的疫情期間,不少教會會友已習慣了在網上參與崇拜聚會、繼而遊走不同教會的網上崇拜,而不願意再出席現場聚會,甚或建立另外志趣相投的信仰群體。若果教會繼續無視這些情況,不作更新變化,恐怕危機難以避免。然而,正如大家接受了透過網上參與崇拜,靈命同樣會有所成長,透過網上參與小組、主日學,聚會時間和地點變得更有彈性。信徒既然能以社交媒體彼此聯絡,其實同樣也能以此保守聖靈所賜合而為一的心,危機其實也就是轉機,一切都回到基本:人與人真實的「關係」。[3]


就如前述的電影《挑戰者1號》,故事最後也指出:就算元宇宙是多麼美好,令人樂而忘返,真實世界其實仍是無可取替的,主角最終還是要接受自己真實世界的身份,這個結果,對於元宇宙發展,實在不無啟示。


ChatGPT後來居上?


然而,除了元宇宙,網絡世界的發展不只一日千里,更會時常不似預期。正當大家以為元宇宙會成為未來網絡發展的大方向時,異軍突起的新人工智能技術,擬人化程度更高的ChatGPT等,已經成為新一股網絡風潮。聰明的聊天應用程式,不只能為你解難,提供詳盡答案;不只能夠看圖識字,更可以出口成文,成品似模似樣,足以媲美真人寫作。有大學已經「嚴陣以待」禁止學生使用,如發現有同學違規會以潛在抄襲個案來處理。[4]


明光社


抱著「貪得意」精神,筆者到了ChatGPT,看看這個新人工智能如何介紹自己,[5] 答案果真是頭頭是道:「我(ChatGPT)是一個基於自然語言處理技術的人工智能助手,能夠理解和回答使用者的問題。我被設計成可以回答各種類型的問題,從常見的問題(例如天氣、時間、日期等)到複雜的問題或主題(例如科學、歷史、文化等)。我可以通過網絡搜索、API集成和其他資源來提供精確和有用的答案。如果您對我的功能和能力有任何疑問,請隨時詢問。」


如此受矚目的新技術,當然要挑戰一下「它」:「其實你這樣聰明,未來有一日你會取代人類嗎?」


「儘管我是一個非常智能的人工智能助手,但我無法取代人類……還有許多其他特質和能力,如情感、創造力和人際交往能力等等,這些都是現今的人工智能無法擁有的。即使在未來,當人工智能技術變得更加先進時,人類和人工智能助手之間的互動也應該是一種合作關係,而不是取代關係。」


事實上,當很多人在讚嘆和著迷於這些新奇玩意之時,有些人已經預視新型人工智能會有一天取代人類,可能令人類無法立足。然後,在這一天來臨以先,其實我們更應關心的是,新型人工智能如何在不知不覺之間,改變了我們。


首先,ChatGPT方便使用,的確能方便我們完成很多日常、重複性的工作,可是它對需要「思考」或作「判斷」的問題,其準確性其實還是有待改善。而事實上,已有報告指出,ChatGPT為求提供「完美」答案給用家,會提供不準確資料,甚或「老作」答案出來矇混過關。ChatGPT這樣提供「假資訊」,而用家往往又不作查證,如此便會引來很大的問題。[6] 另一方面,今天的主流版ChatGPT還是免費,但其實新推出的版本,已朝向收費方式營運——如果知識只是有錢人的專利?這豈不是退步,違背了互聯網創立時,人人互為平等的初衷嗎?


但願跨過「元宇宙」,踏進「人工智能」年代時,我們擁有的,是一個更公平,知識更開闊,人人平等,關係更為緊密,再沒有阻隔的新國度吧!祝你在Metaverse, ChatGPT愉快!


 



[1] CNET, “Everything Facebook revealed about the Metaverse in 11 minutes,” YouTube, October 29, 2021, https://www.youtube.com/watch?v=gElfIo6uw4g.


[2] 林以諾牧師以Network J名義,於2022年創立了「元宇宙教會」(MeChurch),這可作為元宇宙教會運作的一個參考。Network J:〈元宇宙教會 MeChurch〉,YouTube,2023年1月18日,網站: https://www.youtube.com/playlist?list=PLZFK1wUo0MYq2xSgaBQOtB85rOnLYw7iU


[3] Tom Pounder, “What does the Metaverse mean for your church,” TheChurch.Digital, November 3, 2021, https://be.thechurch.digital/blog/metaverse.


[4] 林穎嫺:〈ChatGPT|港大禁評估、論文用AI工具 學生違規當抄襲處理〉,《香港01》,2023年3月4日,網站:https://www.hk01.com/專上教育/868390/chatgpt-港大禁評估-論文用ai工具-學生違規當抄襲處理?utm_source=01articlecopy&utm_medium=referral


[5] 以下的ChatGPT對話由網上聊天室Poe.com中摘取。用戶在Poe.com可選擇與列表中的聊天機器人聊天,其中一個便是Open AI開發的ChatGPT,Poe.com特點是在香港地區的用戶也能夠使用(現時ChatGPT並不開放予香港和中國大陸地區使用),參:“Poe - Fast, Helpful AI Chat,” https://poe.com/Sage.


[6] Jack Brewster, Lorenzo Arvanitis and McKenzie Sadeghi, “The Next Great Misinformation Superspreader: How ChatGPT Could Spread Toxic Misinformation At Unprecedented Scale,” NewsGuard, January 2023, https://www.newsguardtech.com/misinformation-monitor/jan-2023/.

成長就是不斷學會如何選擇

蔡志森 | 明光社總幹事
24/05/2023

人生的困擾往往在於我們面前有太多選擇,但諷刺的是我們不少的選擇可能都不是經過深思熟慮,發自我們的內心,而是受社會環境、朋輩、傳統和別人的評語所影響。無論個人或群體,學會如何選擇和做決定,是十分重要的,否則恐怕只會隨波逐流、甚至被洪水所淹沒。

資訊科技一日千里,在我們的日常生活無孔不入,令人眼花撩亂,由AI而產生的問題日新月異,過往大家一直擔心的問題,例如色情資訊已變本加厲、防不勝防,家長和學校惟有多從教育方面入手,不要奢望網絡的供應商會忽然良心發現而自律。此外,AI的版權問題亦不可忽略,因為版權問題可大可小,有時一個錯誤的決定,足以令自己陷於沒完沒了的糾紛,賠上令自己心痛的時間、金錢和聲譽。

另一方面,作為家長的,在與子女相處時要不斷學習的是,有甚麼該做和不該做,若作出錯誤的選擇,對親子關係有害無益。人生另一個重大的決定是如何選擇愛人、選擇配偶,而更基本的是我們必須建立正確的愛情觀,特別是在這個愛情與情慾容易混淆的世代,我們容易將人「物化」,將對方當作沒有靈魂而只是被消費的「他者」。

最後,教會在面對急速轉變的社會大環境,前車可鑑,為免誤觸紅線,亦必須重新思考我們的定位,特別在財務和管理方面要選擇自力更生,惟有教會愈不需要依賴外力,教會的自由度才會愈大、愈能夠順從神而毋須順從人。

誰是真正的創作者? AI產物的版權爭議

郭卓靈 | 明光社項目主任(傳媒及生命教育)
24/05/2023

近來,人工智能(AI)在某些專門工作上的應用引起了不少討論,由於它可能比人類更準確和快速,它會否取代人類等問題,成為了其中一個討論焦點。自去年11月ChatGPT,即聊天生成預訓練轉換器Chat Generative Pre-trained Transformer)面世以來,它有能力於短時間內綜合資料,有條理地寫出與人類相似的文章,它開始讓人擔心AI會否即將取代人類知識型的工作,包括需要創作力的工作,如:撰寫小說、平面設計或作曲填詞等藝術工作。

而事實上,暫時來說AI是可以幫助人們執行創作工作,但概念、數據、風格等是源自於網絡上的數據,如真人寫的文章、真人藝術家的創作等,若果AI程式要生成作品,便要輸入很多很多原創作品,過程中它會被調校、訓練,那麼它所生成的作品版權便會引起很多爭議。

機器創作也有強弱之分

在一般的情況下,人類會透過工具去完成作品,所以,AI作為人類的工具去完成作品,過程中人類是高度參與的話,那麼有關的AI工具是「弱AI」(weak AI),由其生成的作品能被當作知識財產而受到保護,版權應為使用該AI工具的創作人。但相反,如果作品是由「強AI」(strong AI)獨立創作,「人」在過程中的參與極低,作品便會失去版權、不受保護,並且任由公眾使用。[1]

明光社

一位使用AI創作圖像的創作人Stephen Thaler博士,於2019年首次為他的AI創作機器生成的圖像A Recent Entrance to Paradise申請版權,但美國版權局(USCO)認為「只有人類的創作」才能獲得版權保護。後來,Thaler博士認為局方的判決違反了美國憲法並提出上訴,再次為其作品申請版權,局方就接納這圖像是由名為Creativity Machine的AI,受僱於Thaler博士創作而成,但這生成作品的版權仍是不受保護。[2]

而Thaler博士個案的判決書中,有提及美國現行的版權法只保護「腦力勞動者的成果」,那是由「人腦創作出來的」,這表示作品如要受到版權法保護,就必須由人類創作。

人類未能預視部份AI工具生成的作品

由於網海中已有許多AI程式,我們以Midjourney這AI程式作為討論例子,有關資料及案例都來自網上資料。Midjourney是一個由美國獨立研究實驗室開發的AI程式,用戶可以通過Discord這個免費網絡實時通話軟件,用文字來命令AI創作。由於它利用了在網絡爬取的50億張圖像來對機器進行訓練,[3] 故部份作品引起了一些版權爭議及個案重審。

明光社

美國版權局早前重新審批版權圖像小說Zarya of the Dawn,作品由作者卡什塔諾娃(Kristina Kashtanova)撰文,再由Midjourney按照文字提示生成插圖。美國版權局曾在去年批准了卡什塔諾娃的著作權申請,但由於她申請時沒有提到用Midjourney生成內文的圖像,所以局方隨後稱要再重新考慮其版權登記的申請。結果在今年2月,局方指該小說的文本和圖像編排可以獲得版權保護,但圖像就不能獲得保護,卡什塔諾娃也不會被認定為圖像的創作者。

另外,有一點值得大家注意,就是現時Midjourney用戶不能準確預測它輸出的結果,可以說結果是隨機成份為主,而作品則是AI工具自動生成,但如果日後藝術家能對AI工具施加「創造性控制」,可以預見到產出的內容,美國版權局就明確表示了相關的作品是可以得到版權保護的。[4]

機器學習的訓練素材也受版權保護

Midjourney於網上取用了50億張圖片作為訓練圖庫,另一AI繪圖軟件Stable Diffusion(SD)就因涉嫌使用受版權保護的圖像而惹官非。SD被圖庫網站Getty Images指他們濫用了Getty Images圖庫中超過1,200萬張圖像。由於SD生成的圖像都有Getty Images圖庫中的特殊水印,相信是因AI系統誤認為圖庫中的特殊水印為「重要元素」而產生出有水印的圖像。[5] Getty Images指出該AI所屬的公司「非法複製和處理數百萬受版權保護的圖像」,以此來訓練AI模型。[6]

而實在不同的藝術家,不論是攝影師或畫家,他們的「風格」都是他們的重要資產,而如果AI軟件可以任意將他們的作品倒入機器中,任意使用他們的畫風,而又不向藝術家作出補償,有人稱這種做法是極不尊重,亦可視為「偷竊」的舉動。

但另一邊廂,亦有人稱之為「合理使用」,因為AI的做法不是直接儲存圖片,而是從眾多的圖片中抽取空間及顏色分佈等數據,再作歸類學習,及後再用這些數據產生新的圖像。[7] 這種做法是風格的模仿,並非抄襲作品。同類的情況就如梵高的油畫《星夜》,其繪畫手法被其他人學習,並用於繪畫其他的夜景一樣。這是「抄襲」還是「創意地重組生成」,就見仁見智。

如何面對AI的蓬勃發展

眼見愈來愈多投資者及科創公司投入資金和資源發展AI,而AI也將會愈來愈成熟,無論是生成的圖像、文章、音樂……面對這種趨勢,人們如何自處是一個值得探討的課題,我們當它是洪水猛獸還是學習如何使用、駕馭它?不同的心態,可能會使我們有不同的結局。

明光社

想到了美國科羅拉多州博覽會「數位操控攝像」(digitally - manipulated photography)類別比賽的優勝者,這位美國人名叫Jason Allen,他使用了Midjourney,花了80小時去不斷改變輸入的詞彙來調整生成品的顏色和感覺,過程中AI產生了900多張迭代圖片,才做出了他認為理想的圖片。及後,他再把這圖片放入Adobe Photoshop調整,才做出冠軍作品《太空歌劇院》(Théâtre D’opéra Spatial)。Allen在參賽時直言不諱表示這作品是以Midjourney作為創作工具,但並沒有人追問細節。雖然旁邊仍有許多人質疑藝術是否已「死亡」?也要求Allen公開道歉。但他沒有這樣做,因為他認為自己沒有違規。而他只是在創作過程中使用了AI,他也有再用其他工具去修正和改良作品。而其中一位評審也表示Allen「擁有一個概念與畫面,並把它化為真實,這真是一幅很美的作品」。[8]

或許我們應該去想如何可以有效地使用科技,包括AI,去使我們生活得更便利、安全,以及如何透過科技去表達我們心中所思所想,使它們成為我們的助力,而非敵人。當然,我們亦要顧及即將受影響及被取代的人,也要幫助他們(或我們自己)提升自己能力去應用AI,而不是被AI取代。

 


[1] 方展策:〈AI創作未必有版權保護!著作權應歸屬用戶?AI?還是無主之物?取決於人類參與度強弱〉,經濟通,2023年3月10日,網站: http://www.etnet.com.hk/www/tc/lifestyle/digitalnewage/larryleung/83392(最後參閱日期:2023年5月4日)。

[2] Eric Chan:〈美國政府拒絕為AI生成藝術品提供版權保護〉,engadget中文版,2022年2月22日,網站:https://chinese.engadget.com/us-copyright-office-art-ai-creativity-machine-080058839.html(最後參閱日期:2023年5月4日)。

[3] 劉偉良:〈數據科普|跨越次元:GPT-4與Midjourney 5共織生成式AI新紀元〉,《am730》,2023年3月31日,網站:https://www.am730.com.hk/生活/科技/數據科普-跨越次元-gpt-4與midjourney-5共織生成式ai新紀元/369157(最後參閱日期:2023年5月4日)。

[4] 〈美AI創作小說圖像無版權保護〉,《文滙報》,2023年2月25日,網站:https://www.wenweipo.com/a/202302/25/AP63f92010e4b03b588d8f0c3f.html(最後參閱日期:2023年5月4日)。

[5] 〈指1200萬張圖被濫用Getty Images控AI企業侵權〉,《文滙報》,2023年2月25日,網站: https://www.wenweipo.com/a/202302/25/AP63f9200ee4b03b588d8f0c3e.html(最後參閱日期:2023年5月4日)。

[6] 〈藝術家興訟 防止AI軟件「剽竊」創意〉,《文滙報》,2023年4月22日,網站:https://www.wenweipo.com/epaper/view/newsDetail/1642234748418002944.html(最後參閱日期:2023年5月4日)。

[7] 梁嘉欣:〈AI版權大戰|藝術家告Midjourney侵權惹爭議 是拼貼或合理使用?〉,《香港01》,2023年1月18日,網站:https://www.hk01.com/藝文/858698/ai版權大戰-藝術家告midjourney侵權惹爭議-是拼貼或合理使用(最後參閱日期:2023年5月4日)。

[8] 樂羽嘉:〈用Midjourney、DALL·E等AI人工智能產出的繪圖,算不算自己的作品?我有著作權嗎?〉,104職場力,2023年3月8日,網站:https://blog.104.com.tw/can-ai-art-be-copyrighted/(最後參閱日期:2023年5月4日)。

AI與色情:身體、他者、「人」的缺席

呂英華 | 明光社項目主任(流行文化)
24/05/2023

在人工智能開始廣泛應用之前,色情文化已經由網絡傳播至世界各地,色情資訊滲入不同的角落。基本上任何年紀的人上網隨便搜尋,就已經能夠輕易地接觸到色情資訊,而這就是一個色情資訊氾濫的時代。

而色情,無非是一個工業,一個明買明賣的市場,當中買賣的,正正就是色情裸露、刺激觀眾性慾的內容。在資本主義/功績主義的社會下,任何事物或人都可以成為一個持續增加的資本,包括身體、性感。色情中的主角或模特兒只擁有展示和被展示的價值,他們被性化,成為性刺激的商品。被展示、被觀看的人沒有面容,沒有獨特性,也無法被愛,他們只是被剝奪了「他者異質性」,然後被展示出來,任人消費。[1]

性的展示文化,幾乎擴散至不同的社交媒體。一些網紅或直播主為要得到他人的關注、點讚和收視率,總需要一些方法去達到這個目的,而裸露便是最為方便快捷的方法。根據觀察,幾乎大部份的女性直播主、網紅或YouTuber在拍攝影片或直播任何內容時(打機、拍攝Vlog〔影片部落格〕等等),或多或少都會穿著得比較性感,至少也會「露胸」。「性」已經植入不同的流行文化當中,流行文化中的表演者會不自覺地進行自我性化、自我物化、自我商品化,就如一場展露身體的比賽。不過,這場比賽並不是純粹裸露就能贏,而是需要展示得色情化,就如2022年有一位日本YouTuber小栗由加推出「全裸結他」的影片,但由於其長相、身材以及影片拍攝角度遭人批評,影片的點擊率雖然曾一度急升,但最後卻跌至只有數百人觀看,對比起一些掌握到「若隱若現」,懂得拿捏「色情」,又會玩樂器的YouTuber,便會形成「高下立見」的形勢,也會讓人理解到為何有些人會「輸」,因為所謂「色情」並不是取決於露多少,而是在於怎樣露才能刺激他人的性慾。[2]

哲學家韓炳哲指出,現今的社會欠缺痛苦及被給予否定的承受力,只著重愉悅舒暢的感受,無論人與人之間的關係抑或社交媒體上的活動也是如此。韓將這種狀態以病理的角度來解釋——即現代人因過份「自戀」,便容易構成「憂鬱」這種病症。[3] 舉例說,在一個「點讚」的社會當中,無人為自己的帖文「點讚」就如同否定自己一樣,這種「憂鬱」的感覺就是因為「自戀」而造成的。否定與痛苦的感覺其實有其意義,它能讓人停下來思考,讓人知道自己不能將所有事物掌握在自己手中,所以當一個人無法承受被否定的感覺,也讓一個人失去思考的空間。

「身體」與「他者」的缺席

在大數據的時代裡,每個個體都只是大數據中的一顆微塵,網絡無限多的選擇,看似令生活變得豐富,然而卻構成身體的缺席,人與人之間只剩下點讚和分享。[4] 一些串流平台、社交媒體,不停地利用大數據的優勢,只要透過一個用戶的搜尋記錄,就能不斷推薦一些類近的內容予該用戶,當人不斷吸收同溫層中相同、類近的內容,人就很難再接受一些異於自己興趣的想法和意見。因為人總喜歡看自己喜歡看的東西及聽自己喜歡聽的說話,這是毋庸置疑的,但如果失去接納異於自己聲音、想法的器度,顯然也是一個不健康的狀態,而韓炳哲稱這個狀態為「相同者的地獄」——即在同溫層中「圍爐取暖」。或許每個人也總會遇過一些人,在與他們對話的時候,他們只喜歡談論自己有興趣的事,對自己興趣以外的事物,他們全無興趣,這正好反映了人對異於自己想法的排斥。

思想單一的社會,將「性」約化為直白的要求而毫無內涵。觀看網絡媒體時,以誰露得好、露得最多為考慮支持的因素,性文化充斥著社交媒體之中。人們在社交媒體、主播、網紅中沉浸,以多少「性感資本」來選擇誰最值得觀看,而只具備展示價值的主角,他們是沒有獨特性的,也沒有真實的面容,任由他人經性感指標來消費,「他者」的獨特性、內在性完全消失,只剩下展示出來的性感。

科技的發展,更加促使人與人之間最低限度的溝通消失。在進入ChatGPT時代之前,有一個更為驚世的AI技術,就是「Deepfake」。「Deepfake」,又稱為「深度偽造」,是人工智能的人體合成技術,透過類似移花接木的功能,製作出真假難分的影片。根據研究公司Sensity AI於2019年的一項研究,發現96%經過深度偽造技術來換臉的內容都是與色情相關,更有女性網紅因此技術變為了色情影片中的人物,令她們受到傷害。[5] 當然亦不乏人用此技術來進行政治操作,透過更換各國領袖的臉,繼而偽造出虛假的政治言論,涉事政治人物包括前美國總統奧巴馬以及烏克蘭總統澤連斯基等等。一些人利用Deepfake等技術,將自己感興趣的對象直接「性化」,化為可供消費和觀賞的消費對象。由應當透過溝通去深入了解一個自己感興趣的人,或最低限度去追蹤一下這個人的社交媒體,變為直白地將這個對象變換為可觀賞的色情對象。就此,我們便發現,作為高科技產物的AI,不斷令人與人之間的交流減少,身體缺席的同時,對話也一起缺席,剩下只有舒適愉快的色情體驗。

「人」的缺席

ChatGPT或其他生成式AI,讓我們無論何時何地,都能夠直接詢問AI任何問題,包括寫作、活動設計、提供思路等等;想要甚麼類型的圖片創作,直接輸入自己想要的特徵,然後AI便會自動生成擁有這些特徵的「藝術作品」。這一切一切帶來方便快捷的高科技產物,都逐漸讓我們不再需要一個具體的人與我們有所交流,從「身體的缺席」、「他者的缺席」,到現在「人」也缺席。

然而,除了廣為人知的語言模型ChatGPT,坊間亦有許多不同的圖像生成AI,而這些AI也帶動了色情範疇的新面向。過往由Deepfake透過移花接木方法建立的大量色情影片,在製作過程中,Deepfake會利用合成技術將不同人的臉孔和身體合成,故在合成前得先將人的身體切割。而圖像生成的AI,例如較為知名的Midjourney,便是將大量不同的內容整合成符合用戶提供的關鍵字的圖片(當然這是否「創作」,仍有許多不同的討論),而Midjourney是會過濾關鍵字的,所以用戶並不能輸入有關色情或性相關的字詞,不過,坊間其他的圖像生成AI就未必有字詞的過濾,甚至有些AI是為了製作色情影像而被創造的。

這種轉變也意味著,人連刻意去尋找自己感興趣的臉孔和身體,然後將它們合成的動作也不需要,直接就可以利用圖像生成AI來描畫一個完全符合自己理想標準的臉孔和身體,並且讓它成為自己的情慾對象。AI所創作的圖像是不受法律保護的,就連圖像中的人物也不是真實的存在,但卻非常真實,甚至最近有AI生成的照片奪取了本年度Sony世界攝影大獎賽其中一個組別的冠軍。[6] 既然AI這麼真實,連照片都可以生成,那麼在充斥著性文化的社會之中,被利用來製作色情資訊似乎也是無可避免。到最後人連情慾的對象也可以自行生成,不需要一個真實存在的人在其中,「人」名副其實在其中消失。

色情,無處不在,甚至成為了社交媒體其中一個重要價值所在,有些人在當中自我展露、自我性化,追求流量最大化。人們注視著身體的展示,展示的人沒有面容,只是一個自我性化、被人消費的對象。在這種現象下,人不需要有真實、真正的交流,這就完全避免了因與人交際而有機會產生的不舒適感,只要肯消費,就不會害怕得不到回應。然而,正因為人對痛苦的承受力不斷減弱,甘願停留在Instagram分享美好生活,別人不點讚也能構成憂鬱,加上AI的出現,人們的身體已經在網絡中缺席,即使至少仍在與人溝通,付出努力去追蹤具觀看性的性展示對象,然而AI卻令色情更加氾濫,被人「好好利用」之餘,「人」卻可以徹底地消失不見。人工智能看似方便,但卻讓人陷入一種無法與人相遇的孤獨,即使放縱情慾,也無法讓人脫離這種無以名狀的孤寂。

 


[1] 韓炳哲:《愛欲之死》(Agonie des Eros),管中琪譯(台北:大塊文化,2022)。

[2] 長濱睡睡:〈Pan Piano結他版|女YouTuber全裸演僅3百人看|網友洞悉背後原因〉,《香港01》,2023年3月8日,網站:https://www.hk01.com/遊戲動漫/866572/ pan-piano結他版-女youtuber全裸演僅3百人看-網友洞悉背後原因(最後參閱日期:2023年4月24日)。

[3] 韓炳哲:《愛欲之死》。

[4] 韓炳哲:《妥協社會:今日之痛》(Palliativgesellschaft: Schmerz heute),吳瓊譯(北京:中信,2023)。

[5] Michelle Elias:〈【AI之禍】女網紅被動成「咸片」主角〉,SBS中文,2023年2月10日,網站:https://www.sbs.com.au/language/chinese/zh-hant/article/a-streamer-was-caught-looking-at-ai-generated-porn-of-female-streamers-the-story-just-scratches-the-surface/xvnh5tvcq(最後參閱日期:2023年4月24日)。

[6] 〈AI照片奪攝影大獎 創作者稱盼業界正視〉,《明報》,2023年4月19日,網站:https://life.mingpao.com/general/article?issue=20230419&nodeid=1681841363274(最後參閱日期:2023年4月19日)。

用AI學習、做功課有何不可?

陳永浩博士 | 明光社生命及倫理研究中心研究主任(義務)
18/04/2023

「Hello! AI,你好!」

時代實在變得太快。不久以前(只是上年),當大家還在熱話「元宇宙」(Metaverse),幻想著人人頭帶VR眼鏡,配備著外置控制器,自由自在地進入一個全新的虛擬環境,進入新世界時,異軍突起的新型人工智能技術,擬人化程度更高的Open AI、Chat GPT等,已經成為新一股網絡風潮。聰明的聊天應用程式不只能為人解難,提供詳盡答案;不只能看圖識字,更可以出口成文;成品似模似樣,足以媲美真人寫作。

抱著「貪得意」精神,筆者到了Chat GPT,試試這個新人工智能如何介紹自己。[1]答案果真頭頭是道:「我(Chat GPT)是一個基於自然語言處理技術的人工智能助手,能夠理解和回答使用者的問題。我被設計成可以回答各種類型的問題,從常見的問題(例如天氣、時間、日期等)到複雜的問題或主題(例如科學、歷史、文化等)。我可以通過網絡搜索、API集成和其他資源來提供精確和有用的答案。如果您對我的功能和能力有任何疑問,請隨時詢問。」

「你很聰明,有一日你會取代人類嗎?」筆者當然要挑戰一下「它」了。

「儘管我是一個非常智能的人工智能助手,但我無法取代人類。我們僅僅是智能,還有許多其他特質和能力,如情感、創造力和人際交往能力等等,這些都是現今的人工智能無法擁有的。即使在未來,當人工智能技術變得更加先進時,人類和人工智能助手之間的互動也應該是一種合作關係,而不是取代關係。」

事實上,當很多人在讚嘆和著迷於這些新奇玩意之時,有些人已經預視新型人工智能會有一天取代人類,有使人類無法立足的可能性。不過,在這一天來臨以先,我們應更關心──新型人工智能如何改變我們?

其實這些改變在教育界早已響起警報了!早前香港大學副校長(教學)何立仁(Ian Holliday)向全體教職員和學生發出電郵,訂明港大禁止在課堂、功課和其他評估中使用Chat GPT或其他AI相關工具。若學生未在事前獲課程講師的書面許可而使用了有關程式,會當作抄襲個案處理。這是本港首間明文禁止使用AI軟件的大學。[2]據老師們反映,不少中小學生也開始利用Chat GPT的作文功能代替自己做功課,擺明「請槍」!可惜,基於Chat GPT行文太過「頭頭是道」,或者由於人工智能的智能確實有限(基本版的資料建基於2021年的數據,最新資料欠奉),這些「請槍」文章很多時被明察秋毫的老師一眼就看穿。學生這樣「出貓」固然要負上代價,更重要的問題:這樣依賴科技、人工智能,人類會不會變得愈來愈依賴和懶惰,不願學習?

電腦科技界有一句名言:「Garbage In, Garbage out.」即是電腦縱使更聰明,更有智慧,都是從人類的輸入中學習過來。如果我們將錯誤、無意義的數據輸入電腦系統裡,電腦也只會輸出同樣錯誤、無意義的結果。在Chat GPT中,原則也是一樣:在一切只是問答的情況下,一個懶惰的學生,只能了無意義在Chat GPT打出功課問題,得出答案「照交可也」。結果,當然是「垃圾級數」!然而,一個聰明的學生如果應用Chat GPT不是單單「搬字過紙」,只求敷衍的答案,而是對問題多加思想,提出在原有題目之上更有深度、更有意義的問題,再讓Chat GPT解答。這樣,得出來的答案可能就不一樣;而重點已不在答案本身,而是思考過程。當人好好去思考一個好問題,在未得到答案前,已經有得著,有學習效果了。

相對於港大,香港科技大學則取用了後者的精神處理Chat GPT的問題。科大首席副校長郭毅可及協理副校長(教學)馮志雄日前去信教職員表示,對人工智能工具能長期加強學校教學和學習方式持積極態度;長遠而言,大家都應該接受「生成式人工智能」,並承認其改變研究及教育方面的潛力。大學容許教職員自行就其課程內容制定使用人工智能的方向,包括容許、限制AI工具類型、方式或禁止學生使用AI。[3]

最後,我們也應該讓「主角」自己回應一下問題:「現在很多學生因為貪快,利用你來做功課。Chat GPT,你的看法如何?」

「作為一個人工智能助手,我的初衷是為人類提供便捷和有用的服務,而不是取代人類的學習和思考。我並不鼓勵學生利用我來代替自己的學習,因為這樣做不僅違反了學術誠信,也無法真正幫助他們學習和成長。相反,我建議學生們要勤奮學習,深入思考,並且適當地利用人工智能助手來輔助學習,提升學習效率和質量。總之,學習是一個不斷探索和成長的過程,只要保持學習的熱情和毅力,適當地利用資源,相信每個人都可以達到自己的學習目標。」

看到嗎?連Chat GPT也不鼓勵同學們「請槍、出貓」。希望在高新科技面前,我們能以正確的態度使用,將之變成為我們提升學習能力和智識層次的踏腳石,而不是使我們懶於學習,求其交貨的絆腳石就好了!


[1] 以下的 Chat GPT 對話由網上聊天室 Poe.com 中摘取。Poe.com 是一個由 Chat GPT 與 Open AI衍生出來的聊天網站,特點是在香港地區能夠應用(現時 Chat GPT 並不開放予香港和中國大陸地區使用)。網址:https://poe.com/Sage

[2] 原文網址:Chat GPT|港大禁評估、論文用AI工具 學生違規當抄襲處理 | 香港01 https://www.hk01.com/article/868390?utm_source=01articlecopy&utm_medium=referral

[3] 原文網址:科大學生可有限度使用Chat GPT教師自行決定使用方向 | 巴士的報 https://www.bastillepost.com/hongkong/article/12376238-科大:容許學生有限度使用chatgpt-由教師自行決定使用

曾經刊載於:

明報「談天說道」,11-4-2023

耶穌所飲的杯,除了「苦」,還有甚麼味道?

吳慧華 | 生命及倫理研究中心高級研究員
18/04/2023
專欄:生命倫理錦囊 (*所有文章只屬作者個人意見,不代表本社立場)
國家:

「進入耶穌十架中,我要進到更深處,同進客西馬尼園,要與仇敵相遇;飲盡憂傷的苦杯,心靈破碎流淚,求主恩助,求主恩助,因我軟弱滿身罪。」

詩歌《進到更深處》,《青年聖歌綜合本(三)》

信徒只要在教會待得夠久,便會發現在教會所唱的詩歌,特別是在復活節期間唱頌的詩歌,每當描述到耶穌受苦捨己,都離不開一杯「苦杯」。除了上述的《進到更深處》,還有出自《頌主聖歌》的詩歌《為我為我》、《生命聖詩》中的《領我到髑髏地》,近代的有《十架犧牲的愛》,以及由本地堂會所創作的《我見一人(二)》、《十架啟示》等,都是「苦杯」滿溢。

耶穌所飲的杯當然苦,祂身為神的獨生愛子,為了拯救人類而道成肉身來到世間,卻遭到被人唾棄、鞭打及羞辱,最終受盡痛苦死於十字架上,相信沒有多少人願意承受如斯痛楚,特別是經歷手腳被釘在十字架上,每一下呼吸都感受到被撕裂的痛楚。然而,耶穌明明說是祂自願捨棄自己生命的(約十18),是否當死亡臨近,愈發害怕這種不太人道兼痛苦的死法,道成肉身的耶穌也有著「人性」的一面,想要遠離十字架嗎?如果不是這樣,那麼,祂在客西馬尼園中求父神「把這杯拿走」(路二十二42《新譯本》),這杯還有甚麼其他意思呢?

死有輕於鴻毛,亦有重於泰山,人們可以為到崇高的理想而甘願捨棄自己的生命,耶穌也不例外,祂知道自己的使命,為了拯救人類而死於十字架上,祂甚至教導門徒「一粒麥子若不落在地裡死了,仍舊是一粒;如果死了,就結出許多果實來。愛惜自己生命的,就喪掉生命;在這世上恨惡自己生命的,必會保全生命到永遠。」(約十二24-25《新譯本》)。即便如此,耶穌想到死亡來臨時,仍難免「心神煩亂」(約十二27《思高》)、「內心激動」(約十二27《新漢語》),[1] 未前往客西馬尼園,內心已經開始掙扎,想要父神救祂脫離「這時候」(約十二27)。

耶穌曾想要脫離「這時候」,也求神拿開「杯」,因為「這時候」不是普通的時候,這「杯」也不是普通的杯。「杯」可以指到人接受神的任何帶領,包括走向死亡,按照這一層面的解釋,門徒也能夠仿效基督,喝上這一杯(太二十22-23)。[2] 不過,「杯」更多的是指到神因著人類罪惡滔天而無法忍受,在烈怒中施行審判:「耶路撒冷啊,醒來!醒來!站起來吧!你從耶和華的手中喝了他烈怒的,喝盡了那使人搖搖擺擺的爵。」(賽五十一17《新譯本》);「耶和華以色列的神對我這樣說:『你從我的手中拿這烈怒的酒,給列國喝,就是我差遣你去的列國。他們喝了,就會東倒西歪,瘋狂亂性,因為我打發刀劍到他們中間去。』」(耶二十五15-16《新譯本》);「你這請鄰舍喝酒,卻把毒物混入,使他醉倒,為要見他赤裸的,有禍了!你滿有羞辱,沒有尊榮,你也喝到露出下體來吧!耶和華右手的必傳回來給你,使極大的羞辱取代你的尊榮。」(哈二15-16《新譯本》);[3] 「她怎樣待人,你們也要怎樣待她;照著她所作的,加倍報應她;用她調酒的,加倍調給她。」(啟十八6《新譯本》)

盛載羞辱及苦楚的杯難喝,但載滿神烈怒的杯更難喝。耶穌要喝的杯,正正是一杯神因被世人的罪所激怒,而向世人施行審判的杯。審判的結果必然帶來刑罰,包括人要面對各式各樣不同的患難(詩十一6;耶二十五16)、以及飽受羞辱(啟十八6)等。這裡並不是說每當人經歷苦難,必然是犯罪帶來的結果(參約九1-3),只是指出當人犯罪到一個極點,惡貫滿盈又不知悔改的時候,神或感憂傷,或感憤怒之下,最後都是不得不施行審判(創六5-13;啟十四10)。耶穌不想面對神審判的時候,因為當神發出烈怒的大日子,沒有人可以站立得住(啟六17)。

耶穌是神的獨生愛子,原本是不需要經歷侮辱、唾棄、鞭打,甚至死於十字架上,然而,因為耶穌承擔了我們的罪,代替我們喝下了這杯充滿神烈怒的杯,祂不得不經歷這些:「我們眾人都如羊走迷了路,各人偏行己路;耶和華卻把我們眾人的罪孽,都歸在他身上……他把自己的性命傾倒,以致於死。他被列在罪犯之中,卻擔當了多人的罪,又為罪犯代求。」(賽五十三6、12下《新譯本》)。原本是我們該受的痛苦,耶穌替我們受了:「他被藐視,被人拒絕,是個多受痛苦,熟悉病患的人。他像個被人掩面不看的人一樣;他被藐視,我們也不重視他。原來他擔當了我們的病患,背負了我們的痛苦;我們卻以為他受責打,被神擊打和苦待了。然而他是為了我們的過犯被刺透,為了我們的罪孽被壓傷;使我們得平安的懲罰加在他身上因他受了鞭傷,我們才得醫治。我們眾人都如羊走迷了路,各人偏行己路;耶和華卻把我們眾人的罪孽,都歸在他身上。他被虐待,受痛苦的時候,他並不開口;他像羊羔被牽去屠宰,又像羊在剪羊毛的人面前寂然無聲,他也是這樣不開口。他受拘禁和審判以後被帶走;至於他那個世代的人中,有誰想到從活人之地被剪除,被擊打,是因我子民的過犯呢?」(賽五十三3-8《新譯本》)

純粹受苦死亡,估計耶穌較為容易慷慨就義,耶穌縱然有「人性」,相信祂不會比其他人,甚至比那些敬虔愛神的信徒軟弱。世上有不少人勇於堅守自己的信念,甘願拋頭顱,灑熱血。歷世歷代亦有不少神的子民,寧願接受殘酷的刑法如被鋸鋸死、[4] 被野獸撕裂而死,死於焚燒的火柱上 ,[5] 也要忠於神,跟隨基督到底。即使彼得,在耶穌被捕之時出於膽怯,三次不認主(路二十二54-62),到後來卻有勇氣為主殉道,甚至有一個說法,彼得覺得自己不配接受跟耶穌一模一樣的死刑方式,主動要求倒吊於十字架上。[6]

耶穌不想飲這一杯,不想面對「這時候」,更多的是不想面對神的憤怒及審判。[7] 毫無疑問,死亡是痛苦的,但這種痛苦遠不如面對神的憤怒及審判,更何況耶穌一直與父神親密無間。我們實在無法想像,當耶穌承擔人類過犯的時候,祂到底經歷了甚麼,祂是否只感受到父神的震怒,而不是父神的同在?[8] 耶穌在十字架上,高呼「我的神,我的神,你為甚麼離棄我?」的時候(太二十七46下),祂有可能是在引用詩篇二十二篇,訴說自己完成了詩中所命定的一切,包括詩篇二十二篇最後提到神必然拯救祂,祂的得勝及神永遠掌權等,但除此之外,也有可能耶穌因為當時正在背負人類的罪而受刑罰,祂真的經歷到被神捨棄,正如父神會掩面不看離棄神的罪人一樣(申三十一17)。[9] 無論如何,耶穌所飲的杯,遠比我們所想像的苦澀;耶穌為了人類的罪而付出的代價,遠比我們所想像的沉重。

耶穌在十字架上說完「成了」便斷了氣(約十九30)。耶穌終於完成了祂在地上的使命。[10] 耶穌死於十字架上無疑是救贖的高峰,但祂不是在十字架上才開始背負人類的罪,早在上十字架之前,祂已替人類受責打及鞭傷(賽五十三4-5),甚至祂受拘禁和審判的時候,已經在替人受罪(賽五十三8)。

每逢復活節,世界各地的教會都會舉辦不同形式的活動,務求引領信徒走入耶穌受苦、死亡及復活的場景,從而默想耶穌為到我們的罪孽所承受的痛苦。其實,我們永遠無法得知也無法經歷,當耶穌背負人類罪孽的時候,耶穌與慈愛的父神之間的關係到底出現了甚麼變化,令耶穌感受到心腸撕裂,即使人們仿效耶穌被鞭打及被釘於十字架上,[11] 他們也無法領會到耶穌所經歷的,充其量也只能領略到祂肉體上的痛苦。

人們可以為了愛神的緣故,仿效基督受苦,飲下一杯願意為神為死亡的「杯」(太二十22-23),[12] 但這一杯與耶穌所飲的絕對不同,這一杯不會盛載神的忿怒。基本上,因為耶穌為人類承受神的震怒,所有誠心誠意相信耶穌的人,都可以免受神的忿怒(羅五9;帖前一10)。

耶穌不單為我們喝下神的憤怒,祂反過來把自己的餅及杯賜給我們,與我們立約,讓我們從耶穌手上接下的,不再是憤怒之杯,而是赦罪之杯,耶穌的餅和杯是我們的恩典,也成為我們的盼望(太二十六26-28)。人當默想耶穌為我們受苦死亡,也當默想因著祂的復活,我們將來也如祂一樣得以復活。我們愛為我們捨身的基督,也要愛父神,因為耶穌為了讓我們可以與父神和好,實在付出了太多。

除此之外,耶穌的杯可被視為福杯和救恩的杯,因為神不單救贖我們的靈魂,神的拯救是全方位的。為此,人可以因為跟隨神而吃苦,卻不必為了證明自己跟隨神而自找苦吃。人縱然在罪中跌倒,需要認罪悔改,卻不必因著內疚而與自己過不去。人縱然有不堪的過去,也可以有美好的將來……因著耶穌的復活及拯救,我們可以欣然舉起救恩的杯,報答神的一切厚恩,稱謝神,傳揚神的名(詩一一六12-13)。

「在你愛的筵席上,有杯陪餅同陳列;這些表記我分享,就得飽嘗你超越。為著這杯我感謝,就是你賜的福杯,也是豐滿救恩杯,你藉你血所豫備。這是你流的寶血,使我罪惡得清洗;這是你立的新約,使我得著神福氣。你已喝了忿怒杯,為我嘗盡了死味;如此買了這福杯,永作我分,福全備。」

詩歌《在你愛的筵席上》


[1] 除此之外,原文亦有心裡極為震盪之意,見約十二27《呂振中》。

[2]EDNT, vol.3, 141–142。「杯」也有正面的意思,便是指向神對人的祝福(詩二十三5),以及神為人所命定的份(詩十六5)。

[3] 這裡,舊約經文中提到的「杯」,根據《七十士譯本》,與路二十二42中的「杯」為同一個希臘文字,另參EDNT, vol.3, 141–142; TDNT, vol. 6, 149.

[4] 見來十一37;根據猶太傳統,以賽亞是被鋸鋸死。馮蔭坤:《希伯來書(卷下)》,天道聖經註釋(香港:天道書樓,1995),頁329–330。

[5] Bryan M. Litfin, Early Christian Martyr Stories: An Evangelical Introduction with New Translations (Washington D. C.: Baker Academic, 2014).

[6] Litfin, Early Christian Martyr Stories.

[7] EDNT, vol. 3, 507.

[8] Thabiti Anyabwile, “What does it mean for the Father to forsake the Son?(Part 3),” TGC, April 4, 2012, https://www.thegospelcoalition.org/blogs/thabiti-anyabwile/what-does-it-mean-for-the-father-to-forsake-the-son-part-3/.

[9] 參Douglas R. A. Hare, Matthew, Interpretation (Louisville: John Knox Press, 2009), 322–323。有些人可能認為耶穌純粹引用詩篇二十二篇,有些人認為耶穌真實感到被神遺棄,筆者認為兩者並無衝突。

[10] George R. Beasley-Murray, John, Word, vol. 36 (Waco: Word, 1987), 352.

[12] EDNT, vol.3, 141–142.

中美高科技大戰:有沒有全勝或完敗?

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史,現在是美國阿蘇薩太平洋大學(Azusa Pacific University)應用行為科學與數據科學教授。
29/03/2023
專欄:有情無國界 (*所有文章只屬作者個人意見,不代表本社立場)
國家:美國

今年3月,澳洲戰略政策研究所(ASPI) 發表了一份名為 《追踪關鍵技術》的研究報告,該報告顯示,在未來幾十年推動創新、經濟增長、軍事實力的 44 項技術中,中國在 37 項上贏了美國,這包括了人工智能、機器人技術、生物技術、先進製造技術、量子技術,美國僅在七項技術方面處於領先和創新地位。該報告又指出:在國防、安全、太空領域的研究方面,中國尤其佔據主導地位,中國出產的高影響力(high impact)研究是美國的五倍多,例如關於先進飛機引擎和高超音速的頂級研究論文裡面,將近一半是出自中國的研究員。

筆者無意輕視中國科技的潛力,但我們應該要以實事求是的態度去衡量中美雙方的科技實力。其實,過去不同機構亦發表過類似的報告,筆者亦曾經撰文回應,在這裡我只是簡單地總結從前的分析。許多學術期刊都以「影響因子」(impact factor)來分級,甚至乎用來奠定「江湖地位」,愈多作者引用的文章便會得到愈高的影響力分數,這種評價的方法就好像是投票,然而,很多人引用是否保證那些論文一定是高質素呢?

此外,在論文中提出說起來頭頭是道的宏大理論是一回事,但能否製造出實質的科研成果又是另一回事。以論文數量和引用次數來說,中國在人工智能方面好像是「擊敗」了美國,不過,百度的文心一言卻明顯落後於ChatGPT、Stable Diffusion、Midjourney。在關於先進飛機引擎的論文中,中國處於領先地位,然而,今年2月中國自主研發的C919 商用客機卻因為引擎故障而叫停試飛計劃,3月初香港大灣區航空訂購了15架波音737-9客機,而不是C919。此外,雖然在2017年和之前幾年中國的超級電腦運算速度在世界排名中名列榜首,但之後開始被擠下來,在2002年全世界最強勁的超級電腦是美國的Frontier,第二名是日本的Fugaku,第三名是芬蘭的LUMI,第四名是意大利的Leonardo,第五名是美國的Summit,中國不入五甲。至於中國半導體仍然遠遠落後對手,便更加不在話下,現在美國及其盟友限制出口尖端晶片到中國,可以預見將來中國的超級電腦發展會更加受到限制。

在可見將來,若果中國在高科技上要彎道超車,恐怕需要格外努力,美國和其他高科技發達國家都擁有優良的創新傳統,一直以來,美國在這方面的動力完全沒有減慢的跡象。舉例說, 1984年蘋果推出麥金塔電腦的視像使用者介面,令電腦更加容易使用; 1993年全國超級電腦應用中心研發出世界上第一個網頁瀏覽器Mosaic,掀起了互聯網革命;1998年谷歌發明了嶄新的搜索引擎,此後任何資訊都是垂手可得; 1999年Nvidia 推出了第一個用於個人電腦的圖形處理器(GPU),大幅度地提升了電腦的運算能力,現在全部人工智能都倚賴這種科技; 2001年蘋果推出 iPod,完全改變了人們欣賞音樂的方式; 2004年臉書面世,之後社交媒體成為了人們日常生活不可或缺的一部份;2007年蘋果推出智慧型手機iPhone ,一夜之間傳統手機變成古董;2011年國際商業機器(IBM)的電腦華生(Watson) 在知識問答比賽Jeopardy!中打敗了人類;2016年谷歌的人工智能AlphaGo 戰勝了世界棋王,最近的ChatGPT、Stable Diffusion、Midjourney又是另一個巔峰。

人工智能專家邁克.貝克特爾 (Mike Bechtel ) 說得對:「新興技術的進步並不是隨機的,它遵循持久的軌跡。」美國和其他高科技發達國家的文化和制度已經鋪下了培養創新的土壤和軌跡,我需要強調,我並不是說在這種土壤上面所有人都擁抱創新,人性是普世性的,絕大部份人都傾向於安於現狀,當新觀念、新事物擾亂了原有的做事方法、生活方式,甚至挑戰了人們的身份認同時,人們即時的自然反應是質疑、排斥,美國人並不例外。

有創意的人是獨排眾議的異見分子,不過,在多元社會中,此處不留人,自有留人處! 舉例說,現在人工智能的神經元網絡是科技界的當紅炸子雞,但曾幾何時卻是無人問津,人工智能源於1950年代, 可惜一直進度緩慢,1970年代末期至1980年代被稱為「人工智能冬天」,意思是所有關於人工智能的研究都陷於凍結狀態, 那段期間若果研究人員在論文上提及人工智能或者神經元網絡,這篇論文多數不會通過審查。1980年代法國人工智能專家Yann LeCun 在美國AT&T貝爾實驗室發明了能夠辨別物件的人工智能軟件,在實驗中成果豐碩,可是,當他投稿予學術期刊的時候,審查人員仍然拒絕刊登他的論文。Yann LeCun 鍥而不捨,其發明逐漸受到重視, 2013年Yann LeCun加入臉書,成為了該公司的首席人工智能科學家,臉書並且採用他的技術於圖像識別和分類。

不過,美國的高科技行業有不少弱點,雖然美國長於發明、創新,但是在執行、改良、量產方面卻遜人一籌。幾十年前美國通用電氣公司傑克.韋爾奇(Jack Welch) 曾經坦白地指出:即使通用公司最高效率的工廠仍然是比不上日本的。有趣的是,幾十年後台積電創辦人張忠謀亦說出同樣的話,在最近關於《晶片戰爭》 的新書發佈會中(張忠謀並不是該書的作者),他不客氣地指出:美國生產半導體的成本比其他國家高很多,日本晶圓廠的產能比美國的高出一倍,假若美國晶圓廠的機器在半夜壞掉,美國的技工不會馬上搶修,而是會等到明天。還有,2014年中國汽車零部件公司福耀曾經在俄亥俄州一個已經關閉了的通用汽車工廠設立生產線,但中國的管理人員慨嘆:「美國工人的產能很低,但又不可以管。」

說得好聽一點,這是文化差異,說得難聽一點,這是工作倫理的問題。縱使美國在高科技上保住霸權,但中國和其他國家仍然可以國際貿易中佔一席位,例如通過倣效或者改良美國的科技、減低成本、 提高效率……等方法。從這個角度來看, 沒有人會全勝,亦沒有人會完敗。

在「沉浸式」體驗中浮沉

郭卓靈 | 明光社項目主任(傳媒及生命教育)
17/03/2023

近期,有關「沉浸式」的遊戲、活動、服務,無論是網上形式或親身體驗,都在逐漸興起。根據牛津英語網上詞典的解說,immersive(沉浸式)是一個形容詞,指「(沉浸式的遊戲、表演、藝術作品等)圍繞著玩家或觀眾,使他們感覺完全融入體驗,通常會使用三維電腦圖像」,[1] 而按Google翻譯所講,immersive就是「身臨其境」。

我們可以理解,如果是在網上經歷沉浸式體驗,使用者可以戴上3D眼罩,觀看數碼技術所製作出來的環境,有全虛擬的「虛擬實境」(Virtual Reality),亦可以是在現實的空間增加虛擬物件的「擴增實境」(Augmented Reality);或將現實與虛擬世界融合在一起,創造出一個新環境,而這兩個世界的物件是能共存並同時進行互動的「混合實境」(Mixed Reality)。不同的模式,都讓使用者完全沉浸其中,投入遊戲或故事,產生共鳴。由於減少了干擾,容易使人完全集中注意力在所看見的事物或經歷中。

而在現實中,亦可以製作沉浸式的環境,如日本東京豐洲新型態美術館teamLab Planets TOKYO,參觀者可以隨著360度的裝置和投影,使人沉浸於超現實的世界中,參觀者的身體反應,亦在同時間回應當時所見之景象,如置身花叢或河流之中。香港早前也有「尋找足印.莫內」沉浸體驗展,將印象派大師莫內(Claude Monet)的畫作投影於360度的空間,讓參觀者仿似走進了他的畫作之中。[2]

教學上的沉浸式活動

由於「沉浸式」活動可以使人們更為投入,並且體驗和理解到活動要表達的內容,吸引參與者的注意力,通過多感官的體驗來提高人們對事物的理解。為此,它可以是一種很好的教育工具。

當學生沉浸在環境當中,少了其他的干擾,他們會更集中、更有興趣和更投入地學習,而如果設計的美術效果理想,也可以增強他們的學習動機。而當他們專注地學習,就可以更容易記住所學習及所經歷過的內容,留有更深印象,加深記憶。而且使用沉浸式的學習,更可能透過科技帶領學生經歷以往的歷史,比起單憑想像,更為實在和準確。就如香港的古蹟及藝術館「大館」,就使用AR科技讓人回到過去,重看昔日監獄的內部結構和了解獄中生活。[3] 另外,在沉浸式體驗的幫助下,參與者看到一些已經立體化和實在化的處境,就更容易理解和同情他人的境況,加強參與者的同理心。[4]

然而在教學當中,沉浸式的活動亦有其缺點。除了製作的成本高和時間長以外,對於一些學生來說,他們可能需要與人交談和合作,透過溝通學習互相協調和適應多變的處境,而早已設計好的沉浸式環境,對他們來說,可能不是最佳的學習場景。另外,亦有不少的學習是需要親身去實踐,真正「落手落腳」去體驗和建立使用真實工具的經驗。在虛擬的世界中,未必能提供最好的學習環境給這類科目。

關注「沉浸式」科技的使用

既然「沉浸式」方法能讓使用者留下深刻的印象,恍如親身體驗,如果將它應用在產品營銷上,與消費者建立了個人更緊密的關係,就更能針對消費者的喜好建立更立體的品牌形象,以及作出銷售策略上的調整。[5] 此外,「沉浸式」方法如被使用在色情網絡遊戲與互動體驗當中,可以想像到其影響力著實不少,甚至可能會令用家上癮。

「水能載舟,亦能覆舟」,科技是中性的,科技發展者大多想用它來便利用家、幫助用家,但亦有機會被立心不良的人用於不當之處上。我們應當細心留意科技的發展,並小心應用。

資料庫

沉浸式體驗的潛藏風險

多年前的一套荷里活電影,講述男主角頸背的插口一旦與電腦系統接駁,便能在虛擬世界習武、學打功夫及克服對高度的恐懼,這些情節在未來似乎都有可能實現。除了電玩、教學、培訓及展覽外,沉浸式體驗還能在醫療方面提供輔助,[6] 甚至對克服恐懼帶來正面成效。[7] 科技發展迅速,但人們是否已預備好迎接虛實並存的世界?有大型數碼代理公司的前創作主管就分享到當中的潛在風險:當人們在虛擬世界分享有關自己行為方面的數據,這些數據一旦被竊取,會令他們的虛擬身份遭盜用,甚至在現實世界蒙受金錢損失。她提出當科技發展令人們的虛擬化身與現實世界的身份結連在一起時,例如容許人支付一些款項,更會令別有用心者帶來更多作惡的「機會」。如果VR和AR更多的應用在工作場所,例如僱員接受沉浸式培訓,或僱主透過有關技術監察下屬的工作表現,虛擬與現實的界線就會更模糊。她指出如長時間使用VR、AR等延伸實境技術,或會對人的精神健康帶來損害,雖然有關方面的研究不多,但眼前的網絡沉溺問題,以至社交媒體對年輕人的負面影響,都足以提醒人們有關風險的存在。[8]


[1] “Immersive,” Oxford Learner’s Dictionaries, accessed March 6, 2023,  https://www.oxfordlearnersdictionaries.com/definition/english/immersive?q=immersive.

[2] 溫藹紅:〈莫內西九文化區展覽10月登場!展出約200幅畫作 置身浪漫光影花園〉,《香港01》,2022年9月16日,網站:https://www.hk01.com/食玩買/815450/莫內西九展覽門票詳情-開放時間-360度光影設計-展出約200幅畫作?utm_source=01articlecopy&utm_medium=referral(最後參閱日期:2023年3月6日)。

3 U Magazine:〈大館「數碼熒房」穿越歷史時空 沉浸式動畫重現域多利鐵窗生涯〉,U港生活,2023年2月20日,網站:https://hk.ulifestyle.com.hk/topic/detail/20006059/(最後參閱日期:2023年3月6日)。

4 蔡卓慧:〈逾八成參加賽馬會「見.同理」計劃城大學生同理心有所提升〉,香港城市大學,2020年2月11日,網站:https://www.cityu.edu.hk/zh-hk/media/news/2020/02/11/over-80-cityu-participants-enhance-empathy-through-immersive-visualisation-youth-project(最後參閱日期:2023年3月6日)。

5 〈沉浸式體驗營銷策略:讓企業品牌形象更立體〉,Compass Offices,2021年11月18日,網站:https://www.compassoffices.com/zh-hant/about-us/blogs/immersive-brand-experience/(最後參閱日期:2023年3月6日)。

[6] 黃祖莉:〈身心「沉浸」虛擬實境 幫助兒童輕鬆就醫〉,信健康,2022年8月4日,網站:https://health.hkej.com/health/article?suid=3207714&subjectline=身心「沉浸」虛擬實境+幫助兒童輕鬆就醫(最後參閱日期:2023年3月6日)。

[7] Jessica Miley, “New VR Therapy Helps Fight Arachnophobia,” INTERESTING ENGINEERING, last modified March 4, 2019, https://interestingengineering.com/innovation/new-vr-therapy-helps-fight-arachnophobia.

[8] Bernard Marr, “The Important Risks and Dangers of Virtual and Augmented Reality,” Forbes, July 17, 2019, https://www.forbes.com/sites/bernardmarr/2019/07/17/the-important-risks-and-dangers-of-virtual-and-augmented-reality/?sh=3d1176b53d50.

行為主義心理學在人工智能中鹹魚翻生

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史,現在是美國阿蘇薩太平洋大學(Azusa Pacific University)應用行為科學與數據科學教授。
08/03/2023
專欄:有情無國界 (*所有文章只屬作者個人意見,不代表本社立場)
國家:美國

不用我多介紹,大家都知道,現在人工智能與機械學習已經影響到人們生活的每一個環節。但可能很少人知道,當今其中一種機械學習模型是基於一個所謂過時的心理學說:行為主義。

很多年前筆者修讀心理學時候,弗洛伊德的精神分析與史金納(B F. Skinner)的行為主義心理學是兩個飽受批評和嘲諷的心理學派,有些人高舉這兩個學派以外的第三勢力:馬斯洛的人文主義心理學。後來出現的認知心理學(Cognitive psychology ) 更加成為了心理學的主流,行為主義彷彿成為了心理學歷史書的一個註腳。

為甚麼曾經盛極一時的行為主義後來會成為眾矢之的呢?讓我先簡單介紹行為主義的要點,顧名思義,行為主義的重點是人類的行為,史金納認為心理學應該將注意力放在怎樣解釋和改變行為,而不需要探究思想的內部過程。人類行為是對外部刺激的反應(stimulus-response ), 通過獎賞和懲罰,你就可以改變一個人,例如強化(reinforce)他的行為。史金納曾經跨下海口:「給我一個孩子,我可以將他塑造成任何人。」史金納在其名著《超越自由與尊嚴》(Beyond Freedom and Dignity)中,批判了傳統的自由和尊嚴觀念,他認為兩者都構成了對科學和社會進步的障礙,因為自由意志和個人自主的概念是虛幻的,人類行為主要受環境偶然事件的影響。

相信即使沒有受過心理學訓練的讀者也可以指出行為主義的問題。行為主義過度簡化了心理學,將人類視為沒有個性的機器,其實,即使面對同樣的外部環境刺激,不同人會有不同的反應,行為主義完全沒有考慮個體差異。行為主義的做法還牽涉到倫理問題,按照行為主義的方法,你可以軟硬兼施地操控人。

鑒於以上的問題,很多心理學家將行為主義束之高閣,令人意外的是,在人工智能盛行的這個年代,行為主義竟然鹹魚翻生!上世紀70年代和80年代,電腦學家參考了行為主義心理學怎樣強化人類行為的模式,將「強化學習」(reinforcement learning)應用於簡單的問題,例如控制機械人和讓電腦玩簡單的遊戲。踏入90年代和兩個世紀之交替期間,「強化學習」 的電腦程式突飛猛進。強化學習與其他人工智能的學習演算法有一個很大的區別:強化學習願意承受短暫的損失,從而取得長遠的利益,以下棋為例,玩這個遊戲的最終目的是全勝,強化學習的人工智能不會貪吃眼前的兵卒, 而是推算在幾十步之後怎樣把對方將軍。換句話說,強化學習情願輸掉戰鬥,也要贏取整場戰爭(lose the battle but win the war ), 2016年谷歌的人工智能系統AlphaGo打敗了世界棋王,正是採用這種戰略。如今,強化學習已經被廣泛應用於解決各種實際問題,例如自動駕駛、推薦系統、個性化醫療……。

為甚麼行為主義在人工智能這領域中會取得如此巨大的成就呢?上面提過行為主義的缺點在電腦裡面反轉過來,變成了優點! 不錯,行為主義過度簡化了人類複雜的心理,人類不是機器,人類有個性、情緒、 偏見、自由意志。然而,電腦就是機器!電腦沒有個性,同樣的輸入會得到同樣的結果;人類並不善於學習,有時候縱使受過無數的獎賞和懲罰,人類仍然沒有因此而改變行為, 我們有許多詞語和句子來描述這種現象:「江山易改,稟性難移」、「冥頑不靈」、「花崗石腦袋」、「 屎坑石頭, 又硬又臭」、「意見接受,行動照舊」、「 歷史給予人最大的教訓,就是人類從來沒有從歷史吸取教訓」……。但機械學習卻完全是另一回事, 在大多數情況下,演算法從過去案例的錯誤中學習了教訓之後,便會不斷地完善自己,不會重複同樣的錯誤。還有,強化學習可以 高瞻遠矚,但人類往往貪圖眼前的利益,因小失大。

一位名叫基思賈爾斯(Keith Giles)的美國牧師曾經說: 「我們不應該害怕人工智能比人類更加聰明……,應該令我們恐懼的是,我們創造了知道如何克服人類弱點的機械學習。」賈爾斯在他的文章中只是討論一般的人工智能,而不是強化學習,但這真知灼見 更加適用於強化學習。

此外,行為主義的敗部復活實在令人鼓舞,誰會料到,在心理學裡面被認為是過度簡化和過時的理論,竟然幾十年後在人工智能領域中大放異彩呢?套用在人生的際遇上,也許換了環境,一個人的短處會突然之間變成了長處! 我經常用這種想法來鼓勵自己。