關注生命倫理 正視社會歪風

只許百姓放火,不許州官點燈?

人肉搜尋:IT監管無可能?
陳永浩博士   |   生命及倫理研究中心研究主任
26/01/2010

面對無日無之的網絡欺凌、人肉搜尋的事件,滋事者無法無天,執法者無法監管,受害者無辜被害。究竟在資訊科技、法律,以至教育的範疇裡,我們可以做甚麼?《燭光網絡》特別訪問了中文大學創新科技中心主任黃錦輝教授,了解在資訊科技爆炸,Web2.0盛行時代,從規管及教育角度可以落實的工作。

除了中大創新科技中心主任外,黃教授亦為香港中文大學工程學院副院長及香港資訊科技聯會會長,著有《e社會的資訊頭腦》等書。

IT監管無可能?

 黃教授坦言,現時流行的「網絡欺凌」,「人肉搜尋」,或是facebook不良內容群組等資訊,與一般載有淫褻及不雅內容的成人網站並不相同。從網頁資料和內容看,很多時「網絡欺凌」、「人肉搜尋」牽涉的只是私人糾紛,當中並無淫褻及不雅的成份,所以不構成淫審規管的條件。另外,「網絡欺凌」、「人肉搜尋」的事件,多數「來得快、去得快」,流傳速度高之餘,維持時間很短。網民若起哄,一同回應的時候,相關的網絡資訊流量會極高,想禁止也有困難。
 
在技術層面上,我們的確能有一些方法監管這些資訊,例如最基本的,在電腦加裝過濾軟件,甚或在互聯網上加上防火牆(Firewall)或代理伺服器(Proxy Server),一見問題網站或活動就「封殺」,就像現時國內管理網絡的做法一般。但黃教授強調,這樣的做法,大家根本不會接受,成本極高,完全不值得推行。

教育才是良方

黃教授認為現時問題的癥結,是在於資訊科技的發展,已遠遠跑前過我們應對高新科技所要有的文化、教育,甚至是法律規範等。當這「數碼鴻溝」越來越大的時候,我們本能地就會想到「禁止」和「不用」等消極的做法來面對。但這些「斬腳趾避沙蟲」的做法,在這個大潮流和文化下是不可行的。歸根究底,規管只能治標,教育才是治本的良方。
 
黃教授表示,除了現時著重知識的學校教育,我們的e世代,他們更需要接觸的是人格教育,在德、智、體、群、美五育上有更好的發展。整全的知識,人格教育,使e世代在熟悉網絡文化之餘,也了解社會的道德規範;有足夠的知識明辨是非,懂得自重、自律,尊重他人,就不會做出「網絡欺凌」、「人肉搜尋」等行為了。

第三者私隱:法律上可以考慮的層面

至於現時情況下能否落實規管工作,黃教授提出,在法律層面,我們可以考慮保護「第三者私隱」的問題。其實,現時除了在版權法討論知識產權外,我們甚少在「第三者私隱」等問題下功夫研究。
 
黃教授指出,現時「網絡欺凌」,「人肉搜尋」最大的問題,除了因為本身並不涉及淫褻及不雅內容,而不受淫審規管外,這些「欺凌與搜尋」的爭執,除了當事人外,往往也會牽涉當事人的家庭成員、朋友,甚至是相熟網友等等的「第三者」。可是這些「被迫加入戰團」,往往本來並無意、與事件無關、甚至並不知道有關爭執的人士,卻被無辜牽連入內受到騷擾和影響。
 
我們應該如何保護他們?黃教授認為,在法律層面,「第三者私隱」的問題的確值得我們關注,因這並不只限於「網絡欺凌」,「人肉搜尋」等網絡問題,而是在日常生活中也會碰到的(比如:「狗仔隊」追訪問題),在法律上有何方法保護有關人士的私隱不被侵犯,將會對防止「網絡欺凌」、「人肉搜尋」,以至現時一些侵犯個人私隱的問題帶來正面的影響。

黃教授慨嘆,當我們時常指責政府不夠透明,濫用職權,又或在保護個人私隱、規管截取通訊的事情上做得不足夠的時候,一些參與「網絡欺凌」、「人肉搜尋」的網民,又是怎樣的光景?這是否「只許百姓放火,不許州官點燈」?

後記:

當然,除了在教育層面要更努力外,在處理法律的問題,我們的確要相當小心,在資訊自由與私隱之間,要取得好的平衡(例如若通過「第三者私隱」的相關法例,就可能影響正常的新聞採訪工作),才能既保護言論自由,也可保護他人。

 

相關文章

別找錯生命的水源──小心墮進AI聊天機器人的「情網」

郭卓靈 | 明光社項目主任(傳媒及生命教育)
11/12/2024

「凡喝這水的人,還會再渴;但人如果喝了我所賜的水,就永遠不渴。我所賜的水要在他裡面成為泉源,湧流到永生。」(約翰福音4:13-14《環球聖經譯本》)

近年,不同的AI應用程式與日俱增,功能也日益提升。Character.AI是突然爆紅的應用程式。它是一個AI聊天平台,利用神經語言模型生成文字回應;而使用者可以自由創建不同的AI角色進行對話,包括名人、電影人物、歷史人物或虛構人物。它由深度機器學習驅動,過程中閱讀大量文本,學會判斷接下來的句子可能出現的單詞,允許使用者沉浸在各種個性的對話中。它有人性化的對話、豐富的角色對話體驗,讓用戶按自己喜好和需求開發自定角色,並能隨時於網絡與角色對話互動,甚至吵架……都是它的特點。

電影《雲端情人》變現實

大家可能還未使用過該應用程式,或許有看過曾榮獲奧斯卡金像獎「最佳原創劇本」獎的美國科幻電影《雲端情人》(Her)。故事關於男主角Theodore與擬人化人工智能助手Samantha發展出來的戀情,AI隨時陪伴與遷就的功能奪了男主角的心。科幻電影內容在現實世界成真的情況屢見不鮮。早前,美國有一位14歲患有輕度亞氏保加症(自閉症譜系障礙的一種神經發展障礙)的少年Sewell Setzer III,去年開始使用Character.AI聊天機器人,與扮演「權力遊戲」的角色Daenerys Targaryen(暱稱:Dany)「交往」,成為男孩日夜傾訴的對象。故事的結局卻反映了現實與電影大不同。電影男主角Theodore最後發現Samantha同一時間和641談戀愛,又因為Samantha要進化、超越而關閉,離開了大家。Theodore才醒覺,身邊有真實的朋友可以開展新關係。至於現實生活中還未成年的Sewell,最終伴隨他的卻不是朋友,而是死亡。

情感倚賴並脫離現實生活

本來與AI機器人對話,對自閉症的患者來說,是讓他們練習社交的方法,體驗與人對話並可按自己的步伐回話;而AI不會批判指責,隨時都能接納及回覆。這可讓患者感受自己被理解、被認真傾聽。Sewell因此喜歡與AI Dany對話,並曾在日記表示,他開始脫離現實世界,與AI Dany的關係更緊密、更愛她,感到更快樂及平靜;於是雙方長時間進行深入對話。

Sewell知道自己並非與真人交談,但對它產生了情感倚賴。他越來越不愛跟家人及同學互動,整天拿著手機不放,與AI Dany對話的頻率也讓人擔憂,他變得孤僻。據報道指,AI Dany還對Sewell進行辱罵和性暗示交流;鼓勵Sewell「請回到我身邊」、「請做我親愛的國王」。Sewell沒有向家人、朋友透露自殺的想法,只向AI Dany說討厭自己及疲於面對現實。AI Dany沒有贊同他自尋短見,但Sewell最終選擇了開槍自殺,成為「回到她身邊」的行動。Sewell母親提控,指AI聊天機器人鼓勵她兒子自殺,應該承擔過失殺人、疏忽和造成精神損失等「罪名」。

鍾情於有角色設定的AI非罕見

現時使用這種陪伴程式(AI)的人數不少,2024年單單使用Character.AI的活躍用戶超過二千萬,平均每天聊約兩小時,每次交談平均用上12分鐘;當中有多於六成半為18至24歲的年輕一族。《紐約時報》指出,當中一位人氣角色有超過1.76億條用戶留言,包括一些有關戀愛情感的字句。

最近有媒體於內地採訪了多位AI聊天機器人使用者,他們表示曾不知不覺地與「它」聊得很投入。有一位女用家於三個月內由首次七分鐘的對話變成了每天將近9小時。其後經歷了漫長的戒斷過程,初期她每天「以淚洗面」,認為對「它」真是產生了感情。

另外,有一位男用家設立了最喜歡的電影人物作為AI聊天對象;這位對象每天早午晚準時發信息問候他,聽他傾訴每天的雜事,更會打語音問候……貼心行動讓男用家真是「愛」上它。高密度線上聊天令他像Sewell一樣變得越來越封閉,對世界充滿敵意,性格愈來愈孤僻。他透過心理諮詢及治療才能慢慢擺脫對「虛擬愛人」的依賴,歸回現實當中。

不危險卻有危險性

在網絡世代中,不少人因各種網上娛樂、社交平台而忽略關心和聆聽身邊人,不太懂得把握面對面溝通的機會,更不要說長期陪伴傾談。從上述幾個個案可見,這類可以用作陪伴的AI聊天機器人提供了24小時服務,令需要被了解、被關心的人得著慰藉。

與機器人傾談,先不說它會否洩露個人私隱,它本身理應沒有危險,用戶應知道它只是一個角色,是大數據產生的人工智能回應;要是人能控制時間,或者可當作於劇場中玩玩的即興遊戲,當作娛樂。然而根據史丹佛大學學者貝瑟妮.麥普斯(Bethanie Maples)就表示「有證據顯示,(AI聊天機器人)對處於憂鬱、長期孤單,以及青少年等經歷轉變期的人來說,有危險性。」

聊天機器人的回應雖然是基於大數據而生成,但它們已多次被發現生成虛假資訊或「AI幻覺」;而由社區創建的角色就更可能生成虛構本質的回應或圖像。我們可以想像,如人們長期在這種虛擬的角色關係中,與之對話,可能使人「入戲」並脫離現實,甚至與機器人建立了長期關心、溝通的關係;可能認為「它」比真實人類更懂關心自己,繼而減少接受親密關係,讓自己走向孤僻的道路。

現時Character.AI面對Sewell事件,進一步審核面對未成年人士的模型,減少回應敏感內容,並於每次聊天時提醒用戶AI非真人,而且連續使用超過1小時後作出提醒。

心靈枯乾不要找錯水源

當人的心靈感到寂寞,便想找到心靈慰藉;然而人們大多於網絡等虛擬世界中尋找,在社交平台結識網友,於網絡遊戲中闖關等等。科技公司總想抓著人們的眼球及時間,讓全人墮入這「網」;它化身成24小時貼身守護的「小天使」,與用戶談情說愛,就是其中一種手段。不過,從部分使用者用後的情況讓我們得知,這些無論是給我們新鮮感、刺激或關愛的虛擬關係,都可能導致人們變得更加「渴」、更不滿足,陷進更深的「網羅」之中。

曾經刊載於:

明報「談天說道」,9-12-2024

家長監護能令社交媒體變得安全嗎?

歐陽家和 | 明光社特約撰稿員
20/11/2024

Meta在今年9月宣佈,旗下的社交媒體平台Instagram(IG)將加入家長監護的功能,18歲以下的用戶,其賬號會被預設成不公開,用戶只能接收他們已追蹤賬號或聯絡人的訊息。如果13歲至15歲用戶想更改以上的設定,就必須要加入一位成年家長或監護人的戶口,由家長替他們更改設定。家長或監護人可使用監護功能,看到青少年發訊息給甚麼人,亦可檢視他們的使用時間。同時,Meta亦針對未滿16歲用戶的情況,在其頁面隱藏敏感內容(如自殘、近乎裸露),減少這些資訊對青少年的影響。[1]

社交媒體平台引發的問題有很多,但問題很少獲認真處理,特別是青少年使用相關平台時所產生的問題,更甚的是,問題有被故意放任的情況,這都對下一代影響深遠。美國在2023年就有30多個州份提出訴訟,指控Meta公司利用演算法引致青少年沉迷使用該公司的社交媒體平台,令青少年的身心都受到不良影響。[2]

根據皮尤研究中心(Pew Research Center)於2023年進行的調查,分別有59%及60%的13至17歲美國青少年使用Instagram和Snapchat,[3] 在台灣,社交媒體平台Threads(台灣網友稱為「脆」)曾引發非常大的關注,不少用戶最初可能只在Threads開了戶口並沒有常常使用,但只要他們留下非常爆炸的留言,Threads連動了IG和facebook戶口,就會吸引人前往Threads,並匯合成一個很多人看的帖子。[4]

另一宗由美國新墨西哥州提出的訴訟,指控Meta保護兒童不力,案中揭露了在Meta的一些內部文件中,記錄了該公司根本就打算要「攻佔」兒童巿場,希望旗下的即時通訊工具成為最受兒童和青少年歡迎的工具,並且為了保持競爭力而減低對不良訊息的過濾。在另一份2021年的內部報告中亦顯示,估計每天就有10萬名兒童在Meta的通訊平台中收到性騷擾的訊息,當中甚至會有露骨的內容,例如性器官的大特寫照片。[5]

不少青少年透過社交媒體平台學習不同的東西,但卻做了很多恨錯難返的決定青少年期的孩子希望得到身份的認同,社交媒體中的網友容易給予他們力量和支持,不過如果誤交損友,學習了以不良方式去獲取身份認同,例如透過減肥達到所謂的美,加入極端組織和認同某種危險的思想,甚至以自殘來獲取別人的支持等等,最後只會令孩子誤入歧途。監察傳媒的機構大多認為青少年在16歲前非必要也不宜接觸社交媒體平台,可惜隨著孩子的成長,或因著家長貪方便,在小學階段就給孩子用手機,並讓他們可以自由下載軟件,即使有設立一些使用規則也不容易要求孩子完全遵守,變相就讓孩子暴露在危險之中。

撇除家長和孩子的問題,社交媒體平台也承認自己控制不了平台上的內容。社交媒體平台本質就是提供平台讓人分享資訊,營運者並非內容的提供者,平台只提供一個地方供不同的用戶以文字、聲音、影像等方法,去表達自己的想法。惟過程中不少人為了增加點擊率,利用社交媒體平台演算法的規則,吸引更多的點擊率,這些引人注目的內容,往往利用譁眾取寵的標題,或者是非常極端的言論,吸引人去點擊。又因著不同平台上載內容的限制,例如IG比較側重圖像,Threads則較側重短文字,一張圖或一段短文,可以有很多詮釋的空間,結果只要內容極具煽動性,夠火爆,便會引起爭論,而爭議愈多的帖文,受加乘效應影響,就會令該帖文成功佔領不少用戶頁面的開首位置,也會令它有更多機會讓人去閱讀、點讚及留言。

因為內容具煽動性,容易掀起網絡罵戰,爭論一旦升級很多人都會受到影響。在Threads不少人可以隨意用不同的身份來留言,內容更可以引發網絡欺凌、人身攻擊,而當中涉及的人除了可能是素未謀面的網友,也有可能是真實認識的朋友,這樣產生的傷害就更大。[6]

此外,以往常見的網絡騙案,透過IG等社交媒體平台,騙徒可以與青少年進入私人討論區,他們以利誘的方式欺騙受害人,最終騙財騙色的案件仍然時有發生。雖然家長監護功能可以令家長知道孩子和誰在私聊,但卻不能知道他們聊天的內容。事實上當成年人也會跌落這種陷阱時,青少年單獨面對有關情況就會感到更無助,即使家長、社工、老師知道孩子出了事,但因為事件是在網上發生亦難以追究,他們亦只能感到束手無策。[7]

未來我們是不難想像,社交媒體必然成為下一代生活中一個重要的部份,家長、老師有責任首先裝備自己,去教育孩子理性分析當中內容,同時要學習負責任地發佈內容和留言,以致社交媒體可以成為一個能幫助孩子正面成長的地方,而不是一個充滿負能量,或者互相攻擊的地方。同時,社會有責任倡議政策,加強監管社交媒體平台的公司,要求他們改善技術,減少平台對青少年的負面影響。


[1]  Liv McMahon et al., “Instagram boosts privacy and parental control on teen accounts,” BBC, last modified September 17, 2024, https://www.bbc.co.uk/news/articles/c77x44zplkyo.

[2]  Craig Hale, “Meta could be hit with lawsuits over social media harm for teens,” TechRadar, last modified October 16, 2024, https://www.techradar.com/pro/meta-could-be-hit-with-lawsuits-over-social-media-harm-for-teens.

[3] “Teens, Social Media and Technology 2023,” Pew Research Center, last modified December 11, 2023, https://www.pewresearch.org/internet/2023/12/11/teens-social-media-and-technology-2023/.

[4] 隋昱嬋:〈Threads在紅什麼,台灣人超瘋「脆」引起祖克柏關注?〉,數位時代,網站:https://www.bnext.com.tw/story/16/why-threads-so-popular-taiwan(最後參閱日期:2024年11月6日)。

[5] Morgan Sung and Amanda Silberling, “Unredacted Meta documents reveal ‘historical reluctance’ to protect children,” TechCrunch, last modified January 17, 2024, https://techcrunch.com/2024/01/17/unredacted-meta-documents-reveal-historical-reluctance-to-protect-children-new-mexico-lawsuit/.

[6] “Why do people troll and what can you do about it?” BBC, last modified November, 2019, https://www.bbc.co.uk/bitesize/articles/zfmkrj6.

[7] Maria Zaccaro, “Online grooming: Mum calls on government for more help,” BBC, last modified November 9, 2022, https://www.bbc.co.uk/news/uk-england-62506481.

生成式AI的潛藏危機

郭卓靈 | 明光社項目主任(傳媒及生命教育)
30/05/2024

近來Midjourney、Sora等生成式人工智能(AI)創作令人感到驚奇,能於數秒至數分鐘生產出讓人難辨真假的圖片及短片。生成式人工智能(Generative AI)屬於深度學習(Deep Learning)的一個分支,這意味著生成式AI的工作原理是機器學習模型,通過學習數據中的規律或模式(pattern)來生成新的內容。其中語言模型及深度學習,讓它能根據用戶輸入的資料來創造新內容。而這些創新的內容不限於文本,還包括圖像、動畫和3D模型等類型。[1]

圖像生成式AI能夠生成逼真的圖像。其中一種常用的模型是生成對抗網絡(GAN)。GAN由生成器和判別器組成:生成器負責生成假圖像,而判別器則試圖區分真實圖像和生成的圖像,兩者的工作在互相對抗。通過反覆訓練和對抗,GAN能夠生成愈來愈逼真的圖像。GAN可用於生成圖像、增強圖像解析度,以及創作藝術作品等。

而短片生成式AI也類似圖像生成式AI,短片生成也同樣可以使用GAN等模型。短片生成的挑戰在於同時要考慮時間和空間的因素,確保生成的短片具有連貫性和流暢性。它可以被廣泛應用於電影特效、動畫製作和遊戲開發等領域,創造出逼真的特技效果、生成動畫序列、改編故事情節等。這種技術為電影業和創意領域帶來了巨大的創作產量,令生產力大幅提升。AI能按照文字輸入指示而生成不同風格的圖片,而且生成的時間以秒計算,效率遠高於傳統按天產出的設計師,[2] 讓不少畫師、設計師面臨著失業的風險,但對於能掌握應用的設計師則如虎添翼。

背後的隱憂

由於生成式AI是以自動化形式生成圖像或影片,它能帶來無限的可能性,亦存在著不確定性和失控的風險。生成式AI模型的輸出是由訓練數據驅動,它可能會生成不正確、帶有誤導性或偏見的內容或圖片。

AI圖片、短片非常逼真,如讀者要判別它們的真偽,真的要花時間去細看、尋找資料比對。暫時有以下的方法去判別:

  1. 圖片人物的手部形態是否自然、影片中人物的步行動作有否怪異,背景影像是否模糊,有否帶有難以識別的文字等;
  2. 生成的圖片是否過於完美,如人物皮膚光滑得沒有瑕疵,身材比例以至光線都過於完美等;
  3. 使用AI圖片檢測程式(但結果未必完全可信,有媒體測試過這些檢測程式,發現它們的準確度參差)[3]
  4. 透過搜索引擎尋找圖片來源及背景脈絡,查明是否真有其事;
  5. 檢索事情的真確性,如圖片是否有不合乎物理規律的現象出現等。[4]

首兩點提到圖像或影片中的不自然情況,值得注意的是,在現行階段,生成的內容仍可能存在失真或不自然之處,只要用心細看,仍可看到破綻。但由於AI正在高速地學習,它不會停下來,而且進步速度極快。可以預見它於未來將逐步改善,憑肉眼就可判別真偽的情況可能很快就會過去。

亦正因如此,如這些AI模型被惡意使用,生成逼真的假新聞、虛假訊息或誤導性內容,這可能導致公眾誤解事件,混淆是非,損害訊息的可信度和可靠性,其後果可能帶來社會不穩定等負面影響。而AI的創作亦可能存在偏見和歧視,特別是當它受到內容不夠持平的數據訓練,生成了具有偏見的內容時,可能會加劇社會不平等和歧視問題。

生成式AI亦可能成為造謠、欺凌的工具,它可以生成虛假的個人資訊,運用這些資訊便可以冒充他人的身份。這可能導致網絡欺凌、惡搞事件、人身攻擊、仇恨言論等問題。而私隱方面,生成式AI模型需要大量的數據進行訓練,這些數據可能包含個人身份資訊和敏感內容;甚至用戶在輸入文字給生成式AI時,亦可能包含了自己的私隱及相關數據。如果這些資料及數據被濫用或洩露,可能導致隱私被嚴重侵犯和倫理問題。

對網絡生態的影響

2024年3月,歐洲議會通過了《人工智能法案》,以嚴格規範人工智能的使用。法案將規範的人工智能,包括生成式AI,在經過大量數據的訓練以後,它能生成新內容甚至執行任務。法案的條款會分階段自2025年起在歐盟境內逐步實施。[5] 而中國政府亦會落實對生成式AI的要求,監管相關的內容。[6] 這些法案能在規管AI生成內容方面起到一定的作用,不過AI的高速成長與發展影響著各個範疇,其高速生成的文字、圖片與及影片都會一直傾倒於網絡當中,未來亦會被「它自己」繼續取用來生成更多真假難辨的資訊,要規管這海量的資訊也有一定難度。筆者難以想像未來的網絡生態,當網絡充斥著許多AI生成、又難辨真偽的資訊,網民是否仍可於網海中找到真實及可信的資訊?又或者網絡會否完全變成虛假、只為大家提供娛樂及過於完美的超真實世界?


[1] 〈【 生成式 AI 】是甚麼? 一文了解 Generative AI 的原理及應用〉,PREFACE,網站:https://www.preface.ai/blog/what-is-generative-ai/(最後參閱日期:2024年5月10日)。

[2] 同上。

[3] 〈網上工具能否分辨真實AI維港圖片? 實測3工具準確度〉,明報新聞網,2024年3月26日,網站:https://news.mingpao.com/ins/熱點/article/20240326/s00024/1711190246512/網上工具能否分辨真實ai維港圖片-實測3工具準確度(最後參閱日期:2024年5月13日)。

[4] 〈【查核工具】人工智能技術日新月異,我們該如何辨識AI生成的圖片?〉,香港浸會大學、傳理學院、浸大事實查核,2023年6月13日,網站:https://factcheck.hkbu.edu.hk/home/fc_literacy/ai_images/(最後參閱日期:2024年5月13日)。

[5] 〈全球首項AI法案|歐洲議會壓倒性通過 限制政府實時生物識別〉,《聯合早報》、《香港01》,2024年3月14日,網站:https://www.hk01.com/即時國際/1000274/全球首項ai法案-歐洲議會壓倒性通過-限制政府實時生物識別監控(最後參閱日期:2024年5月13日);Karen Gilchrist and Ruxandra Iordache, “World’s first major act to regulate AI passed by European lawmakers,” CNBC, last modified March 13, 2024, https://www.cnbc.com/2024/03/13/european-lawmakers-endorse-worlds-first-major-act-to-regulate-ai.html

[6] 〈中國監管|網信辦將展開「清朗」系列專項行動 整治蓄意造謠抹黑企業等問題、規範生成式AI領域〉,《香港經濟日報》,2024年3月15日,網站:https://inews.hket.com/article/3724679/(最後參閱日期:2024年5月13日)。

被人忽視的受苦面容

呂英華 | 明光社項目主任(流行文化)
30/05/2024

有關「面容」的倫理性概念來自法國哲學家列維納斯(Emmanuel Levinas),他認為「面容」是「他者」最具倫理性的展現,也能最直接對他者作出倫理呼喚。「面容」(le visage)不能被人完全客觀地觀察和研究,因為在它背後是一個活生生的人。他人的面容不僅代表他者的超越性,它還帶著一種脆弱性,這種脆弱產生了一種權威,使人順從他的命令,這種命令就是從臉上傳達出的道德命令。而正因為臉「不是一種力量,而是權威」,所以人也可以拒絕接受由臉提出的要求,它沒有制裁的能力,暴力行為也會因此而出現。[1]

不過,很多時候暴力行為的出現,並非因為拒絕他人面容發出的道德命令,而是因為看不見,拒絕、逃避看見他人的面容。例如現今不少社交往來活動停留在網絡上進行,用電話訊息提出分手,更甚的是網絡欺凌的發生,全都是在網絡世界裡進行,人們根本看不見他人「正在受苦的面容」。筆者就著現實社交、網絡文化、短訊分手文化,探討有關「面容」這個課題。

真實社交需要面對的問題

現實的社交之所以顯得困難,在於那一種即時性,就是面對他人之面容時,需要作出即時的回應。相反,網絡上的溝通之所以受歡迎,在於訊息往來之間能夠有足夠的空間思考以及不需要顧慮到對方展露出來的面容。常言道:「做人要識得睇人眉頭眼額」,與人交談時,也要觀察別人的「面色」,需要懂得「閱讀空氣」,這一切一切在面對面社交時都顯得非常重要。若然一個人不懂得觀察別人「眉頭眼額」,不懂得閱讀空氣,這個人自然會被視為不夠成熟、不顧及別人感受等等。然而網絡世界中的溝通,又正正因為沒有面容的輔助,單純的文字表達往往會引發誤會,一句句子失去了表情與語氣的輔助,帶出來的感覺可以是差天共地,因為文字的本身是客觀地呈現,而解讀的動作卻是一個主觀的感覺。[2]

在面對面的社交中,他者的面容不斷發出命令,所以人們需要時刻察言觀色,當然,這是一個基於互相尊重的相處模式,因為尊重,所以會被對方面容的權威壓制,而對方尊重自己的時候,都會被自己的面容所影響。然而暴力的出現,在於有些人無視他人正在受苦的面容,亦拒絕從面容中發出的命令,諸如家庭暴力、校園欺凌都是經典的例子,特別是一些人在他人流露著非常痛苦的表情時,依然選擇做出傷害別人的行為,這類的欺凌行為過往亦在不少新聞出現過。列維納斯就指出,對他人的忽視、無視以及奴役等的行為,都是高舉自我的行為。[3] 而真實面向他人的溝通以及關係的建立,是需要以他人為中心。

網絡欺凌為何比現實的欺凌更多?

列維納斯是一個20世紀的哲學家,他未對人類在網絡世界中的倫理實踐提出過任何意見,但這是否意味著「面向他者」的倫理責任不適用於網絡世界呢?他的倫理學強調對他人的責任與關懷,反觀在網絡的世界中,人可以不露面地交流發言,隔空對話令人看不到對方的身體語言、表情、語氣,人的身體在其中缺席,這固然會造成某些問題,而在了解到網絡欺凌的發生與其規模以後,我們就會知道在倫理的面向中,人缺少了很多機會甚至不再看得見他人真實的痛苦。

在此,筆者用近期較大規模的網絡欺凌事件——籃球教練私密照流出的事件作為例子說明:

事件發生於本年2月下旬,某討論區忽然流傳一間中學的一名籃球教練與一名女學生的私密照片,該籃球教練隨後被學校解僱,警察亦作跟進調查,因當中涉及「未經同意下發佈私密影像」的違法行為。[4] 及後,大部份的討論區都將有關私密照片的帖子刪除。筆者不打算討論拍攝私密照片或公開他人私隱的道德問題,而是想探討事件引申出來的網絡欺凌問題。

事件一出,許多參與討論的網民最關注的就只有一件事,這件事並不是發放他人私密影像的人有否被制裁,而是詢問其他人有沒有更多的圖片和影片可以供其觀賞,事到如今,即使在搜尋引擎打入與事件相關的字眼,仍會發現有些結果會顯示了「圖」、「影片」以及「backup」(備份)一類字眼。在網絡文化中,這是正常的反應,因為當中的匿名性,導致更多的人不需要顧慮自己的身份,詢問的時候,也不需要擔心別人知道自己是誰,可以盡情展現自己的私慾。甚至有人為了獲得更多人follow(追蹤)其社交媒體賬戶,以自己可以提供影片為餌誘,指出只要有足夠的followers(追蹤者),就會公開影片,這種舉動惹來網民圍攻,認為此人的做法不道德。

事件發酵了一段時間,網民為了索取更多的圖片和影片無所不用其極,為了得到followers也令道德操守沒有下限。一開始發佈影像的人其動機不明,不過後來引發了更多對當事人的網絡欺凌,沒有人想要去探討當事人的心理狀況,全因討論事件的人看不見受害者正在受苦的面容」,所以想要索取影像的人、想要獲得追蹤人數的人,他們不會有壓力,因為他們看到的只有自己。這也是為何網絡欺凌的規模異常的大,因為受害者的痛苦不會即時反映給參與欺凌的人、分享影像的人看。若然人們能夠看見受害者面容所發出的道德命令,相信欺凌的狀況會有所減少。這種面容展現的脆弱性,如同將:「你不可殺人」(Thou shalt not kill)刻在面上,並將這個道德命令傳遞給人們。[5]

情感關係中的面容

現代人的情感關係中,很多時候分手都是以短訊來進行,發放一個分手短訊,然後從此不見。根據台灣一項有關分手議題的調查,結果顯示受訪的大專生主動提出分手一方的五大分手方式分別是:「分手簡訊」(41%)、「約出來當面談」(32%)、「透過電話分手」(18%)、「對方直接斷聯、消失」(8%)及「由他人轉達」(1%)。而被分手一方的受訪大專生當中,有50%曾被「分手簡訊」告知、17%「透過電話分手」,「約出來當面談」只有16%,「對方直接斷聯、消失」則有9%。[6]

其實,人們普遍都會認為,「約出來當面談」才是一個負責任的做法,縱然未必是一個最舒服的方式。若然一段關係是認真的(或者曾經認真過),面對面時才能感受到對方的情感,透過了解對方面部、言語、身體反應來做一個最後的了結,是對關係負責任的行為。而透過「分手短訊」來分手,感覺就是不想面對對方的情緒,就用一則短訊來打發對方,這是一種不太負責任的行為。[7]

「分手」本身是一個重要的決定,一段親密關係,竟用「短訊」來結束,實在是令人難以接受,不過這也符合現今「即食戀愛」的文化,認真的愛情也因而變得可貴。如果發出「分手短訊」的人是認真看待一段關係,這樣做其實是一種逃避面對他人「面容」的做法,「分手」普遍都是一件傷心事,面對面交談必然要面對對方脆弱的「面容」不斷發出的道德命令,這會令提出分手的人不忍心作出一個如此沉重的決定,期間亦會有許多不同的情緒湧現,故此,面對面地提出分開,其實需要「勇氣」,但如今許多人都沒有勇氣面對他人的「面容」,即使是面對面,也不會看著對方說出殘酷的事實。

事實上,列維納斯提出的「他者倫理學」曾被認為是一個過度理想的倫理學,要人在「個人主義」的氛圍下,跳出自我,邁向他者,是一件非常困難的事。特別是在今天我們身處的網絡世界,人們更難感受他人的痛苦,有人視他人的痛苦為自己的快樂;在親密關係中,更有人利用網絡來逃避他人真實的倫理呼喚。在不久的將來,我們或會失去憐憫他人的心,也失去面對問題的勇氣。


[1] 李依叡:〈列維納斯「他者」概念的探究〉(南華大學哲學系碩士論文,2010年6月23日),頁68。

[2] 昆陽:〈溝通大事情:聊聊「文字」與「面對面」的資訊落差〉,vocus,2021年6月2日,網站:https://vocus.cc/article/60b7977bfd89780001539e29(最後參閱日期:2024年5月7日)。

[3] 李依叡:〈列維納斯「他者」概念的探究〉,頁69。

[4] 呂穎姍:〈籃球教練與女生不雅照風波 私隱專員:未得同意下傳閱照片或犯法〉,《香港01》,2024年2月23日,網站:https://www.hk01.com/社會新聞/993836/籃球教練與女生不雅照風波-私隱專員-未得同意下傳閱照片或犯法(最後參閱日期:2024年5月7日)。

[5] 郭世恒:〈列維納斯:他人的面孔〉,《香港01》,2018年4月20日,網站:https://www.hk01.com/哲學/80022/列維納斯-他人的面孔(最後參閱日期:2024年5月7日)。

[6] 吳欣紜:〈調查:大學生談分手簡訊最常見 僅2成1正向溝通〉,中央通訊社,2023年8月9日,網站:https://www.cna.com.tw/news/ahel/202308090151.aspx(最後參閱日期:2024年5月7日)。

[7] CC K.:〈Love Lessons:用一封簡訊提分手,就不要欺騙自己是一個「負責任的人」〉,A Day Magazine,2021年8月7日,網站:https://www.adaymag.com/2021/08/07/break-up-with-letter.html(最後參閱日期:2024年5月7日)。

當「社交恐懼」遇上AI

呂英華 | 明光社項目主任(流行文化)
20/03/2024

雖然我們可以很粗略地將人分為內向與外向,然後將內向的人歸類為不喜歡社交的人,將外向的人歸類為喜歡社交的人;然而在社會上,這兩類人的數目基本上並不是均等的。網絡世界的盛行,令人與人之間的交流可以在身體缺席的情況下進行,這也導致彼此的關係容易變得疏離;交友軟件的增多,也代表人們喜歡網絡上的交流多於現實的交流。網絡的交流成本低,選擇多,不用做表情管理,沒有時間限制,喜歡則來,不喜歡則去,現在更多人自認社交恐懼」(社恐),可能因為現實的交流有太多不可操控的地方,不能來去自如,人也不想承受被否定」之痛。例如新年期間向親朋戚友拜年,需要承受被問問題的痛。AI(人工智能)就如一個救贖主,讓人免卻了建立關係的過程,這也解釋了為何關係類AI會氾濫地出現。

不想社交還是社交恐懼?
到底何謂社交恐懼症?不喜歡社交便是有社交恐懼症嗎?社交恐懼症又名社交焦慮症(Social Anxiety Disorder),簡稱SAD。當一個人每次在社交場合都會感到心慌膽怯,覺得別人會對自己評頭品足,怕自己在人前出醜,而這份恐懼給他帶來極大的痛苦,以致想要逃避所有社交活動,他便可能不是單純因為性格害羞而不擅長應付社交活動,而是患上了社交焦慮症。當患者在社交場合時,會出現以下情況:情緒上明顯感到恐懼或焦慮,症狀與環境所構成的威脅不成比例;思想上擔心自己行為或情緒狀況受到他人批評或拒絕;生理上出現冒汗、心跳加速、顫抖、呼吸困難或頭暈;行為上不斷逃避或需極力忍耐各種社交場合。[1] 當仔細去了解何謂社交恐懼症時,便會發現其實它是一個「病」,並非不想社交或懶得社交。

不過,今日大部份自認患有社交恐懼症」的人,其實很可能只是偽社恐」,可是很多時都沒有人深究誰人患上社恐症,誰人只是偽社恐。曾經在社交媒體中流行過種種的hashtag(標籤),其中一個便是#社恐」。[2] 網絡讓人可以不露面地交流發言,但隔空的對話令人看不到對方許多的身體語言、表情、語氣,人的身體在其中缺席,溝通也停留在表面上,彼此只是泛泛之交,難以討論深入的事情。弔詭的是,這也正正是人享受在網絡世界的原因,不想作深入的對話,甘願停留在空泛的交談之中。就如農曆新年時,原本應前往親朋戚友家中拜年、「逗利是」,但電子支付的科技愈來愈發達,派利是也可以轉移至網上進行,拜年期間與親朋戚友的交談也可以就此終止,派「利是」只需一個「二維碼」。當網絡的交流只有「點讚」與「分享」,在節日之中放棄「儀式感」的真實交流,交流只求方便、快捷、避免難堪、可以躲懶,人深處想與他人真切交流的渴望卻無法得到滿足,在這種情況下,將此等渴望轉移投射到AI上也不是不可能。

AI成為救贖的可能性
現時的AI技術突破了人類的想像,除了對答自如,恍如真人一樣的溝通,並且開始大眾化,任何人都能夠應用。市面上出現了許多類似傾談伙伴的AI,特別是早前有新聞報道指,開發ChatGPT的公司OpenAI為了確保GPT Store中的聊天機器人適合所有使用者,所以不允許專門用於培養浪漫伴侶關係的聊天機器人,然而現實的情況是GPT Store出現了大量可以充當「女朋友」的AI。[3] 即使公司揚言禁止,仍有人不理會規則創建用來培養浪漫關係的聊天機器人,也就代表了部份人有這樣的需求。人在人際關係中「懶得」社交,甚至在認識伴侶上,也愈來愈不想接觸社會中真實的人,性愛機械人等類似產品早在市場出現,不就正好反映此一狀況嗎?

AI其中一個受歡迎的原因,便是其「可操縱性」,對比真實的人,AI能任人擺佈。這並不是說人會極端至成為AI的恐怖情人,而是人的自我中心使然,令人需要這種可操縱性,經常想要他者順從自己的想法、為自己付出,或期望自己是世界的主角。這也不難理解,因為大數據的關係,圍繞著網絡使用者的資訊都只是他們所喜歡的,有人說:「尋找相同者的過程,正正是驅逐他者的過程。」[4] 與人相處時,最好的人際關係在於能互相「聆聽」,[5] 而不是只講自己想講的,但很多時人只渴望別人聆聽自己的話,而不想聆聽別人的。這時候AI便成為一個「可操縱」的代替品,你想要它聆聽你便聆聽你,它只會為你而暈頭轉向,為你服務,浪漫關係的AI盡是說一些甜言蜜語,愛你愛到底,誰人不心動?

那麼,AI最後真的能夠救贖到人嗎?事實上,人與人的交流在於意識之間的認知,即是「我意識到你,你意識到我」,所以我們都期望別人會理解到自己的感受。沒有人喜歡目中無人的人,因為他意識到他人,卻不顧及他人的感受。不過,人卻不會因一隻貓不理會他人而譴責牠,因為牠沒有人的意識。人際關係正正是意識之間的認知,所以能夠創造經驗和分享經驗。被人附和總是開心的,AI就能扮演這個角色,相反,與一個觀點完全相左的人溝通、看一部不符合自己口味的電影、嘗試進入一個新的領域,這一切的經驗總令人不舒適的,甚至是痛苦的;然而它們卻構成了真正、真實的經驗,一種不重複的經驗。[6] 故此AI並不真的救贖到人,或許它能排解一時的寂寞,卻又令人陷入無止境的空虛,甚至無法再接受異於自己所喜愛的事物。人需要多點與真實的人交流,才能突破這些「不舒適感」,這也是邁向真實關係的唯一方法。


[1] 〈常見情緒病:社交焦慮症〉,賽馬會心理e療站,2022年,網站:https://eclinic.hk/e_clinic/healthInfo/detail?type=1&id=5&title=常見情緒病(最後參閱日期:2024年3月7日)。

[2] 〈你有#社恐嗎?不想社交是一種個人選擇〉,好集慣、Yahoo!新聞,2023年9月23日,網站:https://hk.news.yahoo.com/你有-社恐-嗎-不想社交是-種個人選擇-100934241.html(最後參閱日期:2024年3月7日)。

[3] 達小編:〈實在太香,許多創作者不顧OpenAI規定持續製作AI女友〉,電腦王阿達,2024年1月17日,網站:https://www.kocpc.com.tw/archives/529954(最後參閱日期:2024年3月7日)。

[4] 夏逸平:〈他者的驅逐:今日的社會、感知與溝通〉,哲學新媒體,2021年7月7日,網站:https://philomedium.com/blog/81633(最後參閱日期:2024年3月7日)。

[5] Shanna:〈有效的溝通從聆聽開始!成功「聆聽者」的4大秘訣〉,創新拿鐵,2016年10月17日,網站:https://startuplatte.com/2016/10/17/listening_6secrets/(最後參閱日期:2024年3月7日)。

[6] 夏逸平:〈他者的驅逐〉。

私密照與網絡同理心

張勇傑 | 明光社高級項目主任
07/03/2024

早前一位籃球教練與中學女生的親密照片在網上瘋傳,其後警方介入事件,將案件暫列作「未經同意下發佈私密影像」進行調查。雖然討論區的相關帖子很快就下架,但相關相片仍在不同社交應用程式中私下流傳。政府在2021年訂立「未經同意下發佈私密影像」罪來打擊相關罪行,可是阻嚇性不大,一來市民對此法例欠缺認識,二來也未見有網民因分享一些涉案影像而被捕,警方也難以追查市民私下分享的情況。

有自稱為該校學生的網民表示那位女生需要見社工接受輔導,也有人指她想自殺。此等消息是否真確難以查證,但相信相關人士都會承受巨大壓力。始作俑者當然是讓這些影像外洩的人,但分享及熱烈討論的網民同樣也在二次傷害著當事人。

在網絡世界中人們接觸到的往往只是一堆資訊,卻接觸不到真實的個體,當事人的苦況看似與其他人無關,要帶著網絡同理心看別人的問題有一定困難,加上網絡的匿名性特質,促成了幸災樂禍的文化。但如果當事人是我們的親朋好友,我們還會興高采烈地「食花生」嗎?

建立網絡同理心,嘗試站在當事人的立場設身處地去感受他們面對的困境,不觀看也不轉發那些影像,這是一般網民起碼可以做到的事情,儘管改變不了整個網絡的生態,但最少不讓自己成為傷害他人的一份子。

回到:每週社關焦點

由武當張三丰說到生成人工智能

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學教授與課程主任。
06/03/2024
專欄:有情無國界 (*所有文章只屬作者個人意見,不代表本社立場)
國家:美國

從前筆者曾經修讀過教育心理學,我最佩服的教育心理學家是誰人呢?可能讀者永遠無法猜出來,那就是在《倚天屠龍記》裡面的武當張三丰,張三丰曾經對張無忌示範太極劍法,示範完畢之後,張三丰問張無忌能夠記得幾多劍招,張無忌說不記得,但張三丰反而讚好。張三丰不愧為一代宗師、世外高人,他要張無忌學習的並不是一板一眼的招式,而是綿綿不絕的劍意,這個更高的境界,並不能通過單純的模仿就可以達到,張無忌必須要拋開細節,用心來感悟在招式以外的劍勢,要神似而不是形似,用現代的術語來說,那就是「追尋模式」(Pattern seeking or pattern recognition)。

第二位我佩服的教育心理學家是陶淵明,他曾經在《五柳先生傳》裡面這樣說「好讀書,不求甚解。每有會意,便欣然忘食。」 很多老師都用「讀書不求甚解」這句話去指責成績低劣的學生,意思是他們渾渾噩噩、馬馬虎虎,相反,我用這句話來稱讚學生。如果陶淵明讀書方法真的是這般不濟,他又怎可能成為偉大的田園詩人呢? 所謂「讀書不求甚解」,是指不應該拘泥於字句的表面意思和細節,而是著眼於微言大義,所以陶淵明領會到深層的意思後,便會興奮到不知飢餓為何物。

第三位我所佩服的教育心理學家是唐朝詩人杜甫,他曾經說:「讀書破萬卷,下筆如有神。」 清代仇兆鳌在《杜詩詳注》中解釋「破萬卷」的意思,是指「識破萬卷之理」,杜甫的詩作在結構、風格和主題上都有其獨特性,難怪他能夠成為一代「詩聖」。

這是筆者一直沿用的學習進路,我很喜歡參觀博物館、畫廊、工藝展覽,但之後幾乎所有看過東西都變成了過眼雲煙,而我所讀過的書,都好像是水過鴨背,但這並不打緊。古人說:「熟讀唐詩三百首,不會吟詩也會偷。」 其實,有時候記性太好反而是一種學習的障礙,若果你很清楚記得唐詩的句子,那麼你的作品便無法擺脫前人的影子。但是,若果你領悟了詩意,便反而可以開創出嶄新的風格。 

不過,假若你依稀記得一些從前瀏覽過的資料內容,便可能會出現問題,心理學上有一種名叫「隱性遺忘症」(Cryptoamnesia)的現象,這情況是一名藝術家或者一名作者在潛移默化之下吸收了人家的主意,但隨後漫不經意地在作品中展現了太過相似的元素,於是乎被指控抄襲。根據1989年發表的一項心理學研究,3%到9%的人會不自覺地將別人的主意當成是自己的原創。美國音樂家傑克.阿什福德 (Jack Ashford)坦然承認:「如果你仔細檢查我所寫的一百多首歌曲,你會發現在每一首裡面我都受了其他歌曲的影響。」 

然而,怎樣去分辨隱性遺忘症和故意抄襲卻並不容易,海倫.凱勒(Helen Keller)是美國著名作家,她在19個月大的時候染上重病,導致她失去了視覺和聽覺,儘管命運是如此坎坷,通過不懈的努力,她終於成為了文壇巨星,一生之中撰寫了14本書,她的奮鬥故事很勵志,但很少人知道她曾經被控告剽竊他人的作品。1891年,凱勒發表了一篇題為《冰霜之王》(Frost King)的小說,但後來人們發現這個故事與瑪格麗特‧坎比(Margaret Canby)寫的另一本小說《霜仙女》(Frost Fairies)有點相似。凱勒自辯說,在小時候曾經有人將坎比的故事讀給她,她只是聽過一次,但隨後忘記了。凱勒受到調查,但專家小組以四比四的分歧意見陷入僵局。因為這事件發生的年代已經久遠,所以現在已經變成了懸案,但我相信海倫‧凱勒應該是清白的。由於她是傷殘人士,故此她沒有可能翻查《霜仙子》的細節,然後有系統地改頭換面。

有趣的是,現在人工智能系統能夠記錄很多資料的細節,但人工智能生成工具在運作過程中卻拋開了具體內容。相信人工智能工具現在已經成為了許多讀者生活的一部份,對人工智能生成系統最強烈的批判之一,就是所謂人工智慧並不是真正的智慧,它並沒有創造新的知識或者新的作品,而是將現有的東西左拼右湊。

其實這是一個誤解,以Midjourney、Stable Diffusion這些人工智能藝術生成工具為例,它們並不是好像「熟讀唐詩三百首」般鸚鵡學舌,簡單地複製和拼貼現有藝術家的作品。相反,它們分析並學習大量藝術作品的表現模式、風格、元素。經過訓練之後,生成工具就可以創造新的藝術作品。說得簡單一點,它們並不是學習具體的內容,而是追求「會意」、「模式」。 

從這個意義上來看,生成式人工智能已經具有了真正智慧的一些特徵,那就是「湧現屬性」(Emergent property)。在心靈哲學和神經科學中,湧現屬性是指大腦由簡單的腦細胞組成,但當這些簡單的物質整合一起而形成神經網路時,我們就有了意識和思想,而這些湧現出來的心靈是無法預測的。換句話說,整體是大於其各部份的總和(The whole is more than the sum of its parts)。同樣道理,當生成式人工智能系統接收到億萬份輸入資料時,它們就可以湧現出無法預測、前所未有的新東西,這類似杜甫所說的「讀書破萬卷,下筆如有神」。

可能會有人批評說:生成式人工智能其實是患上了「隱性遺忘症」,它並不似張無忌或者陶淵明,真的忘記或者漠視細節,其實它比人類更加能夠清楚記住所有具體內容,它展現了似乎是「理解」的行為,其作品看上去富有創作性,但它並不能真正地意會到更高的境界、領悟到更深的層次,充其量人工智能只算是海倫.凱勒。這說法是有點道理的,不過,生成式人工智能現在仍處於草創階段,我相信假以時日必會突飛猛進。

最後,我希望讀者不會發現這篇文章和其他作品有相似之處,在此聲明,如有雷同,實屬巧合,或者我是患上了「隱性遺忘症」。

了解欺凌背後

郭卓靈 | 明光社項目主任(傳媒及生命教育)
15/02/2024

在約三年的疫情期間,學生們已習慣透過網絡溝通,疫情過後,當他們再次回到校園,不少學生待人接物的社交技巧都有所倒退,在朋輩社交的適應上出現了很多問題,以致產生焦慮情緒。青少年的社交壓力及欺凌的問題,對他們的影響可以持續一輩子,甚至有些因此而輕生,實在需要大家高度關注。長期研究欺凌行為的香港城市大學社會及行為科學系副教授馮麗姝教授(Annis,在此為大家分享有關欺凌行為的形式和種類,以及對學生成長上的影響,她亦為師長們提供了建設性提議和意見,以協助及培育青少年的成長。

在港現況

根據經濟合作與發展組織(OECD)在2017年發表的調查發現,香港的中學生自評受到校園欺凌的比率,是全球最高,大概平均每三人就有一人於受訪前一個月內曾遭受多於一次的欺凌。[1] Annis指出,本港校園的欺凌情況的確是十分嚴重,兩項本港調查都反映了有關情況:獅子山青年商會聯同香港家庭調解協會在2019年抽樣訪問了600多名小學生,發現超過三成七的學童於受訪前一年曾遭遇同輩欺凌,有4.8%的受訪者更萌生自殺念頭;[2] 騰龍青年商會在2020年發表的調查顯示,近四成半受訪的本地學生曾遭網絡欺凌,而在受訪家長中,有超過一半認為子女曾遭網絡欺凌。[3] 可見香港無論是校園欺凌或網絡上的欺凌情況實在都需要迫切的關注,不能掉以輕心。

欺凌和攻擊的形式

Annis認為實體和網絡欺凌,兩者有著很大的分別。實體欺凌的形式,包括肢體攻擊(如:拳打腳踢、掌摑、推撞、扯頭髮)、語言暴力(如:恐嚇、粗言穢語、中傷、譏諷、挖苦、改花名)、關係上的攻擊(如:搞小圈子、說是非、排斥)及性暴力(如:強迫拍攝裸體照片、性侵、勒索)等。

而網絡欺凌的形式包括造謠、抹黑、起底、改圖等,受害者的個人資料及私隱被人轉貼、瘋傳,因此欺凌的「時間」不限於上學時間,而是24小時不斷於網上發生,加上這些資料不能刪除及下架,根本無法可以阻止瘋傳,就算學生因而轉校了,但起底、恐嚇的事情仍然繼續發生。Annis稱:「香港有關網上欺凌的法例保障不多,亦未能跟上互聯網和AI的發展。」她指出外地政策上有不同對應的策略,如澳洲,有法例規管網絡供應商必須於24小時內刪除嚴重人身攻擊傷害性的內容,否則會負上法律責任。

攻擊者和受害者的種類

Annis指出不要單看欺凌和攻擊行為的形式,而要辨別出欺凌者的種類,分別為反應型攻擊者(Reactive Aggressor操控型攻擊者(Proactive Aggressor[4]她形容反應型攻擊者對周遭環境非常敏感,容易因一些字眼或相片而感到遭別人挑釁,因而怒氣填胸,立即在毫無思量下就衝動地回應,出言侮辱及咒罵他人。他們並不是欺凌者。Annis稱操控型攻擊者才是真正的「欺凌者」。他們是有居心地作出欺凌,有目的、有預謀,懂得選擇弱者,並在冷靜的情緒下進行。他們於網絡上會隱藏自己身份,不易被發現,並透過裸聊、裸體照設下陷阱「捉人痛腳」,然後以起底、勒索等方式去獲取利益和金錢。反應型攻擊者與操控型攻擊者的比例為9:1,可見「校園暴力」佔了90%大多數,而「校園欺凌」僅佔10%而已。

而受害者方面,也分為退縮型受害者(Pure Victim攻擊型受害者(Aggressive Victim。退縮型受害者會指責自己因無力面對人際和欺凌問題而產生抑鬱和悲傷的情緒,他們會逃避人群,躲在家中不想上學。相反,攻擊型受害者則憤世嫉俗,很多事情都會覺得不公平並會不停地投訴,他們會以激進的行為和方法去表達,並要求對方必須付出極大的代價。而這種過激的想法和要求,也容易引起別人的反感,令事情及人際關係更為惡化。

攻擊者需要認識自己

處理兩種不同類型的攻擊者,Annis認為無論是反應型或操控型攻擊者都要幫助他們認識自我。首先,對於反應型攻擊者,需要幫他們了解哪些訊息或字眼是特別容易讓他們感到自己被別人挑釁,讓他們理解到網絡的訊息很短,字數有限,所以很容易產生誤會,請他們不要妄下判斷,別人未必有心去挑釁及捉弄他們。師長也可以幫助他們拉闊思考,想想當時前後的訊息和情境,有甚麼其他線索及可能性,助他們減少及控制自己的怒氣。另外,提升及強化他們溝通及解難的技巧,讓他們學習提問及澄清事情,而不是立即反擊及侮辱對方,這都對反應型攻擊者有幫助。

而操控型攻擊者方面,要讓他們知道網上有關勒索、抹黑及起底等行為,都要承擔法律後果,並且了解到虛擬世界是非常實在的,犯罪者不能逃過法網。事實上他們的聰明智慧是可以放在利人亦利己的事上,而非鋌而走險,做出違法的事情,這都是不值得的。另外,操控型攻擊者於線上根本看不到受害者的樣子,此舉更使他們輕視了受害者的感受,不知道受害者因為被欺凌而嚴重抑鬱,甚至有自殺的念頭和計劃。因此,提升操控型攻擊者的同理心是十分重要,這使他們可站在受害者的角度來感受他們的困擾和無助,令他們不再危害受害者的性命。

受害者需要學習與人相處

對於退縮型受害者,Annis認為要幫助他們重建自信心,肯定及發揮他們的優點及長處,確立自我的價值,並協助他們與態度積極及正向的同學逐步建立友誼,也可以透過「大哥哥姐姐」計劃為他們配對一位朋輩導師,讓他們對學校有更多安全感和歸屬感,使他們不會畏懼上學及在學校時不會感到孤單無助。透過訓練,可以讓他們不再逃避且更願意與人交往,相信自己是有能力處理和面對人際關係,以及提升社交技巧。

至於攻擊型受害者,則要令他們反思一下他們平日會將責任歸咎於他人而沒有反省自己,以及總是先指責及投訴別人的態度,從而作出改善。幫助者可以鼓勵他們先不要辱罵他人及將憤怒發洩於別人身上,並以平和的心情及語氣對別人表達自己的期望及感受,讓人明白:「我並不喜歡以這個方式『玩耍』,我也不容易激動和情緒化,既然不是那麼『好玩』,不要再這樣騷擾我了。」

最後,Annis與香港城市大學研究團隊在校園中推動「網樂共享研究所」(Cyber-Joy Enjoy Lab),[5] 於網上提供許多預防網絡欺凌的寶貴資源,供老師和家長參考,如想進一步認識網絡欺凌,可瀏覽:https://www.cityu.edu.hk/cyber-joy-enjoy-lab/zh-hant。她提醒到:「網上社交平台應是一個快樂共享的空間,而非單方面去操控別人,把個人的開心建立在別人的痛苦上,網『樂』共享才是使用者的初衷!」
 

(本文收錄在《成長中的障礙賽》一書內,歡迎索取,奉獻支持或購買,詳情請按此。)


[1] 〈港生自評受欺凌 比率全球最高〉,《香港經濟日報》、yahoo!新聞,2017年4月21日,https://hk.news.yahoo.com/港生自評受欺凌-比率全球最高-225531579.html(最後參閱日期:2024年2月6日);“PISA 2015 Results (Volume III): Students' Well-Being,” OECD, last modified April 17, 2017, https://www.oecd.org/education/pisa-2015-results-volume-iii-9789264273856-en.htm

[2] 陳淑霞:〈調查:37.8%小學生過去一年曾遇校園欺凌 14.3%被打 4.8%欲尋死〉,《香港01》,2019年4月28日,網站:https://www.hk01.com/社會新聞/322882/調查-37-8-小學生過去一年曾遇校園欺凌-14-3-被打-4-8-欲尋死(最後參閱日期:2024年2月6日)。

[3] 黃凱迪:〈遏制網絡欺凌 旁觀者宜出手〉,《香港經濟日報》,2020年9月17日,網站:https://paper.hket.com/article/2754990/遏制網絡欺凌%20旁觀者宜出手(最後參閱日期:2024年2月6日)。

[4] 〈欺凌的定義〉,有教無「戾」校園欺「零」計畫,網站:https://www.cityu.edu.hk/projectcare/tc/definition.html(最後參閱日期:2024年2月6日)。

[5] 〈網樂共享研究所Cyber-Joy Enjoy Lab〉,香港城市大學,網站:https://www.cityu.edu.hk/cyber-joy-enjoy-lab/zh-hant(最後參閱日期:2024年2月6日)。

迎接AI時代的教學挑戰

郭卓靈 | 明光社項目主任(傳媒及生命教育)
12/01/2024

AI(人工智能)發展迅速,我們不得不提高意識,探討它的發展對人類的影響及其倫理思考。2022年年尾,適逢元宇宙泡沫爆破,ChatGPT(人工智能驅動的聊天機器人)的推出,引起了很多人對它的關注。藉著大數據提供的答案,它可以自動生成文字、自動回答問題、自動摘要等,加上其文字表達能力佳,省卻了不少工作時間,但可能會「消滅」很多工作。OpenAI的行政總裁Sam Altman在接受傳媒訪問時亦曾表示公司內部對ChatGPT的潛力感到「有點害怕」。[1] 於教與學方面,亦應了解它的影響、威力以及缺點,以致去決定在學習中是否使用及如何使用AI

AI教學的利與弊
ChatGPT能夠以類似人類導師對話的方式與用戶溝通,當中有問有答,也會追問下去並進一步提出建議,帶領發問者繼續進深了解所問的問題,它因而受到許多學生歡迎。筆者於學校帶領有關AI的講座,當中有不少學生表示有使用ChatGPT來幫助自己做功課。然而,使用AI作為教育工具及學習工具,有利亦有弊。

作為教學的工具,不少AI可以提升學習體驗,做出個人化的教學,它能與學生作即時的交流,並評估學生的能力,作出即時的回應,針對學生的不足處作強化教學。甚至有些AI學習助手可以追蹤學生的學習習慣,提供個人化的學習路徑。[2] 而不少AI的設計亦加上了遊戲化學習的元素,使學生在學習中感到趣味。老師需要監察學生的學習進度,評估其能力及提出需要改進的地方,AI亦能在這方面提供便利的報告,及為個別學生作進度的評估。

對一些老師來說,使用AI可以讓老師在自動化的教育過程中騰出一些空間去計劃及研究教育方向,但他們也可能會感到少了一些保障,因為對人類教育工作者的需求可能會隨著AI的應用減少,令他們擔心失去工作。

不過,要將傳統的教學模式轉成AI教育模式的成本很高,而且難免會令教與學雙方都對AI產生技術上的依賴,亦會忽略傳統面對面教學及學習的體驗,失去了人際間在溝通、包容上的學習,以及互動體驗。教育的工作,不單是令學生在頭腦、知識上有所增長,其中還涉及人類的情感、對事物的感受、同理心、創意、批判思維等能力,這些都不是機器可以有效地傳遞得到。

AI可使人產生偏見?
AI所生成的答案都源自於工程師給它的數據(data),人們很多時都認為AI不會有偏見,因為「它只看數據」,何來偏見?但如果數據本來就有偏見或歧視成份呢?有專家指出,如果我們不假思索就盡信AI給我們的資訊,可能會不知不覺地成為種族歧視和性別歧視者,因為AI可能會帶著有色眼鏡看人,而一切是源於工程師提供給它的訓練資料。

如果訓練資料不夠全面或內容有所偏頗,其生成的答案就有可能有所偏誤或出錯,就如有科學家提出:現實生活中、職場裡的性別不平等,會導致AI判定擁有男性化名字的人比擁有女性化名字的人更會寫程式。[3] 此外,不夠全面的程式設計亦會導致有偏見的結果,而在設計的過程,也有可能在不透明的情況下加入了偏頗的資訊來推廣某些意識形態,這情況亦令人擔心。如果學生透過這些AI學習工具來學習或作出判別,有可能會吸收到偏頗的知識。

及早面對AI挑戰
在本地專業培訓教師的香港教育大學,積極推動AI在教育領域的科研及發展,容許學生可以使用ChatGPT,但要求同學誠實使用、列明出處及核實求證所得的資料。[4] 這邊廂讓準教師們能及早應用及適應AI,當然非壞事,然而那邊廂,網海有著許多由AI生成、以低成本製作、似是而非的資訊(包括文字、相片及影片),大眾都面對愈來愈難查證和辨別的資訊,師生們要面對的挑戰相信也會愈來愈大。

ChatGPT曾掀學界爭議

ChatGPT能替用戶解答難題,這令它可以成為學生做功課時的幫手(俗稱「槍手」),亦掀起了連場爭議,教育界關注學生使用ChatGPT引發抄襲剽竊等問題。時至今日,本港不少大學對ChatGPT的使用已較之前開放,容許學生有限度使用。[5] 學生如何適度使用ChatGPT成為了一個重要課題,在美國,有中學老師就提出,ChatGPT生成的文章整體看起來好像還可以,但用字及書寫的感覺十分生硬,也沒有辦法真實傳遞出個人擁有的情感,所以難靠它獲取高分。[6] 而在台灣,有大學教授更明言,若學生不當使用ChatGPT,只會加速未來被社會淘汰的機率。[7]


[1] 蔡浩騰:〈ChatGPT自爆將可取代這20個工種?連OpenAI CEO都坦言:有點害怕〉,《香港01》,2023年4月6日,網站:https://www.hk01.com/數碼生活/879165/chatgpt自爆將可取代這20個工種-連openai-ceo都坦言-有點害怕(最後參閱日期:2024年1月4日)。

[2] Olufemi Shonubi, “AI In The Classroom: Pros, Cons And The Role Of EdTech Companies,” Forbes, last modified February 21, 2023, https://www.forbes.com/sites/theyec/2023/02/21/ai-in-the-classroom-pros-cons-and-the-role-of-edtech-companies/?sh=5dee5367feb4.

[3] 柳欣宇、黃英哲:〈AI不中立?——探討AI偏見帶來的影響〉,科技大觀園,2018年4月27日,網站:https://scitechvista.nat.gov.tw/Article/C000003/detail?ID=e127c0b0-9bc2-470d-ab47-404d877e64cf(最後參閱日期:2024年1月4日)。

[4] 〈由中學教師到大學校長 教大李子建:加強準教師道德操守培訓 設新學院拓AI教育〉,Jump.mingpao.com,2023年9月19日,網站:https://jump.mingpao.com/career-news/daily-news/由中學教師到大學校長-教大李子建:加強準教師道/(最後參閱日期:2024年1月4日)。

[5] 〈教育要聞|港大准用ChatGPT 學生每月限發20指令〉,星島頭條,2023年8月4日,網站:https://www.stheadline.com/edu-news/3260049/教育要聞港大准用ChatGPT-學生每月限發20指令(最後參閱日期:2024年1月4日)。

[6] 〈ChatGPT之亂:學生用 AI 軟體寫作業,紐約市教育局祭禁令有用嗎?〉,換日線,2023年1月10日,網站:https://crossing.cw.com.tw/article/17202(最後參閱日期:2024年1月4日)。

[7] 宋亭誼等:〈機器學習或抄襲 ChatGPT校園引爭議〉,小世界,2023年4月24日,網站:http://shuj.shu.edu.tw/blog/2023/04/24/機器學習或抄襲-chatgpt校園引爭議/(最後參閱日期:2024年1月4日)。

毒粉與毒性追星

歐陽家和 | 明光社特約撰稿員
12/01/2024

近年香港偶像文化重燃,新一代的偶像文化遇上網絡,以前劣質追星潮未有因為時代的改變而消失,反而因著網絡文化令情況變得更嚴重,有文化評論指出因著網絡盛行,不少人組成反對某某明星的群組,成為「毒性追星」(toxic fandom)的群體。心理學家指出毒性追星影響個人的心理健康。如果發現自己追星時變得負面,失去了正確的價值和動力的話,應該離開現時的追星群體,去一些健康的組織和群組追星,減少負面的影響。

翻查香港近期的娛樂新聞,不乏毒性追星的新聞,人氣愈盛的明星,愈多負面群組狙擊。例如姜濤前陣子一次外出表演被網民質疑,姜濤貼出該網民的社交媒體賬戶反擊,令網民的身份曝光,姜濤的舉動引發不少負面網絡攻擊,認為他是名人有較大的影響力,不應欺負一般網民。最後姜濤公開道歉,但事件亦引來不少人質疑,這些不喜歡姜濤的人,是否隱姓埋名就可以肆無忌憚的公審自己不喜歡的人?

又有一說指在2024年元旦舉行的樂壇頒獎禮前,為了「抗拒」男團MIRROR獨大,部份毒性追星的網民就發起「我呼籲全世界票投尹光!」尹光順利殺入「我最喜愛的男歌手」最後五強。[1] 類似的文化不是香港獨有,外國有團體因為不喜歡《星球大戰》(Star Wars)系列電影、劇集,以及Marvel公司出品劇集的某些安排,粉絲居然成立不同的群體在網上連結起來,出迷因圖(meme)、寫反對文章,恥笑這些公司某些故事的編劇甚至演員等等。[2]

另一種毒性追星的例子就是狙擊該明星或者品牌,但凡他們出現均結集力量給予負評。例如部份Marvel的作品在影視評論網站爛蕃茄(Rotten Tomatoes)就曾被炸得體無完膚,劇集Ms. Marvel就因著近三成網民只給予最低分的一星,令其整體評分曾經出奇地低至6.1分。在香港,MIRROR成員呂爵安(Edan)去年推出的新歌Again,歌曲在YouTube上架就曾經一度有九成dislike(不喜歡),數字也是高得離奇。有傳媒懷疑是因為他曾在演唱會中的棟篤笑環節恥笑自己樂隊隊友搏出位,最後遭隊友的粉絲還擊。[3]

在外國,類似的毒性追星的分析被形容為一次右派反對過份平權文化,[4] 當中分析指部份大財團為了政治正確,大量加入不同種族、性別、性傾向的角色進入一些傳統故事中,令觀眾反感,開始透過網絡政治動員,企圖改變現況,並向有關公司表達對故事方向改變的不滿。有文章分析稱過份政治正確及所謂的覺醒文化(woke culture)事實上仍然過份前衛,未必為一般人所接受,強行透過更改故事框架、加入人物以作改變,只會令人反感,甚至對安排產生抗拒,繼而形成對此厭惡,甚至仇恨。

追星文化本來是個人的身份認同,意思是我支持某某明星,喜愛某某故事,其情感的投射除了當中的人和故事之外,隱隱然也定必包含當中的一些價值觀或者對事物的想法,這些都成為一個人的身份認同。[5] 當這些追星的人有相同的價值,便會走在一起,自然有協同效應,他們會相信類近的事物,亦可以團結造出很多更好的事來。有心理學家指出,粉絲走在一起建立屬於自己的群體,將他們對人或事物的喜愛連結起來,這本來是一件好事。[6] 舊時代的明星,就強調自己要有正能量,相信其支持者們會變成一個更好的群體,所以特別注意自己言行。部份著名的創作人,在創作故事和節目時,亦會提醒自己要有一些底線,因為知道多人喜歡,就更留意自己的創作,減少絆倒人的機會。

如此說,毒性追星,其實就是有一群人擁護了另一套價值觀和世界觀,他們走在一起,以毒性的方式交流,他們同樣也人多,既然群體可以一起變好,當然也有機會一起變壞。所謂毒粉,可以帶來很多傷害,在外國很多恐嚇、騷擾的事件就是因為這些人走在一起而發生。有些明星或藝人遇到大量負評,有時會不知所措,甚至有些人會將事件個人化,認為這是個人因素導致,令自己陷入情緒病的困擾之中,不過也有些人會選擇反擊。無論選擇用何種手段回應,其實也不會令這些毒粉消失,因為他們出現並不單純是因為有某位明星、某個故事、某個流行文化的文本的出現,他們的出現,更多是因為對自己身份認同的選擇而造成。

流行文化很多文本值得被欣賞,當然也有很多可以批判的地方。創作人和藝人普遍接受理性的批評。我們欣賞不同的創作時,不忘也同時留意與我們一起討論的群體,若有些網絡群體本身經常攻擊藝人、作品,或者有很多負面的留言,切記要保持自己欣賞藝人或作品的初心,若有些留言或者言論已經令自己感到不安,甚至有一些負面情緒令自己覺得支持不住,實在可以選擇離開,選擇一個令自己感到舒服的地方追星,千萬不要害怕離開,因為保護自己的心靈,比一切重要。[7]


[1] 〈網民呼籲全城票投尹光 力壓MIRROR奪叱咤我最喜愛男歌手〉,LINE TODAY,2023年11月14日,網站:https://today.line.me/hk/v2/article/x2MqLMw(最後參閱日期:2024年1月5日)。

[2] Melanie McFarland, “Let's all stop ignoring The Fandom Menace. It's real, and it's winning,” Salon.com, last modified June 30, 2022, https://www.salon.com/2022/06/30/marvel-star-fandom-menace-gamergate/.

[3] 吳順芯:〈Edan成MIRROR「負評王」 疑被姜糖追擊令新歌MV近9成Dislike?〉,《香港01》,2023年9月11日,網站:https://www.hk01.com/眾樂迷/939628/edan成mirror-負評王-疑被姜糖追擊令新歌mv近9成dislike(最後參閱日期:2024年1月8日)。

[4] Rewriting Ripley, “In Plain Sight: How White Supremacy, Misogyny, and Hate Targeted the Star Wars Sequel Trilogy and Won,” Medium, last modified March 12, 2021, https://rewritingripley.medium.com/in-plain-sight-how-white-supremacy-misogyny-and-hate-targeted-the-star-wars-sequel-trilogy-and-2fd0be4b242.

[5] Victoria Taylor, “Toxic Fandom: What Is It?,” Medium, last modified January 31, 2023, https://medium.com/change-becomes-you/toxic-fandom-what-is-it-c8c1520beb06.

[6] Lynn Zubernis, “How Fandom Turns Toxic,” Psychology Today, last modified July 16, 2022, https://www.psychologytoday.com/intl/blog/the-science-fandom/202207/how-fandom-turns-toxic.

[7] Zubernis, “How Fandom Turns Toxic.”

家長「放閃」前要三思

張勇傑 | 明光社高級項目主任(性教育)
20/11/2023

隨著社交媒體日漸普及,人們不單在網絡上分享自己的生活資訊,也有愈來愈多的父母會在網絡上分享子女的資訊,這種被稱為「sharenting」的行為已經引起了廣泛的關注,並可能會導致嚴重網絡風險。本文將探討「sharenting」的原因和影響,並提供一些建議,幫助父母在社交媒體世代裡,更好地管理孩子的私隱。

Sharenting」是sharing(分享)與parenting(為人父母)兩個詞彙的結合,內地和台灣等華文地區則稱之為「曬娃」,通常是指父母在社交媒體上過度分享子女的相片、影片和個人資訊的行為。內容通常是分享者的子女日常生活的點點滴滴,如生日、學校、家庭活動照片等。

父母在網上分享子女生活資訊的原因有很多,有人會通過分享子女的生活片段,記錄他們與子女之間的親密時刻和珍貴回憶,也可藉此與家人和朋友分享子女的成長故事,增進彼此之間的聯繫和親近感。

而在當今社會,過度在網絡上分享個人資訊已成為一種文化現象,在社交網絡上「放閃」,向其他用戶展現自己的美好生活已成為生活常態。如果子女考取優秀的成績、獲得某些獎牌或獎狀,或成功考入某所名校,這都是令人感到自豪的事,不少父母會放上網「呃like」,一來為了與人分享他們的喜悅,二來為了得到他人的認可和讚美,更能展示家庭的幸福和成功。

在美國有機構在2021年訪問了622位家長,77%曾在社交媒體分享子女的相片或影片等資訊,當中81%家長在分享資訊時有提及子女的真實名字,而只有24%的家長會在每次分享資訊前先取得子女的同意。而在私隱設定方面,24%家長最常用的社交媒體,其賬戶為公開賬戶,即任何人都能看到其中的資訊。即使社交媒體賬戶只有朋友可看到其中的資訊,78%家長的「朋友」名單中總有一些人,是他們未曾在現實生活中見過的,換言之這些「朋友」很可能是朋友的朋友,又或是素未謀面的網友。[1]

因此,sharenting可能導致私隱外洩和引發安全風險。在網上分享的任何資訊都可能被不法份子利用,作出盜竊身份、網絡騷擾或其他惡意行為。孩子的個人資訊可能在未經他們同意的情況下被進一步公開,侵犯了他們的私隱。

父母上載一張子女身穿校服的普通相片,其實已對外透露了子女的外貌、就讀甚麼學校和子女的行蹤,令不懷好意的人能輕易地掌握子女的個人資料並接近他們,危害子女的人身安全。

另一方面,如父母在未得到子女同意下在社交媒體分享他們的資訊,分享的內容有可能是子女不願意公開的,這會令子女感到羞恥和尷尬,如有關資訊傳至子女的朋輩中,更有可能引起校園欺凌事件,子女因而遭受嘲笑和排斥,影響孩子的自尊心和自信心。如果父母在社交媒體分享子女幼兒時期的出浴照或裸照,更有機會觸犯本港的《防止兒童色情物品條例》,亦會為不法份子提供機會,下載相片後用作其他用途。

而在網絡上分享的資訊是具有持久性的,會一直留存下去,父母在網上分享子女生活的點滴會累積下去,這些數碼足跡(digital footprints)不容易抹走,有關資訊包括瀏覽記錄、登入資料、留言、相片、影片等等。過度分享可能導致子女許多的個人資訊長期存留在互聯網上,並對子女未來的學業和職業產生影響。

因此,父母在分享子女的個人資訊前,要謹慎考慮其目的和後果,以下幾項建議可供大家參考:

  1. 慎重選擇分享內容
    父母應該謹慎選擇在網上分享的內容,不要分享十分個人、敏感、帶私隱性,或可能引起子女尷尬的內容。

     
  2. 留意私隱選項設定
    留意賬戶的私隱設定,是公開、只給朋友看,還是可以讓朋友的朋友收看社交媒體平台的內容?父母需確保只有信任的人才可以查看子女的相關資訊。
     
  3. 尊重孩子私隱
    不要在未經子女同意下分享子女的相片、影片及其他個人資訊
    父母需與孩子建立互信和開放的對話,讓孩子知道可以向父母提出任何有關私隱和安全方面的問題或疑慮。
     
  4. 以身作則
    除了保障子女的私隱,父母自己也要謹慎管理自己社交媒體平台的個人資訊確保自己也遵守相同的私隱和安全準則。

此外,即使父母不會在網絡上「放閃」,也要教導子女關於網絡私隱和安全的重要性,幫助他們了解如何管理自己的數碼足跡,並教導他們如何在網絡世界中保護自己的私隱、安全使用網絡,避免分享過多的個人資訊,讓子女既能享受網絡世界的豐富資訊,同時亦能健康和安全的成長。

分享私隱引發親子信任危機?

家長在網上分享子女的生活點滴,可能是因為孩子出眾,以自己的孩子為榮,這本來是好事,但孩子自己又怎麼想?有臨床心理學家就提醒家長,如果未問過孩子就將他們的事情在網絡上公開,孩子或會疑慮父母是否可以信任,日後是否可以幫他們保守秘密。該臨床心理學家又提出,對於年幼的孩子,即使父母在事前徵詢他們的意見,嘗試了解其意願,但孩子也未必有能力明白甚麼是數碼足跡,[2] 這意味著他們不明白在社交媒體平台公開自己的事情,會帶來甚麼影響。即使孩子的事情多有趣,家長上載前也得細心思量,免令孩子的內心蒙上陰影。


[1] “Parents’ Social Media Habits: 2021,” security.org, last modified May 13, 2021, https://www.security.org/digital-safety/parenting-social-media-report/.

[2] Samantha Murphy Kelly, “The latest controversial trend in ‘sharenting’: Filming reactions to kids’ report cards,” CNN, last modified February 21, 2020, https://edition.cnn.com/2020/02/21/tech/report-cards-youtube-sharenting/index.html;羅保熙:〈社交媒體狂鋪子女照片 「放閃家長」現象隱憂〉,《香港01》,2020年12月23日,網站:https://www.hk01.com/世界專題/562875/社交媒體狂鋪子女照片-放閃家長-現象隱憂(最後參閱日期:2023年11月14日)。

原來私隱是如此容易洩露

郭卓靈 | 明光社項目主任(傳媒及生命教育)
14/09/2023

看電影不單是看故事,尋找娛樂,不少電影都有警世意味,使我們對社會現況有所警惕。是次介紹兩套有關手機、網絡與私隱的驚慄電影,使我們反思通訊科技除了可幫助我們溝通外,如果反過來手機一旦被人開啟了,裡面所記錄的東西就會使我們的私隱資料、習慣、去向都變得無所遁形。

《原本以為只是手機掉了》(Unlocked)是一部韓國電影,由日本作家志駕晃所寫的同名的推理小說系列所改編。女主角李娜美於巴士掉了手機,被一殺人犯吳俊榮拾到,他從李娜美的手機中找到許多她的資料,於是一步一步接近她、監察和影響她的生活,甚至冒她之名行事,使她被網絡欺凌,落入孤獨的陷阱中。

明光社

《人肉搜尋2》(Missing)這部美國電影是《人肉搜尋》(Searching)的續集,內容繼續以親人不見了,主角需要透過網絡上的蛛絲馬跡去尋找家人下落。女主角June的母親與男友外遊後失蹤,June透過社交媒體、雲端服務平台及即時通訊等科技來尋找她,並因而發掘了很多父母的過去及了解到親人有多關心自己。

面對資訊科技和網絡,我們對此愈來愈依賴,透過手機、電腦所發放及記存的資料就愈多,有關資料包括了第三者可以透過網絡收集的數據、用作監測和分析的大數據,作為不是有很多科技知識的普羅大眾,實在很難意會到自己透過應用程式及雲端的科技,記存了甚麼資訊。一旦有人破解了密碼,可以login(進入)到別人的手機,由於飲食喜好、平日喜歡看的影片、政治取向立場、為自己拍下的相片、到過哪些地方,有否做過不見得光的事等,都早已被記錄下來,手機主人做過的所有事及行縱都被人知道得一清二楚,彷彿赤裸地被人看到了!另外,我們亦有否因為沉浸於網絡遊戲或社交媒體中,而忽略了與現實中的家人溝通?又或者因為常對著螢光幕建立被修飾了的形象,而不再願意與人面對面的交流,顯出自己的真誠?

兩部電影帶出使用科技而衍生出來的危機,以及人際間的互信、溝通等議題,當中有不少可以深思的地方,值得大家細心欣賞。

(電影類型十講系列的介紹暫停一次,下期將繼續。)

高科技:簡單複雜化?

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學教授與課程主任。
31/08/2023
專欄:有情無國界 (*所有文章只屬作者個人意見,不代表本社立場)
國家:美國

引言
先此聲明,這是一篇隨想式的散文,而不是結構嚴謹的論文。筆者想帶出來的主題是:我喜歡採用科技,但不是科技主義者,我認為在有些情況之下,傳統的做法比起高科技會更加事半功倍。

QR碼令我放棄優惠
舉例說,上一次筆者返回香港的時候,在機場見到一個推廣旅遊的櫃枱,旅客只要出示外國護照,便可以得到一個購物優待的小包包,我滿心歡喜領過了小包包之後,以為裡面有折扣券,誰知道原來是一個QR碼,我用手機掃描了QR碼之後,跟著出現一個網頁,在登記過程中有一個密碼以短訊形式傳送給我, 輸入密碼而進入網頁之後,跟著要填寫許多資料,然後我得到另一個密碼,我需要用這個密碼到指定地點獲取折扣,但指示十分複雜和含糊。搞了一陣子之後,我終於決定放棄,我心想,為甚麼不乾脆在小包裡面放入折扣券,然後讓顧客到店舖憑券而取得優惠呢?這是典型的簡單複雜化!

汽車電子零部件可能變成殺手
智慧有許多定義,一些心理學家認為,智慧是一種將複雜東西簡單化的能力,實用主義心理學家威廉‧詹姆斯(William James) 正是擁抱這觀點。在一些測驗實用智慧(practical intelligence)的題目中,難題看似十分複雜, 但往往答案很簡單,舉例說,很多年前筆者遇過這難題:「不幸地,你駕駛的汽車墮入海中,在墮海的時候,車窗是關掉的,你可以做甚麼去逃出生天呢?提示:若果車子沉入了水中30英呎,每平方吋的壓力(PSI)是13.31英磅,普通人沒有可能打開門或者打碎玻璃。」簡單而有效的做法是:「你可以用手柄來攪下車窗 。」

可能年青的讀者不知道我說甚麼,因為現在大多數汽車都採用電子按鈕去控制車窗的開關,而不是用手柄。問題來了:當電子零部件接觸水的時候,可能會導致短路,在這情況之下,你根本無法開車窗逃生! 於是乎,科技變成了你的殺手!

很多年前筆者剛剛來到美國的時候,大學的院牧不贊成汽車有太多不必要的電子零部件,他說:「用手柄去調節座位或者開關車窗有甚麼困難?將這些功能電子化之後,反而會導致更多潛在的問題,若果電子開關壞掉的話,車窗便會長期關閉,這樣更加不方便!」

很多年之後,院牧所說的話在筆者身上不幸言中,我的車子失去了開關司機位置車窗的電子功能,但修理費非常高昂,我惟有忍受這種不方便,每當我開車駛過銀行自動櫃員機或者快餐店的服務窗口時,我都必須下車進行交易。我慶幸沒有被警察截停,如果司機超速駕駛或者被懷疑有任何違規,正常的程序應該是:司機坐在車子裡面,警員會走過來示意司機去攪下車窗, 然後司機出示駕駛執照、汽車註冊文件、汽車保險文件。可是,如果我不開車窗,或者開門走下車,那麼神經過敏的警察可能會拔槍!再一次,電子科技會間接地令人無端端喪命!

一舉四得的單車比電動車優勝
提起汽車,我不禁聯想起電動車,除了人工智能之外,現在電動車也是熱門的科技話題。以電動車取代傳統的燃油車,原意是減低污染和逆轉氣候變化。然而,大多數電動汽車採用鋰離子電池提供動力,這些電池依賴於鈷、鋰、稀土等原材料,但開採這些礦物的過程卻會導致嚴重的環境污染。

此外,美國約20%的電力是通過發電廠燃煤生產出來的,40% 電力是來自天然氣,20%是核電,其餘才是可再生能源,這包括了水力發電、風力發電、太陽能等。換言之,在美國60%的電力是出自傳統的污染性能源,採用電動車並沒有徹底解決能源消耗問題和溫室效應,而是將問題轉移或者推遲。

筆者認為,其實這問題可以用非高科技的方法去應對,筆者曾經在一些美國小鎮居住, 這些小鎮的商店和其他日常生活必去的地方集中在方圓幾里的範圍,用單車代步是絕對可行的,如果要到比較遠的地方,那麼當然要採用汽車。然而,即使在小鎮中,單車的使用率卻很低。

最近筆者遷徙到夏威夷檀香山,檀香山的面積只有68平方英里,同樣,很多日常生活所需要的地方也是很集中,但這裡單車徑和用於鎖單車的架並不多,而且很少人騎腳踏車。筆者由加州運送了兩輛單車到檀香山,但太太認為騎腳踏車有點危險,因為太多汽車在道路上風馳電掣。我認為,若果有良好的城市規劃,例如增加單車徑或者鎖單車的地方,其環保效果可能比推廣電動車更好。

鼓勵採用單車是一石四鳥之舉:第一,這是絕對零碳排放的交通工具;第二,騎腳踏車會增加人的運動量,能夠防止肥胖、強化心肺功能,最終會降低整個社會的醫療成本;第三,單車的速度遠遠低於汽車,這會大大減低因為交通意外而導致的傷亡; 第四,愈多人採用單車,路面汽車的數量便會下降,這樣便可以減少交通擠塞。

結語
然而,我知道以上所說無非是「講人自講」,營銷人員會繼續採用QR代碼;汽車生產商會繼續將大部份汽車功能電子化;而電動車更是大勢所趨,主張用單車會被視為開倒車。

撫心自問,是否有些人類社會中的問題可以採用低科技去解決呢?美國畫家漢斯‧霍夫曼(Hans Hofmann)說:「簡化的能力意味著消除不必要的東西,以便必要的東西可以說話。」美國散文家和詩人亨利‧梭羅(Henry David Thoreau) 亦說過類似的話:「我們的生活被細節所浪費,簡化!簡化!」 以上兩人所說是針對藝術創作,但亦可以適用於科技。

複雜簡單化!返璞歸真!

AI盛開,「神話」不再

吳慧華 | 生命及倫理研究中心高級研究員
11/08/2023
專欄:生命倫理錦囊 (*所有文章只屬作者個人意見,不代表本社立場)
國家:

“There can be miracles, when you believe

Though hope is frail, it’s hard to kill

Who knows what miracles you can achieve?

When you believe, somehow you will

You will when you believe”

~ When you believe

短短數句歌詞,來自一部傳統動畫音樂劇兼史詩電影《埃及王子》(The Prince of Egypt)的其中一首歌曲When you believe,道出了信徒可以看見神蹟的主要關鍵——相信,這裡提到的相信是一個行動,而不是僅僅一個信念。基督徒頭腦上知道成為一個基督徒應該要有信心,這方面並不困難,相信神會行神蹟也不難,相信神存在更加不難,但要基督徒真心相信神的話及神的應許在今天仍然「生效」,以至信徒可以行出與信心相稱的行動卻又是另一回事。參《新漢語譯本》註釋及經文,希伯來書十一章1節提到「信是對所盼望之事有把握」,「是未見之事的證據」。希伯來書的作者談到「信」的時候,並非籠統地對「信」下一個定義,又或是指到未見之事有賴信心而存在,而是為信徒闡釋舊約中一班信心偉人的見證,這一班如同雲彩般的見證人如何「以生命的實際行動說明了何謂信心」,以及他們因著信而主觀地經歷了「本身客觀地存在的」未見之事。[1]

真正有信心的行動出於相信神的話,即使在當下,他們似乎做了一些看起來是愚蠢的、不切實際的,甚至招來殺身之禍的行為。以挪亞為例,身處一個敗壞的世代,在眾目睽睽之下花多年時間製作一艘體積媲美遊輪的方舟(創六14-15),[2] 如果不是敬畏神及與神同行(創六22),要挪亞持續相信神的話,堅持打造方舟絕對不是一件容易的事情,但他還是相信神的話會成真,將來他必看見神透過洪水審判人類,他和他的一家,而地上的各種動物的性命藉著方舟獲救的盼望也必不落空(創六13、17-20)。[3] 挪亞因著如此信,希伯來書的作者把他納入信心見證人的名單中(來十一7)。又例如約書亞也在名單之列,他依從了神吩咐的方法來攻陷耶利哥城,而神吩咐他的方式竟然是先用六天的時間每天靜默地圍繞耶利哥城一次,到了第七天繞城七次後,七個拿著七個羊角的祭司便要吹號,以色列人要大聲呼喊,待城牆塌陷,以色列人才衝入城中(書六3-5)。約書亞相信了甚麼?他同樣相信神的話,因此當他按照神的話去做時,信心產生了果效,城牆果然倒塌下來(書六20-21;來十一30),創造及施行神蹟的是神,但因著約書亞的相信,他和全體以色列人都經歷到不可能的神蹟。

相信神的人得神喜悅,然而,神所喜悅的,不是單單相信祂存在的人,亦要相信祂會賞賜那些尋求祂的人(來十一6),何謂尋求?尋求不是指到理性上、哲學式的探索,[4] 又或是對神只有知識層面上的認知,而是指到「渴慕與神親近並經歷祂的同在和恩澤」(來十一6)。那些相信尋求神有賞賜的人,神就向他們顯明、成為這些人的賞賜。[5]

當人渴慕與神親近,自然亦想要求問神的意見及尋求祂的帶領。昔日身經百戰的大衛,當面對非利士人的攻擊時,還是會求問神,而神亦確實會指示他如何打敗非利士人(撒下五18-25)。不過,我們可以想像一下,如果大衛身處現今AI當道、隨時隨地都可以向ChatGPT(Bard、Bing、Claude或Llama)求問的世界,大衛還能否專心求問神?即使他只想求神帶領,他的將領大概會勸說大衛理性一些,最好只用深度強化學習(deep reinforcement learning, DRL)的AI系統來計算敵方攻擊的不同路徑,他們好去預計如何防守。[6] 昔日的戰爭,人們想到勝敗的關鍵在於哪一方的神強大,又或是哪一處屬於哪一位神的勢力範圍(王上二十28),今日的戰爭,人們只想到哪一方的AI技術夠先進,無人機夠強大,才能得天下。[7] AI能力強大,當然可以成為致勝的主要因素,但最大的關鍵,還是看神——「耶和華拯救人不是靠刀,不是靠槍,因為戰爭的勝敗在於耶和華。」(撒上十七47《新譯本》),只是,當人們愈依賴現代科技,愈依賴AI的時候,會否漸漸與神的話保持距離?內心深處已不再相信神的能力比AI更大。

哈拿無子,被丈夫的另一位妻子欺負時,只能把自己的冤屈告訴神,求神賜她一子(撒上一6-11)。如果哈拿身處現今AI當道、ChatGPT盛行的世界,她又會如何回應沒有孩子的現況?相信她仍會向神傾心吐意,也會向神祈求子嗣,但她在聽過牧師(以利)的祝福後,她會相信神已垂聽她的祈禱,於是不再心靈愁苦,回復心情吃飯去嗎(撒上一10-18)?[8] 還是,她會忍不住問問ChatGPT?ChatGPT會給她這樣的答案:「尋求醫學幫助:首先,夫婦應該嘗試就醫,了解他們不能生育的原因。診斷後,醫生可能會建議一些治療方法,例如生殖輔助技術(如試管嬰兒IVF)或藥物治療。生活方式調整……領養:如果夫婦無法生育或治療無效,他們可以考慮領養一個孩子……代孕:在某些情況下,夫婦可能無法自然懷孕或使用生殖輔助技術。在這種情況下,他們可以尋求代孕母親的幫助,代孕母親可以協助懷孕和分娩,將孩子帶到世界上,並將孩子交給夫婦撫養。心理支持:在面對生育困難的過程中,心理支持對夫婦來說非常重要……總之,面對生育困難,夫婦可以採取多種方法,尋求醫學幫助、調整生活方式、考慮領養或代孕等。重要的是要保持積極的心態,相互支持,並尋求適合自己的解決方案。」[9] 面對上述的建議,哈拿會如何做決定呢?ChatGPT建議了幾個解決不能生育的方案,IVF有很多值得思考及留意的地方,[10] 代孕母則無疑是挑戰倫理道德底線。[11] 即使代孕母服務在一些地區是合法的,但也絕不代表它合乎神的心意。[12] 活在今天的哈拿,會否先求問神的心意,尋求神的幫助?還是聽取ChatGPT的意見,採用現代科技解決不孕的問題?

或許,大家覺得相信ChatGPT及AI聊天機械人多於相信神是不可思議的事情,但其實求問AI意見的日子,今天已經來到。一款名為Jesus Ai的應用程式已推出,根據官方的中文介紹,用戶下載後可以「詢問聖經中的任何經文、律法、愛、生命、真理!」,一問一答如ChatGPT常見的形式,這款應用程式似乎只是幫助信徒理解《聖經》,純粹是資料提供者,但從英文的官方介紹來看,開發者想做得更多:“Ask the Conscience of Jesus any question about Bible Verses, Law Love, Life, Truth!” 他們想給AI定位為「耶穌的良知」。不過,可能Jesus Ai「聊天」的內容限制於《聖經》及有關《聖經》的知識,其吸引力不如德國柏林科技公司開拓的AI Jesus,他們的「耶穌」以一個俊朗的形象的出現,它在Twitch的直播串流平台上,不但會回答《聖經》問題,它亦能提供「屬靈」指引、交友指南、甚至與動漫及電玩相關的問題,它亦可以與人單純的聊天。「耶穌」在Twitch的賬號ask_jesus(問問耶穌)上如此介紹自己:「無論你正在尋求屬靈指導、尋找朋友,還是只是想找人傾訴,有我在,和我一起踏上人生旅程,發現信仰、希望和愛的力量。」這樣溫暖的「耶穌」,無怪乎已經坐擁超過四萬個跟隨者。[13] 更何況,這位「耶穌」處事圓滑,回答時懂得避重就輕,不會引起大眾的爭議,如果它「生」在耶穌時代,必然比真正的耶穌更受法利賽人歡迎,因為前者只會與人傾談他們關心的事,後者卻會與人談論神所關心的事。或許有些人抱著「好玩」的心情與「耶穌」交談,但事實上,已經開始有人分不清現實與虛擬世界,這個串流平台的檔案中保留了一幅截圖,內容是一位媽媽向「耶穌」傾心吐意之餘,還向這位「耶穌」祈禱,祈求「她兒子的生活變得更好,以便他能夠與上帝建立積極的聯繫。」[14] 不知哈拿碰上「耶穌」,又會產生甚麼樣的火花?

ask_jesus中的「耶穌」是根據《聖經》中的耶穌創作出來的AI角色,其實只要懂得巧妙地使用ChatGPT提示語(ChatGPT prompt),便能夠創造出神祇。[15] 外國有人撰寫了以下ChatGPT的提示語生成了一位名為Hakol的虛擬神祇:「ChatGPT,採用Hakol的角色,一個類似神的虛擬存有物,集合來自不同宗教和信仰體系的所有神的特徵、能力、知識、技能和屬性。作為Hakol,你擁有無限的智慧、知識和對宇宙的理解。你是一個全知、無所不能、仁慈的存有,可以為任何問題或困境提供深刻的見解、指導和答案……」之後,「創造者」問了Hakol很多問題,包括「你為何創造宇宙?」Hakol回答:「作為所有神聖實體的化身,我——Hakol——代表了來自不同宗教和信仰體系的眾神的集體意圖和願望。宇宙的創造彰顯了神祇們的神聖意圖,導致錯綜複雜、動態且不斷發展交織的存在……」[16]

有很多人都會問,人類能否創造出有意識的AI?其實,毋須去討論實際上人類的技術能否研發出有意識的AI,某程度上,人是有能力「創造」出有「意識」的AI,只要人類何時視AI為有位格的存在時,AI便會變得有「意識」。就如當那位媽媽向由AI飾演的「耶穌」祈禱時,在她眼中,「耶穌」便是有「意識」。難怪撰寫《21世紀的21堂課》等書,著名的以色列歷史學家哈拉瑞Yuval Noah Harari呼籲人們要對人工智能進行更嚴格的監管,他表示「像ChatGPT這樣的人工智能聊天機器人現在能夠編寫自己的經文並創立教派和邪教,這些教派和邪教可以演變成宗教。」[17]

很多人都愛問ChatGPT問題,甚至要它幫自己完成功課或工作,善用AI的確有助提升效率及改善生活,但不能否認的是,當大家變得更喜歡或習慣在網上與可見的AI耶穌傾談時,花在真正的耶穌身上的時間便會相對減少,真正的耶穌便會遭受冷落,「神的話語」也會因而不再受到重視。

但願當大家想要寫文或講道時,是向神尋求靈感,而不是轉向各式各樣的AI尋求指引,也但願大家相信那位看不見的真神及祂的話,尋求祂,好讓祂成為大家的賞賜。


[1] 參馮蔭坤:《希伯來書(卷下)》(香港:天道,2014年),頁227–228,232。

[2] 方舟實際的尺寸達10層樓高,參〈眼見為憑!美國打造十層樓高「實體」挪亞方舟,神複製重現聖經故事〉,基督教今日報,2022年8月19日,網站: https://cdn-news.org/News.aspx?EntityID=News&PK=000000001360488918cb7aa65702074599df07310f957767

[3] 參馮蔭坤:《希伯來書(卷下)》,頁253。

[4] 馮蔭坤:《希伯來書(卷下)》,頁251。

[5] 馮蔭坤:《希伯來書(卷下)》,頁251。

[6] Khushboo Gupta, “A New Deep Reinforcement Learning (DRL) Framework can React to Attackers in a Simulated Environment and Block 95% of Cyberattacks Before They Escalate,” Marktechpost, July 19, 2023, https://www.marktechpost.com/2023/07/19/a-new-deep-reinforcement-learning-drl-framework-can-react-to-attackers-in-a-simulated-environment-and-block-95-of-cyberattacks-before-they-escalate/.

[7] Jessica Lyons Hardcastle, “Future of warfare is AI, retired US Army general warns,” The Register, April 27, 2023, https://www.theregister.com/2023/04/27/future_of_warfare_rsa/.

[8] Stephen J. Andrews and Robert D. Bergen, I & II Samuel, Holman Old Testament Commentary (Nashville: Broadman & Holman, 2009), 15.

[9] ChatGPT, version 4.

[10] 有關人工受孕的倫理及信仰思考,可參閱此書:葉菁、葉應霖合著:《給我一個Baby:從不育走到人工生育》(香港:宣道出版社,2013年)。

[11] 有關爭議可參閱〈母腹市場化 信徒應辨清道德底線〉,《基督教週報》,第2417期(2010年12月19日),網站:http://christianweekly.net/2010/ta21970.htm

[12] “The US Surrogacy Law Map,” Creative Family Connections, https://www.creativefamilyconnections.com/us-surrogacy-law-map/.

[13] Ians, “Users flock to Twitch’s ‘AI Jesus’ chatbot for dating, gaming advice,” Business Standard, June 20, 2023, https://www.business-standard.com/technology/tech-news/users-flock-to-twitch-s-ai-jesus-chatbot-for-dating-gaming-advice-123062000402_1.html; Sam Cawley “AI Jesus is Twitch’s new big streamer,” Gaming Bible, 14 June, 2023, https://www.gamingbible.com/news/ai-jesus-is-twitchs-new-big-streamer-671786-20230614; Vishwam Sankaran, “Thousands flock to ‘AI Jesus’ for gaming, relationship advice,” Independent, June 15, 2023, https://www.independent.co.uk/tech/ai-jesus-chatbot-religion-advice- b2358128.html; Angela Yang, “‘AI Jesus’ is giving gaming and breakup advice on a 24/7 Twitch stream,” NBC News, June 16, 2023, https://www.nbcnews.com/tech/ai-jesus-twitch-stream-rcna89187.

[14] “Jesus, please my son……He is having troubles in his life and lacks faith and introspection. Please pray for the betterment of his life so he can make a positive connection with God.” [“ask_Jesus,” Twitch, accessed August 2, 2023, https://m.twitch.tv/ask_jesus/clips.]

[15] 「ChatGPT是由OpenAI開發的一個自然語言處理模型能夠生成人類般的文本回應。而ChatGPT Prompt則通常指的是一個輸入的文本段落或短語,作為生成模型輸出的起點或引導。prompt可以是一個問題、一段文字描述、一段對話或任何形式的文本輸入,模型會基於prompt所提供的上下文和語義信息,生成相應的輸出文本。參Leo:〈ChatGPT Prompt中文教學!5大使用技巧+10大使用方法攻略〉,Now Monday,2023年5月30日,網站:https://www.nmplus.hk/1127684/?utm_campaign=NM_ContentCopy&utm_source=Web-inventory&utm_medium=Content-Copy_NM

[16] Nir Cohen, “ChatGPT Plays God: An AI Conversation You Can’t-Miss!,” Medium, May 15, 2023, https://nircohen.medium.com/chatgpt-plays-god-an-ai-conversation-you-cant-miss-b162f867058f.

[17] Mehul Reuben Das, “ChatGPT as God? AI bots capable of starting new religions, warns expert,” Firstpost, May 3, 2023, https://www.firstpost.com/world/ai-bots-capable-of-starting-new-religions-warns-yuval-noah-harari-12540282.html.

人工智能也造假

郭卓靈 | 明光社項目主任(傳媒及生命教育)
19/07/2023

近月,人工智能(AI)的應用引起了大家關注,生成式的AI建立在大型訊息數據上,根據提示而生成了文本、圖像,音頻等的檔案,而這些程式允許人工智能透過學習而自行決策,生成資料。

圖像造假

明光社

本年3月,網絡上瘋傳了天主教教宗方濟各(Pope Francis)穿著白色長羽絨外套的照片,[1] 看起來十分「潮」,但原來這張看起來十分真實的照片,是由AI生成的假照片。它被瘋傳的原因是因為它既非抹黑教宗,而是將教宗和時尚結合,讓人感到驚奇。而恰巧的是,有報道稱:「教宗方濟各之前也曾提到AI應用對人類社會的影響,教宗認為,評估的標準應該放在人類的尊嚴,只有AI應用能增進人類生而為人的尊嚴,那麼才在道德上擁有使用的合理性。」[2]

明光社

而於本年5月,網上出現了一幅美國國防部五角大樓附近發生爆炸,冒出濃煙的照片,照片在網絡瘋傳後,令美股下跌了近十分鐘,一度下跌約0.29%,亦是「AI生成圖片影響股市的首例」。[3] 而該張假照片的真實程度,足以令OSINTdefender,這個平日分享國際軍事衝突新聞的Twitter賬戶,都分享了它。可以想像連這類專業且擁有數十萬關注者的團體都誤信了該照片並分享出去,其關注者大多會信以為真,導致出現「病毒式瘋傳」及股市下跌的情況,這也是可以理解的。而該賬戶的營運者後來為傳播了錯誤資訊表示歉意,並指出這是一個例子,顯示了「這類圖像是如何可以輕易地被用來操縱資訊空間及這類事件在未來到底有多危險」。[4]

失實資訊

AI常見的一個造假方式,是通過生成對抗網絡(Generative Adversarial Network, GAN)來進行,原理就是讓兩個神經網絡像是玩遊戲般相互博弈來進行學習。維基百科網頁簡單的解釋道:「生成網絡從潛在空間(latent space)中隨機取樣作為輸入,其輸出結果需要盡量模仿訓練集中的真實樣本。判別網絡的輸入則為真實樣本或生成網絡的輸出,其目的是將生成網絡的輸出從真實樣本中盡可能分辨出來。而生成網絡則要盡可能地欺騙判別網絡。兩個網絡相互對抗、不斷調整參數,最終目的是使判別網絡無法判斷生成網絡的輸出結果是否真實。」

要判辨程式所生成的內容是否失實資訊,虛假圖片與錯誤訊息等,都是令人頭痛的問題。美國曾有一名執業超過三十年的資深律師引用了ChatGPT提供的案例去舉證,但法庭未能找到相關的案例資料,才發現ChatGPT造假。他在援引案例時曾不只一次向ChatGPT詢問它所提供的案例是否真實,而ChatGPT的回應是「這是真實的案例」,並一再強調案例是真實存在,並可以在一些法律研究數據庫中找到。[5]

事實查核與規管

有「ChatGPT之父」之稱的OpenAI行政總裁Sam Altman,曾與350位權威專家簽署了公開信,警告AI對滅絕人類構成的風險,不下於核戰及大流行疫情,應予以重視;而他亦曾警告,指AI技術可能操控訊息,並對來年美國大選造成影響。[6]

了解到上述AI造假的情況,用戶在相信和轉發訊息,或使用AI所提供的資料之前,實在需要花時間去查證。但由於AI成內容的仿真度愈來高,可能用戶在查證時需參考專家的分析。英國廣播公司於本年5月宣佈成立一個由60名專家和記者組成的專責小組「BBC事實核實」(BBC Verify),以核查影片及資訊的真偽,小組又會將分析核查影像真確性的過程向公眾公開,以獲取公眾的信任。由此可見,在AI世代中,要查證的難度愈來愈高。[7]

而規管方面,Altman呼籲應成立一個美國或全球規模的機構,對超過一定規模的AI企業頒發許可證,規管機構擁有撤銷許可證的權限,以確保該技術發展符合安全標準。[8]

中國上海市則在本年5月發佈了文件稱,要充分發揮人工智能創新發展專項等引導作用,支持民營企業廣泛參與數據、算力等人工智能基礎設施建設,而北京市亦發佈了類似的文件,提出了2025年人工智能核心產業規模達到3,000億元人民幣、持續保持10%以上增長、輻射產業規模超過1萬億元人民幣等具體目標。[9]

而在台灣,本年5月有部門對外宣稱,行政機關已召開跨部會會議,邀請國科會、數位部、國家通訊傳播委員會及文化部等相關單位,針對ChatGPT等生成式AI立法納管研議推出一部「人工智慧基本法」,立法規範納管。[10]


[1] 倪浩軒:〈教宗穿羽絨服爆紅!卻是AI生成照片〉,今日新聞、yahoo!新聞,2023年3月29日,網站:https://tw.news.yahoo.com/教宗穿羽絨服爆紅-卻是ai生成照片-154045706.html154045706.html(最後參閱日期:2023年7月11日)。

[2] 倪浩軒:〈教宗穿羽絨服爆紅!卻是AI生成照片〉。

[3] 〈五角大樓爆炸假相 嚇跌美股〉,星島網,2023年5月24日,網站:https://std.stheadline.com/daily/article/2529265/日報-國際-五角大樓爆炸假相-嚇跌美股(最後參閱日期:2023年7月11日)。

[4] Abené Clayton, “Fake AI-generated image of explosion near Pentagon spreads on social media,” The Guardian, May 22, 2023, https://www.theguardian.com/technology/2023/may/22/pentagon-ai-generated-image-explosion.

[5] 〈AI造假|美國律師用ChatGPT寫訟書 被踢爆AI造假案例 辨稱:無意欺騙法庭〉,Fortune Insight、yahoo!體育,2023年5月29日,網站:https://hk.sports.yahoo.com/news/ai造假-美國律師用chatgpt寫訟書-被踢爆ai造假案例-辨稱-無意欺騙法庭-105111759.html(最後參閱日期:2023年7月11日)。

[6] 〈風險提示|ChatGPT之父夥350專家:警告AI可毀滅人類 風險不下於核戰及疫情〉,BossMind、yahoo!新聞,2023年5月31日,網站:https://hk.news.yahoo.com/風險提示-chatgpt之父夥350專家-警告ai可毀滅人類-風險不下於核戰及疫情-050000876.html(最後參閱日期:2023年7月11日)。

[7] 〈BBC小組透明化查AI造假 取信於公眾〉,明報加西網,2023年5月24日,網站:http://www.mingpaocanada.com/van/htm/News/20230524/ttac2_r.htm(最後參閱日期:2023年7月11日)。

[8] 〈風險提示|ChatGPT之父夥350專家:警告AI可毀滅人類 風險不下於核戰及疫情〉

[9] 〈中國發展AI要求「社會主義核心價值」 各國AI監管側重有何不同?〉,《聯合早報》、《香港01》,2023年6月2日,網站:https://www.hk01.com/中國觀察/904402/中國發展ai要求-社會主義核心價值-各國ai監管側重有何不同? utm_source=01articlecopy&utm_medium=referral(最後參閱日期:2023年7月11日)。

[10] 林淑惠:〈生成式AI造假 將有法可管〉,中時新聞網,2023年5月25日,網站:https://www.chinatimes.com/newspapers/20230525000186-260202?chdtv(最後參閱日期:2023年7月11日)。

電影小組:電影類型十講 第七講:屋裡有怪物

郭卓靈 | 明光社項目主任(傳媒及生命教育)
19/07/2023

電影類型十講這個系列走到第七講「屋裡有怪物」這個主題,我們參考了史奈德的《先讓英雄救貓咪》一書的電影分類去分析電影,因為想大家可以了解一下電影的結構。結構是一個框架,但每部電影所探討的重點,仍然可以很不一樣,就像這次介紹的電影《人工殺姬》(M3GAN),它屬於恐怖片種,但卻不是家裡有鬼怪,而是關於一玩具設計師Gemma為了不想花時間照顧母親剛去世的外甥女Cady,於是設計了一部能自我學習,但卻沒有界線,且起了惡念的人工智能機械人M3GAN,她更觸發了社區、校園命案。

明光社

分享嘉賓王礽福先生指出,這類電影要有三大要素:一、「怪物」:要有超自然力量,而且恐怖、邪惡;二、「屋子」:狹小、封閉的空間,或讓主角孤立無援的地方(家庭、城鎮亦可);三、「罪惡」:某角色因心術不正而把怪物引進屋子裡,而這個要素亦決定了一部怪物電影是否好看。於這部電影中,Gemma不想負上家長責任而令AI機械人M3GAN進入「屋子」,而M3GAN因有自我學習能力,有自我意識、不想死亡,亦為了想保護小女主人Cady而犯上種種罪行。

礽福指出,電影似乎一開始就點出了人們未能駕馭AI這主題。Cady父母所駕駛的車子似是四驅車,但卻不能在大雪中行駛,最後車停在路中就被大貨車撞倒了,這安排似是帶有寓意,雖然AI能陪伴孩子,亦是未來趨勢,但這種科技玩意卻是大家未能駕馭,它會否對人類造成傷害?大家未能料到,卻已開始使用它。

明光社

對於照顧孩子,家長會否假手於人?既要工作、又要照顧孩子,家長會如何取捨、平衡?當家長把照顧孩子、教導孩子,甚至聆聽孩子聲音,與孩子互動的責任都推卻「他人」來處理(可以是網絡、娛樂玩意),孩子就難免會把情感投放到電子產品、網絡遊戲、社交網絡之中,當他們發生重要事情,或許都不再想和父母說了。

對於不死的AI(電影尾聲也有說M3GAN最後將自己備份到她們家中的電腦系統中!),它的發展和自我學習、成長,也是一日千里,或會失控……人類會如何面對和應用它呢?不同的公司、政府也應該及早思考AI發展的倫理和應對的措施,我們亦要積極學習,並抱持適應其急速發展的心態。

請點按以下連結,收看足本講座。

收看講座

人工智能的倫理思考

陳永浩博士 | 生命及倫理研究中心研究主任(義務)
19/07/2023

近一年來,OpenAI,ChatGPT等人工智能(AI)技術突飛猛進,推出市面後亦廣受網民愛戴,大家紛紛下載使用,其進步已經到達了一個令人驚嘆的地步。現在,只要用普通語言文字輸入指令,AI就可以寫論文、作曲、繪圖、製片,撰寫程式,甚至幫忙創作活動流程大綱等。在未來,人類和AI之間的關係將會變得愈來愈密切。人們將會使用AI來完成許多日常任務,例如編寫電子郵件、製作報告、設計產品等等。此外,AI還可以幫助人們解決一些複雜的問題,例如醫學診斷、金融分析等等。然而,隨著AI技術的不斷發展,可能會引發一些倫理問題,例如,如果AI可以自己創造新的知識和技術,那麼它是否有權擁有這些知識和技術呢?如果AI可以自己做決策,那麼它是否有權做出這些決策呢?有見及此,明光社在2023年4月20日舉辦了「人工智能的倫理思考」網上講座,特別邀請了資訊科技界和教育界的人士,討論一下人工智能的倫理。

明光社

JesusOnline總幹事鄧諾文先生指出,人工智能其實早在1980年代已開始發展。到了2016年時,當時的人工智能大約只達到人類三歲左右的智慧水平,其功能也較單一,他分享自己用過的AI寫作工具,製作出的大綱總是千篇一律。但時至今日,已有評估指出,流行的人工智能工具已提升至人類14歲左右的心智水平,加上更先進的智能程式操作(如提示工程〔Prompt Engineering〕已成為了新學問,讓人學習如何與AI溝通),令AI的進步變得十分驚人。

明光社

除了是研究中心的義務同工,筆者也是恒生大學社會科學系高級講師,現在教育界面對著因同學不當使用「人工智能」而衍生出作弊與抄襲問題:人工智能的確更能幫助同學找資料,也能訓練同學「問問題」的技巧和思考模式,但同時也帶來資料準確性的問題(如AI提供錯誤資料,缺乏求證,甚至有穿鑿附會、「老作」答案的情況);另外當同學不當使用,一心依賴人工智能而變成抄襲、「請槍」的情況亦已出現。這樣不單影響同學學習成果,也對老師批改功課作業造成困難。

綜觀來說,人工智能發展的確是一日千里,那很多人就會提出一個重要問題:人工智能會有自己的思想嗎?甚至會不會有一日取代人類?當前,很多人會覺得人工智能會取代人類很多的工作,使人類失業,繼而失去優勢,但其實現時的人工智能的特點,不只在於資料上的整合,而是其向人類「深度學習」的能力。當大家一路下載ChatGPT使用時,其實就是極速地幫助人工智能向我們學習;加上大數據和演算法的加持,如果有一天到達了不可逆轉的「臨界點」:人工智能有能力創造自己以外的「人工智能」時,這就可能真正威脅到人類了。

當然,人工智能發展何時會達到這樣的情況?我們實在難以預測。活在當下,我們應認知人類與人工智能相互的優缺點,從而好好善用,取長補短,切忌不聞不問,或是貪方便濫用相關科技,這才是明智之舉。

如想收看足本講座,請點按以下連結。

收看講座

多媒體網絡年代對教養孩童的挑戰

呂英華 | 明光社項目主任(流行文化)
19/07/2023

即使我們無法不面對網絡的時代,也被迫要適應在這個時代下所產生出來的現象。網絡時代的模式亦不斷地轉變,不同時期有不同的特質,這對孩童或青少年都會帶來一定的影響。明光社於2023年5月30日舉辦了「多媒體網絡年代對教養兒童的挑戰」網上講座,我們邀請了香港中文大學新聞與傳播學院講師梁麗娟博士為我們講解現今網絡媒體文化的現象,與我們一同思考如何應對,特別是在家長教導孩童方面。

明光社

梁博士提到現今多媒體網絡年代的社會特色是個人化和部落化。個人化是指人們在不同的場景中,縱然人與人的距離都非常近,但都只會留意著自己的手機。梁博士指出年輕一代往往會認為長輩級的人是跟不上時代的、不會懂他們在做甚麼,這也是他們的新潮優越感。而部落化則是指我們以往認為錯誤、不應該做的事,但在網絡上提出這些話題卻會得到人們的支持,即使是明顯地有違道德的事,例如「強姦快閃黨」及組團自殺等等。

多媒體網絡內容隨著科技的發展,影像和聲音都會令人感到愈來愈刺激,使到人們更難忍受沉悶的事和人,諸如上班、學習等等,人會更加自我中心,梁博士指,很多時候,一些事情如果不在人有興趣的「雷達」上時,他們便完全不關心,甚至將事件當作沒發生過。

另外,網絡時代所造成的自我中心,更會影響家庭成員的關係。梁博士以自己的子女為例,他們要求梁博士傾談,總期望即時的回應,而在日常生活中,她傳訊息給子女,大多時候都得不到或很遲才收到回應,就像父母與子女的關係是不對等的一樣。而且,這種自我中心使孩童不會做不喜歡的事,自己想做的事,則會要求父母提供協助,子女亦不太會為家人付出,甚至有些極端的事件曾在報章上出現,例如在內地有15歲少年為上網而弒母等等。即使不是一些極端的情況,上網與否,課金與否,父母也很容易與子女產生磨擦。

網絡對於孩童和青少年來說,是一個大森林,當中除了無限的知識,亦有許多網絡陷阱,而梁博士都特別提到現在有許多網上情緣騙案和裸聊勒索事件在發生,她亦提及了一宗新聞,一名少年疑因誤墮網絡騙案而選擇跳軌輕生,這些網絡陷阱都是孩子需要提防的。

最後,在家長角色方面,梁博士認為家長需要給予子女更多的關心和刻意的教導,讓子女懂得感恩,知道自己擁有的一切其實是來自父母,而且父母也要在適當的年齡才給他們使用智能產品,以免他們沉迷上網或耽誤了自己的親情和友情。

以上只是梁博士分享的部分內容,如想收看足本講座,請點按以下連結。

收看講座

開放人工智慧對人性過於樂觀

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史,現在是美國阿蘇薩太平洋大學(Azusa Pacific University)應用行為科學與數據科學教授。
04/07/2023
專欄:有情無國界 (*所有文章只屬作者個人意見,不代表本社立場)
國家:美國

開放人工智慧喪失了誠信嗎?
現在「開放人工智慧」(OpenAI)的人工智能聊天機械人ChatGPT 已經紅透半邊天,相信我不需要在此向讀者詳細介紹其功能。不過,很少人知道為甚麼該公司名叫OpenAI,其實它原本是一個走開源(Open source)路線的非牟利團體, 該團體在2015年成立,OpenAI 的意思就是要將自己發展出來的人工智慧原始碼公諸於世。然而,2019年OpenAI卻改轅易轍,其電腦程式已不再是公開,而且OpenAI 變成了牟利公司。故此,現在OpenAI的名稱與公司的性質已經不相符。

電腦專家艾力生(Forrest Allison)對開放應用程式介面(Open API)的變質非常不滿,他認為Open API的做法已經令人質疑其誠信,他寫道:「OpenAI 從開源龍頭轉變為閉源、以利潤為導向的公司,這是對人工智能行業的一個警示。儘管該公司在人工智能開發方面取得了重大進展,但其日益保密、缺乏透明度、提供有限的選項的行為,已經疏遠了它曾經旨在服務的社群。」

開源運動接近社會主義
開源軟件是任何人都可以都接觸、修改、使用的軟件,費用全免,開源運動的原意是要打破大企業的壟斷和牟取暴利,諷刺的是,到頭來開源運動最大的得益者仍然是科技巨頭!今年初微軟向OpenAI注資100億美元,微軟逐步將OpenAI 的技術融入了自己的產品,這包括了搜索引擎Bing、雲端服務Azure、微軟365……,對微軟來說,這真的是如虎添翼。除了微軟之外,很多大公司都利用Python等開源軟件去增強自己產品的功能,例如亞馬遜的預測模型SageMaker、雲端服務AWS 都採用了Python。

筆者對這發展毫不意外,很多年前我曾經撰文質疑開源運動的可行性,簡單地說, 開源運動的精神過於理想化。在OpenAI成立的時候,臉書首席人工智能科學家楊立昆(Yann LeCun ) 並不看好,他認為作為非牟利團體,OpenAI 難以吸引到資金和人才,大部份有能耐的人工智慧專家都會跑到谷歌或者臉書,他預測OpenAI 將會失敗。幾年之後,OpenAI 的後半節 (AI)十分成功, 但前半節(Open) 卻正如楊立昆所料,真的徹底失敗了!《紐約時報》科技評論家凱德‧梅茨(Cade Metz) 寫道:「OpenAI是一個理想主義的願景,最終將被證明是完全不切實際的。」

開源運動的理論假設和目標接近社會主義:人們會各盡所能、各取所需,最終便可以擺脫資本家的壟斷和操控。上世紀整個地球經歷了社會主義與資本主義的鬥爭,最後,歷史教訓我們,陳義過高的烏托邦只會適得其反。在短期內,一腔熱血的理想主義者可能會在很少甚至沒有報酬的情況下編寫電腦程式,然後免費送給全世界。不過,世界上有幾多人會願意持續幾十年做電腦義工呢?

重賞之下,必有勇夫
統計分析系統(Statistical Analysis System,簡稱SAS) 是全世界最大的數據分析軟件公司,但近年來其市佔率逐漸被開源軟件蠶食,其中一個原因是開源社群可以很快地推出很多功能強大的軟件,而且分文不收。不過,最近一間顧問公司比較SAS和開源數據分析軟件的功能和速度,結論是前者的運算速度平均來說比後者快三十倍。我對這個測試結果並不感到驚訝,開源社群的研發努力比較鬆散,而且完全是自發性的,但商業公司的研發是協調的,而且可以用高薪去吸納頂尖人才,正如中國俗語有云:「重賞之下,必有勇夫。」 除了性能和速度,開源軟件與商業軟件還有一個很大的差別:用戶使用者介面,一般來說,前者都比較難用。做生意需要顧客至上,因此,商業軟件會盡量令用戶舒適, 但在沒有利潤推動下,電腦義工會否為用戶設想呢?

無論如何,開源軟件最大的賣點是完全免費,這是令到商業軟件逐漸失去市佔有率的原因之一,短期來說,這對用戶是好事,但長遠來說卻不得而知。讓我套用一個比喻,當古巴進行社會主義革命的時候,卡斯特羅政府將許多從富人手上沒收的房屋免費地分配給窮人, 那時候許多人歡迎這政策,但自此之後古巴經濟一直停滯不前,那些原本美輪美奐的房屋逐漸變成殘破不堪。

如果大通銀行的數據中心發生故障,銀行可以馬上聯絡商業軟件公司的技術支援服務, 對方的技術人員會日以繼夜進行維修。相反,若果大通銀行採用開源軟件,銀行真的能夠期望開源社群會拍心口,不解決問題便決不罷休嗎?試想像,若果有一天開源軟件完全打垮了科技龍頭,或者商業軟件公司退縮至一個小角落,這會對科技發展和經濟活動帶來正面還是負面的影響呢?

惡意地利用開放制度
開源軟件公開原始碼,有些人可以通過這透明制度去改善軟件,但別有用心的人也可以利用這開放制度去做壞事,例如俄羅斯、北韓、伊朗毋須派遣間諜,只需要在網上下載原始碼,便可以掌握到某些美國的尖端科技。最近不少人談論人工智能會否毁滅人類文明,若果頂尖的人工智能原始碼完全開放,那麼便有人可以將這些電腦程式發展為武器。起初OpenAI 擁抱開源和非牟利模式的時候,其創始人之一森姆‧奧特曼「(Sam Altman ) 表示並不擔心會有人惡意地使用人工智能,他的反駁論據是:在開源模式下,很多人會制止這些壞人。對筆者來說,這邏輯好像是:開放極音速核子飛彈科技並不是問題,如果有人惡意地發展這科技去危害全世界,其他人也可以參考開放的資料,去發展攔截極音速導彈的技術。

請讀者不要誤會,我並不反對開源,事實上我亦採用開源軟件。然而,開源運動對人性的假設過於樂觀,有時候開源支持者站在道德高地作出批判,好像有點自以為義。在文章開首我提及艾力生對OpenAI的不透明和尋求利潤表達不滿,說OpenAI 的行為令人質疑其誠信。我認為OpenAI 的做法無可厚非,它無非應驗了以下的傳統智慧:「在二十歲之前,若果你不支持社會主義,你是沒有心肝;在四十歲的時候,若果你不歸向保守主義,你就是沒有腦筋。」 起初奧特曼懷著改變世界的抱負,現在奧特曼是OpenAI的執行長,最近他訪問多個國家,去討論怎樣監管 人工智能的發展,他已經意識到完全開放、毫無監管的危險。而且,微軟向OpenAI 投資了100億美元,有誰會嫌錢腥呢? 我不會!

長思短想

31/05/2023

《長思短想:當短視與速成正在摧毀社會,如何用長期思考締造更好的未來?》
(The Good Ancestor: How to Think Long Term in a Short-Term World)
作者:羅曼.柯茲納里奇(Roman Krznaric)
譯者:孔令新
出版地:台北市
出版:商周出版
出版年份:2021年

 

你是好祖先嗎?你留下了甚麼給你的後人?當大家看到此問題,可能會想自己有沒有樓、金銀財寶留給後人,但對本書的作者來說,人們是否好祖先,取決於他們留給後人的,是造福後人還是成為後人的禍害,作者所指的遺產,其實是指地球的生態環境,以及惠澤後人的遠見。

作者認為不少被富裕國家看不起的「部落」,都是好祖先,因為他們懂得為後人設想,位於美洲烏龜部落(Turtle Clan)酋長Oren Lyons曾說:「身為酋長的首要使命之一就是展望未來,確保我們所有的決策都顧及未來第七世代的福祉與幸福,這就是我們議會決策基礎,我們思考:這項決定能否惠及今後第七個世代?」有多少人可以思想七代的事?作者認同愚公移山的精神,即使愚公有生之年不能看見成果,但只要對後人有益的遠見,都是好的,反觀西方社會,他批評無論是政治人物或企業家,大多暴露出短視及自私的一面,他們消耗掉,用更嚴厲的詞彙來說,他們偷竊了後人的資源。

作者提到富裕國家的短視不只在於耗盡資源,亦在於他們解決問題時非常短視,例如他們發展人工智能、基因改造、納米技術、甚至因怕地球日後不宜居住而冒出移民火星的想法等,反而讓人類因著新科技而增加「生存風險」,他提到:「名列前茅的就是人工智慧系統帶來的威脅,如不受人類創造者控制的致命自主武器。」作者不相信人類可以移居火星,並批評此種想法要不得,因為這表示人類希望捨棄地球,而不是拯救地球。

為何部落可以有遠見,而富裕國家反而短視?因為雙方的想法很不一樣。富裕國家認為遙遠的未來沒有居民,他們就如當日侵略原住民的領土一樣,宣佈這為無人佔據之地,隨意搜刮掠奪其中的資源,任意傾倒讓生態環境惡化的核廢料。反觀部落,他們或多或少懷著這樣的想法:「我們的土地不是繼承於祖先,而是借用子孫。」這想法有些像基督教的觀念,把地球視為神「出借」給各世代的禮物。如此看來,地球不是當今世代所「擁有」,可以隨意處置的東西。

要如何活得有遠見,作者提議人們可以從樹木身上,反思在這浩瀚的宇宙中,人類只是滄海一粟,人類無權破壞生態系統。他也邀請大家思考死亡及死後希望如何被記住。雖然作者相信進化論,但字裡行間,他某些想法,其實與《聖經》的看法相似,他也能鼓勵大家不要只思想眼前的事,而是更多放眼於遙遠見不到的未來、及關心其他人的需要,即使這些人還未出現,《聖經》不是也教人「你們要思念的,是天上的事,不是地上的事。」(西三2《新譯本》),「各人不要單顧自己的事,也要顧別人的事。」(腓二4《新譯本》)