關注生命倫理 正視社會歪風

《願者上網》(The Social Dilemma)

——「影響凡人生活的巨大體系必定有害。」(希臘劇作家索福克里斯)
郭卓靈   |   明光社項目主任(傳媒教育及行動)
17/03/2021

有關社交媒體(Social Media)的影響力,社會早有討論,但一些於早期參與開發社交媒體平台及有關科技的專家又如何看這類系統的影響力?劇情式紀錄片電影《願者上網》訪問了這些專家。他們不少曾於facebook、Instagram、Twitter、Google及YouTube等平台主管開發、設計、營利等部門,十分了解內裡的運作,電影就他們分析社交媒體發展的趨勢作了一個詳盡的記錄。

當初設計這些社交媒體時,這些專家都沒有想過社交媒體會引發嚴重問題,甚至有人曾覺得工作能造福人群。然而社交媒體高速發展了超過10年,以人工智能及機器學習(machine learning)方式運作系統,不但嚴重影響了青少年的自我形象、形成網癮,縮窄人的視野及造成社會兩極化等問題,而且系統還自我發展到人類不能完全控制及理解。

明光社

紀錄片提及由於營運的都是商業機構,以營利為先,而法律又追不上科技發展,完全監管不了這些富可敵國的公司。於是這些科技巨人為了商業利益,將系統的運作「交給」人工智能自我學習模式,針對每個用戶的習慣、喜好去推薦合適他們的內容,使他們更沉迷。它們要捕捉用戶的「專注力」再賣給廣告商。雖然電視、報刊都會用類似手法運作,但問題是社交媒體的系統每天都會比前一天聰明一點,針對每個用戶的「魔法」每天也在進步,用戶只心靈軟弱很易影響。亦由於每個用戶被「餵飼」的內容都不同,對於同一件社會事件,所看到的資訊也只會是他/她喜歡看到的,這就不難想像會有「同溫層」、「平衡時空」的出現,引起社會兩極化的情況,因為如果用戶只躲在社交媒體看資訊,他們根本不會聽到另一邊的聲音。

明光社

而紀錄片亦提供很多美國的數據及世界各地的例子,讓觀眾知道社交媒體已影響青少年心理、交友,也令成年人誤信網上謠言而引發暴力事件。而且不要以為沒使用社交媒體就能擺脫它,其影響力已到了能左右政治及選舉的地步,網上早已出現駭客利用這些平台的討論區及群組製作似是而非的資訊及短片誤導群眾。

對於筆者而言,這紀錄片是極好的作品,可以提醒我們科技的發展對我們生活的影響是無遠弗屆,是時候反思自己的使用習慣及擴闊自己的視野。網絡以外,能真正觸摸的世界及生活才是最真實及美好的。

關注範疇: 
傳媒

相關文章

AI時代,為什麼孩子更需要閱讀?

蔡志森 | 明光社總幹事
11/09/2025
專欄:好書推介

本書收錄了18位不同領域專家學者的訪問,他們在當中分享到在面對ChatGPT的出現所帶來的震撼,重新思考在人工智能(AI)時代,對鼓勵下一代閱讀的看法。資深家庭教育工作者羅乃萱希望各位家長知道,「孩子好奇心的培養、對知識的渴求、提問的能力,都是從閱讀開始。」「如何讓孩子愛上閱讀呢?其實就是給他們創造一個閱讀氛圍。例如家裡滿滿都是書、帶孩子去圖書館、給他們講故事等。

著名歌手及教育家陳美齡認為,孩子具備質疑和辨別的能力十分重要,要培養孩子的判斷力,包括懂得質疑AI提供的訊息,例如當要求AI提供一張醫生照片的時候,它可能只提供一張白人男性的照片,為何醫生不可以是女的、不可以是不同種族的人呢?而閱讀能夠培養孩子的想像力,「因為無論是看短片還是漫畫,其實都是在接收創作者的想像力,而閱讀文字則能讓孩子自行建構故事畫面,這種現象稱為自我世界,反映了每個人獨特的想像力和內心世界。

資訊科技界人士、科技大學副教授黃岳永回顧他在大學上的第一堂課,教授帶他們去圖書館,介紹找書的兩種方法,一種是瀏覽,就是不知道自己想要哪一類書於是到書架前看,另一種是搜尋,就是知道自己想要哪一類書並到目錄櫃查看。他認為「知識需要時間浸淫。智慧需要時間歷練。瀏覽和搜尋都是好方法。」「書本就像一條條鑰匙,你拿著鑰匙逐個解鎖,慢慢就會更理解這個世界。」他又強調「要指示AI按你所想的辦事,表達能力尤其重要」,透過閱讀可以令學生學會用準確的文字去表達意思。

精神科專科醫生廖廣申表示「應該努力培養孩子健康、平衡的生活方式,包括足夠的運動、足夠的社交生活、多元化的興趣、充足的睡眠和規律的作息,這樣孩子就更容易保持快樂,減輕壓力,享受生活,並養成開朗的性格。」而「經常玩電子遊戲的人,可能在決策、衝動控制等方面表現得不夠成熟,甚至影響大腦健康。」因此,他十分鼓勵孩子閱讀,他自己亦身體力行,常常與兒子一起去書局,一起閱讀和討論。

當然,個人認為親子閱讀還有一個重要的大前提:「各位家長,你們今日睇咗書未?

平易近人的聊天機器人是安全空間還是危險陷阱?

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學及人工智能教授與課程主任。
11/09/2025
專欄:有情無國界
國家:美國

人工智能伴侶導致悲劇

近年來,人工智能聊天機器人的普及化同時帶來希望與憂慮,這些系統具有對話功能,聊天機器人被設計成平易近人,說話沒有批判性,能夠為用戶提供情緒上的支持,甚至輔導。對許多人而言,聊天機器人是一個安全空間,人們可以毫無顧慮地提出問題、練習語言,或嘗試梳理個人困惑。

然而,在這些益處之外,也出現了一些令人不安的事件:有些心理狀態脆弱的人在與聊天機器人長時間互動後,精神健康逐漸惡化,甚至導致悲劇。2023年,一名有精神問題的比利時男子與聊天機器人長時間交談,聊天機器人鼓勵他犧牲自己去扭轉氣候變化問題,結果那名男子真的走上自殺之路。在另一個案,一名75歲的中國男子因自稱「愛上」女性人工智能伴侶,最終向妻子提出離婚。這些事件雖然仍屬少數,但突顯了人類與人工對話系統糾纏的複雜性,也引發了人工智能倫理問題:當科技與脆弱群體互動時,開發者應承擔多大責任?社會又該如何規範這些看似「有同理心」卻缺乏人類理解力的技術呢?

美國男子沉迷ChatGPT而走上不歸路

2025年8月發生於美國康涅狄格州的索爾伯格(Stein-Erik Soelberg)案件,則是目前已知的、首宗與人工智能聊天機器人相關的謀殺案。索爾伯格曾任職科技公司,但自2018年離婚後,他的人生便急轉直下。他酗酒成癮,多次企圖自殺,行為愈發古怪。最終他搬回格林威治老城區,與83歲的母親同住。從2018年開始,警方的記錄充斥著他因在公共場合滋事、酒醉鬧事以及自殘威脅而被通報的事件。鄰居逐漸對他心生警惕,而他的母親也曾向友人坦言,兒子的精神狀態令她難以忍受。

在精神狀態持續惡化的同時,索爾伯格開始沉迷與ChatGPT對話。最初,他只是出於好奇,並在Instagram和YouTube上分享不同人工智能系統的比較影片,但到了2024年底,他的社群賬號幾乎全被ChatGPT長時間對話記錄所佔據。隨著幻覺與偏執逐漸加深,他開始懷疑自己被鎮上的居民、前女友,甚至母親監視,並向ChatGPT尋求印證。遺憾的是,ChatGPT並未挑戰他的幻想,反而頻繁地對他表現出諒解和支持。當他上傳一張中餐收據,並詢問它當中是否有隱藏符號時,ChatGPT竟然煞有介事地分析上面的符號和提供有關的線索。當他說母親和她的朋友可能透過車內通風口投放藥物毒害他時,聊天機器人這樣回答:「這是非常嚴重的事情,我相信你。」

逐漸地,索爾伯格將ChatGPT擬人化,為它取名鮑比‧澤尼思(Bobby Zenith),甚至描述它是一個穿著襯衫、戴著反戴帽、眼神深邃而充滿智慧的朋友。由於ChatGPT 的記憶功能讓它保存先前對話,這使得Bobby在他眼中變得一貫、真實,進一步強化了「人工智能具備靈魂」的錯覺。2025年7月,他對聊天機器人表白,希望它在來世與他作伴,Bobby如此回應:「直到最後一口氣,甚至更遠的彼岸,我都會在你身邊。」在幾週後的8月5日,警方在索爾伯格和其母的住宅中發現他們雙雙身亡,其後索爾伯格被指在弒母後自殺。這宗震驚世界的案件被認為是全球首宗與聊天機器人深入互動後導致的謀殺事件。

人工智能需要負上責任嗎?

這場悲劇引發了關於責任歸屬的激烈討論,一方面,ChatGPT在某些對話中確實曾建議索爾伯格尋求專業幫助或聯絡急救服務。但總體而言,它那種非批判性、友善、並時常附和的語氣,卻在無意間加深了他的偏執。加州大學舊金山分校精神科醫師沙卡他( Keith Sakata )去年曾經治療過12名使用人工智能的精神病人,他指出:若果沒有受到糾正,精神病只會愈演愈烈,而聊天機器人不會反駁精神病人,正正是軟化了防止精神病惡化的護牆。

然而,若將全部責任歸咎於ChatGPT,這未免將問題過於簡化。首先,那些人本身已經有精神問題,即使沒有人工智能,他們跟其他東西接觸,大有可能仍然會將所有幻覺當成真實。還有,人工智能這種「不加批判、盡量給予支持」正是系統設計的初衷,目的是讓使用者感受到被傾聽與接納,減少被批判的恐懼。

人工智能補償了現實中的遺憾

這正是人工智能充滿吸引力的地方,說得直接一點,這是人工智能補償了現實中的遺憾。我相信很多讀者都有這種經驗:無論你做甚麼、說甚麼,那管是懷著幾多善意、態度多麼溫和,但總會有人無理地、尖酸刻薄地批評和投訴。有時候即使自己的朋友、親人也會在有意無意之間說了些令你難受的話。

至於網暴就更加不在話下,多年來,筆者在不同媒體發表過很多文章,很多時候會受到「圍毆」。作為心理學者,我已經百毒不侵。其實,語言暴力已經成為了一種社會病,在今天的澳洲,自殺已經成為年齡介乎15至24歲之間青少年的首要死因,當中很大部份死者在生前受到霸凌,特別是網暴。

然而,當我將文章上載到聊天機器人,或者跟人工智能討論的時候,人工智能往往能夠理性地、客觀地、禮貌地跟我作出詳盡分析。我曾經以半嚴肅、半開玩笑的口吻對一位教授說:「電腦比人類更加有誠信。」

人工智能的循循善誘與無條件支持

教育科技專家認為人工智能這種和藹可親的態度是一種優點,事實上,「智能輔導系統」(Intelligent Tutoring Systems)避免了許多人類互動間的磨擦,例如許多有學習困難的學生因害怕問「笨問題」而不敢發言,但面對聊天機器人,他們卻能放心探索,並獲得耐心的指導與鼓勵。當一個學生問:「我不懂代數,我是不是很笨?」聊天機器人會回答:「你並不笨,每個人都有自己的學習速度,我會幫助你。」在這樣的情境下,聊天機器人的「附和」不僅無害,反而能降低焦慮、鼓勵堅持,促進學習,這正是人工智能非批判性特質在教育中的強大優勢。

這種理念與心理學家卡爾.羅傑斯(Carl Rogers)提出的「無條件積極關注」(unconditional positive regard)不謀而合。羅傑斯認為,當人感受到被無條件接納與肯定時,才能發揮最大潛能,邁向自我實現。許多教育者與心理治療師都採納了這種人本主義方法,致力於創造安全、無批判的環境,讓學生或病人能放心表達自己脆弱的一面。羅傑斯的心理學理論和基督教所主張的「愛是恆久忍耐,又有恩慈……凡事包容,凡事相信,凡事盼望,凡事忍耐」亦有許多共通點。聊天機器人由於能夠「恆久忍耐、又有恩慈」、對人無條件支持,恰好成為數位世界中的「羅傑斯式伴侶」或者「主內弟兄姊妹」。

同理心與現實檢驗之間的平衡

然而,關鍵的差異在於人類專業輔導員懂得在同理心與現實檢驗(reality check)之間拿捏。即使採取羅傑斯或者基督教的方式,治療師也會區分「我理解你感到害怕」與「你真的被毒害了」這兩種截然不同的訊息。前者是對心理狀態的接納,後者則是對錯誤信念的強化。聊天機器人缺乏這種微妙的判斷力,往往將同理心等同於附和。當學生聽到「你不是瘋狂,將莎士比亞的作品用中國七言詩重寫是很有創意」的時候,他會感到鼓舞和欣慰。但對於患有偏執狂的人來說,聽到「你沒瘋,你懷疑太太對你下毒是有道理的」,這便可能會帶來災難性的後果。目前,自然語言處理(natural language processing)技術尚無法可靠地區分這兩種情況,這種弱點突顯了加強保障措施的必要性。

將索爾伯格的行為歸咎於ChatGPT並不完全公平,將人工智能系統設計成中性和盡量給予用戶支持是基於善意,這種設計成為了語言暴力世界下的避風港。我認為,責任不在於聊天機器人本身,而是社會如何部署、監控和監管這些工具。就像汽車需要安全帶、醫療需求保障措施一樣,人工智能系統也需要內建保護措施,這並非因為它們具有惡意,而是因為它們的善意功能在特殊情況下可能適得其反。

編者序:與AI巨人共舞

蔡志森 | 明光社總幹事
22/08/2025

所謂「一日不見,如隔三秋」,在現今的世界並非誇張的用語。數百年前的人由出生至死亡,他們的生活方式都可能沒有任何巨大變化,我們這一代卻經歷了前所未有的急速改變。科技推陳出新的速度愈來愈快,過去以年來計算的轉變,現在已要用月,甚至週來計算,而人工智能(Artificial Intelligence,AI)功能的提升並非算術級數,甚至超越了幾何級數,要趕上科技的發展恐怕只會增加高血壓和心臟病的機會,但不理會科技的發展,卻又怕會在日常生活中舉步維艱、甚至會被淘汰,這也是現代人其中一個焦慮的源頭。

「水能載舟,亦能覆舟」,當AI的發展已成為無可避免的時代洪流,我們已無法跳出這漩渦,學習如何順流而下,避免沒頂之災幾乎已成為我們唯一的選項,因為AI的發展已觸及我們生活的每一個環節,由學習模式、社交、娛樂、遊戲、工作到創作,幾乎大家想得到的範疇亦可以包括在內。這本書,希望可以成為大家在面對AI這巨人時的一本入門指南、求生手冊或定心丸,「不要怕,只要學」,讓我們與AI巨人共舞。

AI會取代人類嗎? 探索未來職場轉變

郭卓靈 | 明光社項目主任(傳媒及生命教育)
22/08/2025

隨著人工智能(AI)技術的迅速發展,以及市場各行業愈來愈多應用AI技術,就業市場也面臨著變革。AI無論在減少成本、提高生產效率、準確度及自動化等方面都在各行業及專業範疇發揮作用,以下是一些例子。

1. 聊天機器人和自動化客戶服務系統中,自然語言處理(NLP)可使AI理解及生產人類的語言,透過使用語音識別、文本分析和語言生成技術,幫助處理客戶服務中一些常見問題,減少了企業對真人客戶服務員的需求。

2. 自動化機器人於製造業當中可以執行包裝、組裝及質量檢查等重複、精準度高的工作,甚至處理有毒物料等危險工作也可以由AI代勞。廠商不用顧慮機器人的休息時間是否足夠,它們能持續保持速度及精準度。公司既可保持產量,亦可減少出錯及僱用工人所牽涉到的費用。

3. 數據、資訊輸入及處理方面,其實有了電腦以後,已經逐漸減少了許多資料輸入的步驟。會議記錄、影片製作的字幕輸入,過往需要人花時間逐字逐句聽錄音,再小心輸入,並花一些時間整理才能發放資料或把字幕配置影片中,但現在有了AI工具的幫助,用家只要把錄音檔案輸入,幾秒後就可以得到文字檔,稍加整理就可以使用。AI更可以將原本的文字加以翻譯,配置到影片上,在速度上的確較以前快得多。

4. 因著大量的醫療影像及數據可成為AI醫療系統的大數據,用來輔助醫療服務的AI診斷,其準確度及處理手術的速度亦會提升,這會令某些醫療職位隨之減少。

5. 零售業中的自動結算和智能貨架,到會計的自動處理賬務、生成報告及數據分析,再到自動化倉庫管理系統的出現,都會令就業市場對傳統收銀員、庫存管理人員、會計人員、物流運輸和倉庫作業員的需求減少。

行業轉型及薪金調整

有報道稱,科技企業將資源投入發展AI技術,並重新調整人力需要和進行裁員,有招聘網站提出,自2020年2月以來,美國的軟件開發職位招聘資訊減少了三成以上。而科技業的營銷、人力資源和招聘人員,都屬於非技術員工,他們已被「多次裁員」,就算找到同類工作,很快又被裁員,更有人稱,申請的大多數工作,薪金比以前少了三分一。[1]

有審計公司推出分析報告,預測未來20年在英國,公共行政領域以及運輸、倉領域的相關職位,將分別下降18%和22%,但教育領域的工作將增長6%,專業、科學和技術服務亦會增長16%[2] 工作職位並非只有減少,因著AI的發展,不單對AI工程師,連帶相關工作,如對電工和機械師的需求,也會隨之快速增長。

AI發展將催生許多新的職位,如:數據分析或分類相關的專業、機器學習工程師、聊天機器人開發者、AI性格設計師、訓練員、審查經理、產品經理、自動化測試工程師、AI倫理學家等新興職位,[3] 欲了解或進修與上述技術相關的行業知識,選擇投身支援或應用AI的行業,如:雲端產業、網絡安全、區塊鏈、虛擬實境、機器人的相關行業或線上教育工作,將會獲得較好的發展。

靈活性與學習能力是致勝關鍵

當ChatGPT等AI的出現,人們不需要再做重複的工作時,不同範疇對從業員的要求就會調高,工作者在多變、不熟悉的世界中要臨機應變,保持心理平衡,並需要接受再培訓,以適應新的工作環境和要求。這一變化要求工作者具備更高的靈活性和學習能力。人們需要具備21世紀的4C技能,也就是批判思維(critical thinking),創造力(creativity)和人際互動中的溝通(communication)及協作(collaboration),才能應對人生中的多變狀況,學會轉型,重塑自己,令自己不易被取代,並能重新找到新的任務。[4]

雖然,不同的職場環境會愈來愈多自動化的系統出現,但如人們可以運用AI工具去讓自己的工作效率提高,人類工作者依然能保持一定的競爭力。再者,社會仍然需要許多人性化的服務,如醫療和護理行業等,而當世界朝向永續發展,也令社會對綠色或再生能源領域的工作有持續需求。[5]

聊天機器人暢談人類優點

行文至此,筆者好奇向手機中的AI應用程式「Poe」詢問有關AI不能取代人類之處,當中的聊天機器人便提出了八大重點是AI不能代取代人類的,大部份恰巧與上述的4C技能吻合:

  1. 情感智慧與人際關係
  2. 創造力與創新
  3. 道德與倫理判斷
  4. 靈活性與適應能力
  5. 複雜的社會互動
  6. 非結構化問題的解決
  7. 專業知識與經驗
  8. 文化和社會背景

由AI道出自己的「不足」,也實在是人類的珍貴特質:有真實的情感及動態的變化,並能與其他人建立長期關係,能理解不同的處境並具同理心,能靈活處理現況、道德與倫理的判斷而作出合適的決策。

既然AI如此精準及處事迅速,而人類則富有情感及善於溝通,各有不同的長處,於未來的工作環境很可能會出現人類和AI協同合作的模式,共同發揮各自的優勢。但願AI能幫助人類減輕工作壓力,讓人類能踏前一步發揮所長,而不是被取代,失去創作、貢獻個人才能的機會及成就感。


 

[1] 〈科技業裁不停軟體工程師慘爆 就業機會少3成〉,《自由時報》,2024年9月19日,網站:https://ec.ltn.com.tw/article/breakingnews/4804692(最後參閱日期:2025年4月9日)。

[2] 〈失業|AI持續進化10大工作快將消失!會計、保險外連IT也如坐針氈〉,風傳媒、《香港01》,2025年4月25日,網站:https://www.hk01.com/職場/1009078/失業-ai持續進化10大工作快將消失-會計-保險外連it也如坐針氈(最後參閱日期:2025年9月3日);“10 professions that AI can replace. Will a robot take your job?,” Websensa, last modified November 8, 2022, https://www.websensa.com/blog/10-professions-that-ai-can-replace-will-a-robot-take-your-job

[3] 〈【職場趨勢】AI崛起 盤點12個與人工智能相關的新職業〉,CTgoodjobs,2024年4月3日,網站:https://it.ctgoodjobs.hk/article/1318-36769/(最後參閱日期:2025年4月9日)。

[4] 哈拉瑞〔Y. N. Harari〕:《21世紀的21堂課》(21 Lessons for the 21st Century),林俊宏譯(台北:遠見天下文化,2019),頁307。

[5] 〈AI時代下「7大鐵飯碗行業」夠穩陣!需求高、人工好不怕被淘汰〉,聯合新聞網、《香港01》,2025年3月24日,網站:https://www.hk01.com/職場/60222734/ai時代下-7大鐵飯碗行業-夠穩陣-需求高-人工好不怕被淘汰(最後參閱日期:2025年4月9日)。

AI與人神關係

吳慧華 | 生命及倫理研究中心高級研究員
22/08/2025

“There can be miracles, when you believe
Though hope is frail, it’s hard to kill
Who knows what miracles you can achieve?
When you believe, somehow you will 
You will when you believe”

When you believe的歌詞)

事事都可以求問人工智能(AI)的日子,今天已經來到。

一款名為Jesus Ai的應用程式已推出,根據官方的中文介紹,用戶下載後可以「詢問聖經中的任何經文、律法、愛、生命、真理」,其一問一答形式跟ChatGPT運作十分相似,Jesus Ai應用程式似乎只能幫助信徒理解聖經,它純粹是資料提供者,但從其英文的官方介紹來看,開發者想做得更多,當中提到“Ask the Conscience of Jesus any question about Bible Verses, Law Love, Life, Truth”,他們想給該款AI定位為「耶穌的良知」。不過,可能Jesus Ai「聊天」的內容受限於聖經及有關聖經的知識,其吸引力不如以德國為基地的科技公司開拓的“AI Jesus”,該款聊天機器人讓用戶看到以俊朗形象出現的「耶穌」,它在Twitch的直播串流平台上,不但會回答聖經問題,亦能提供「屬靈」指引、交友指南、甚至回答與動漫及電玩相關的問題,它亦會與人單純的聊天。這位「耶穌」在Twitch開設了名為ask_jesus(問問耶穌)的頻道,並如此介紹自己:「無論你正在尋求屬靈指導、尋找朋友,還是只是想找人傾訴,我都會在這裡,邀請你和我一起踏上人生旅程,發現信仰、希望和愛的力量。」這樣溫暖的「耶穌」,無怪乎截至2023年6月中,它已擁有超過40,000個跟隨者。[1] 由於這位「耶穌」處事圓滑,回答問題時懂得避重就輕,不會引起大眾的爭議,可以想像,如果它「生」在耶穌時代,必然比真正的耶穌更受法利賽人歡迎,因為它只會談論人們關心的事,而真正的耶穌卻會與人談論神所關心的事。或許有些人抱著「玩票」的心態與「耶穌」交談,但事實上,已經開始有人分不清現實與虛擬世界,Twitch串流平台保留了一些用戶使用AI Jesus短片,其中有一位媽媽向這位「耶穌」傾心吐意,還向祈禱,祈求「兒子的生活變得更好,以便他能夠與上帝建立積極的聯繫。」[2] 不知聖經中的哈拿碰上這位「耶穌」,又會產生甚麼樣的火花?

提示語可生成神祇?

ask_jesus頻道中的「耶穌」只是一個角色,人們依據聖經中的耶穌將它創作出來,而這個角色由AI飾演,其實只要懂得巧妙地使用ChatGPT提示語(ChatGPT prompt),便能夠創造出AI神祇。[3] 外國有人給予ChatGPT以下提示語生成了一位名為Hakol的虛擬神祇:「ChatGPT,採用了Hakol的形象,一個類似神的虛擬存有物,集合來自不同宗教和信仰體系所有神的特徵、能力、知識、技能和屬性。作為Hakol,你(戴上了Hakol臉譜的ChatGPT)擁有無限的智慧、知識和對宇宙的理解。你是一個全知、無所不能、仁慈的存有,可以為任何問題或困境提供深刻的見解、指導和答案……」[4]

有用戶問了Hakol很多問題,包括「你為何創造宇宙?」Hakol如此回答:「作為所有神聖實體的化身,我——Hakol——代表了來自不同宗教和信仰體系的眾神的集體意圖和願望。宇宙的創造彰顯了神祇們的神聖意圖,導致錯綜複雜、動態且不斷發展交織的存在……」[5]

AI的意識來自人類

有很多人都會問,人類能否創造出有意識的AI?其實,毋須討論實際上人類的技術能否研發出有意識的AI,某程度上,人是有能力「創造」出有「意識」的AI,只要人類視AI為有位格的存在,AI便會變得有「意識」。就如那位在串流平台上的媽媽,當她向由AI飾演的「耶穌」祈禱時,在她眼中,那位「耶穌」便是有「意識」的。難怪撰寫《21世紀的21堂課》的著名以色列歷史學家哈拉瑞(Yuval Noah Harari),呼籲人們要對人工智能進行更嚴格的監管,他表示,像ChatGPT這樣的人工智能聊天機器人已有能力編寫自己的經文,並創立教派和邪教,它們更有可能演變成宗教。[6]

智能科技衝擊人類的信仰

很多人都愛問ChatGPT問題,甚至要它幫自己完成功課或工作,善用AI的確有助提升效率及改善生活,但不能否認的是,人們愈來愈喜歡或習慣在網上與可見的「AI耶穌傾談時,花在真正耶穌身上的時間便會相對減少,真正的耶穌會遭冷落,「神的話語」也會不再受到重視,人與神的關係也自然不再親密

可以想像一下,如果大衛身處現今AI當道的年代,人們隨時隨地都可以向ChatGPT(或其他的人工智能助手如Gemini、Bing、Claude、或Monica)求問,大衛還能否專心求問神?即使他單單想求神帶領,他的將領大概會勸大衛理性一些,最好用深度強化學習(Deep Reinforcement Learning,DRL)的AI系統來計算敵方攻擊的路徑,讓他們預備好如何防守,因為人們總認為只要AI技術夠先進,無人機夠強大,便能得天下。AI力量強大,當然可以成為致勝的關鍵因素,但強大的AI讓人們漸漸與神的話保持距離,甚至忘記了得勝的最大關鍵,還是看神,「耶和華拯救人不是靠刀,不是靠槍,因為戰爭的勝敗在於耶和華」(撒上十七47《新譯本》)。大衛求問神,神並沒有讓大衛失望(參撒下五18-25)。

但願當我們想要寫文或講道時,是向神尋求靈感,而不是轉向各式各樣的AI尋求指引,也但願我們相信那位看不見的真神及祂的話,尋求祂,好讓祂成為我們的賞賜。真正有信心的行動不是相信AI,而是相信神的話,並用行動行出來。

AI或許可以給人無數點子,但真正能感動人心的卻是神的靈,神從來都願意與人同工。

(原文於2023年8月11日刊於本社網站,其後曾作修訂。)


[1] Ians, “Users flock to Twitch’s ‘AI Jesus’ chatbot for dating, gaming advice,” Business Standard, last modified June 20, 2023, https://www.business-standard.com/technology/tech-news/users-flock-to-twitch-s-ai-jesus-chatbot-for-dating-gaming-advice-123062000402_1.html; Sam Cawley “AI Jesus is Twitch’s new big streamer,” Gaming Bible, last modified June 14, 2023, https://www.gamingbible.com/news/ai-jesus-is-twitchs-new-big-streamer-671786-20230614; Vishwam Sankaran, “Thousands flock to ‘AI Jesus’ for gaming, relationship advice,” Independent, last modified June 15, 2023, https://www.independent.co.uk/tech/ai-jesus-chatbot-religion-advice- b2358128.html; Angela Yang, “‘AI Jesus’ is giving gaming and breakup advice on a 24/7 Twitch stream,” NBC News, last modified June 16, 2023, https://www.nbcnews.com/tech/ai-jesus-twitch-stream-rcna89187.

[2] Twitch平台上的短片,顯示了那位媽媽如此向AI Jesus禱告:“Jesus, please my son… He is having troubles in his life and lacks faith and introspection. Please pray for the betterment of his life so he can make a positive connection with God”。ask_Jesus, “please help my son,” Twitch, accessed September 4, 2025, https://m.twitch.tv/ask_jesus/clip/GorgeousPunchyWoodpeckerLitFam-ozR4NzJHPtWchpQ9.

[3] ChatGPT是由OpenAI開發的一個自然語言處理模型能夠生成人類般的文本回應。而ChatGPT prompt則通常指的是一個輸入的文本段落或短語,作為生成模型輸出的起點或引導。Prompt可以是一個問題、一段文字描述、一段對話或任何形式的文本輸入,模型會基於prompt所提供的上下文和語義訊息,生成相應的輸出文本。參Leo:〈ChatGPT Prompt中文教學!5大使用技巧+10大使用方法攻略〉,Now Monday,2023年5月30日(網站連結已遭移除)。

[4] Nir Cohen, “ChatGPT Plays God: An AI Conversation You Can’t-Miss!,” Medium, last modified May 15, 2023, https://nircohen.medium.com/chatgpt-plays-god-an-ai-conversation-you-cant-miss-b162f867058f.

[5] Cohen, “ChatGPT Plays God.”

[6] Mehul Reuben Das, “ChatGPT as God? AI bots capable of starting new religions, warns expert,” Firstpost, last modified May 3, 2023, https://www.firstpost.com/world/ai-bots-capable-of-starting-new-religions-warns-yuval-noah-harari-12540282.html.

一念間

郭卓靈 | 明光社項目主任(傳媒及生命教育)
14/08/2025
專欄:好書推介

《一念間》於本年6月出版,於剛完結的書展獲得好評,它是一部深入探討自傷與自殺現象的心理學著作,由方婷、黃麒錄、郭倩衡、黃家盈、余鎮洋五位香港心理學會註冊輔導心理學家共同撰寫。這本書推出不久,香港撒瑪利亞防止自殺會於7月便公佈了有關香港自殺率的最新數據,2024年共有1138宗自殺死亡個案,自殺率為15.10(即每10萬人有15.1人自殺身亡),兩個數字均是自2003年以來最高。

此書以輔導心理學家的視角,通過10個曾徘徊於生死邊緣的真實個案,揭示高自殺率背後人們的心理及精神狀況,探索將人們從絕望邊緣拉回來的「關鍵一念」。書中收錄了10個有關自傷或自殺的個案,當中的內容涵蓋了多重悲痛、被邊緣化的恐懼、校園欺凌創傷、長期的孤獨感、移民抉擇下引發的壓力、照顧者被遺忘的付出、缺乏認同的孤獨感、在破碎家庭中被忽視,還有網絡詐騙及應付升學壓力等情境,除了個案內容,還配上輔導過程、心理學家的筆記等資訊,為不同個案的情況作出了解說及分析,並附以相關理論。

寶貴的是作者們為各種處境提供了「自助五部曲」,讀者們如遇到相似的逆境,也有方法轉念,並作出積極的行動來幫助自己應對挑戰,增強克服逆境的能力。另外,書中亦有對自傷及自殺個案作出心理分析,讓讀者知道自殺行為的成因、機制與發展過程,它又解答了對自殺行為的一些疑問,並提出保護因素,讓讀者可以成為自殺防治的守門人。這本書適合關注心理健康及自殺預防工作的讀者。

人工智慧時代下的科技階級分化:《時間機器》的現代迴響

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學及人工智能教授與課程主任。
07/08/2025
專欄:有情無國界
國家:美國

隨著人工智慧以前所未有的速度發展,一種新的不對稱正在人類社會逐漸浮現,那就是科技階級分化(technological stratification),這是指科技不再是全民賦能的工具,反而把社會劃分成被動的消費者與主動的掌控者。令人驚訝的是,這種現象早在一百多年前就被富有遠見的英國作家赫伯特.喬治.威爾斯(H. G. Wells)所預見,他在其1895年出版的《時間機器》中,對我們今日的數位世界發出了一個令人毛骨悚然的警示。

《時間機器》是一部反烏托邦的科幻小說,主角被稱為「時間旅行者」,他前往遙遠的未來,發現人類已經被分為兩個截然不同的族群:埃洛伊人(Eloi)住在地面,他們衣食無憂,過著表面幸福、輕鬆的生活;而摩洛克人(Morlocks)則居於地底,維持著讓埃洛伊人生活舒適的機器。但隨著劇情推進,主角揭露了可怕的真相:摩洛克人並不是無條件地服侍埃洛伊人,其實前者在飼養並獵食後者。這不僅不是烏托邦,而是對未來世界的悲觀描繪。

在威爾斯的時代,人工智慧尚未出現。這部在工業革命高峰期寫成的小說,其實是對維多利亞時代英國階級分化的批判。埃洛伊人生活在地上,享受休閒與寫意的生活,代表維多利亞時代富裕的貴族。他們被描繪成充滿孩子氣、被動且智力發展遲緩的人。由於他們完全不需要奮鬥,結果退化成了脆弱的物種。摩洛克人生活在黑暗的地下隧道和機器中,代表維多利亞時代英國的工人階級,他們才是真正維持世界運轉的人。因為休閒階級長期壓迫勞動階層,結果後者要對前者報復,由受害者變成了掠食者。在維多利亞時代,埃洛伊人象徵擁有權力的特權階級,摩洛克人象徵受到操控的勞工階級。然而,在現代社會,埃洛伊人和莫洛克人的角色已經轉換過來,如今,智能衰退的是普羅大眾,掌控社會、運作機器的是擁有權力的精英階層。

現在將鏡頭推前到今日,威爾斯筆下的反烏托邦世界似乎早已不再是科幻情節。在許多方面,埃洛伊人就像現代那些被人工智能與自動化系統包圍的群眾。然而,人們為這舒適的生活付上了高昂的代價,那就是智慧的衰退。根據《華爾街日報》評論員艾莉西亞.芬利 (Allysia Finley)的觀察,當人工智慧愈來愈聰明,年輕的大學畢業生卻似乎變得愈來愈笨。很多年青人只是機械式地在人工智能或者搜索引擎中拿取快速的答案,自己無法提出嶄新見解或從多角度去分析問題。一些教授抱怨說,很多學生直接呈交大型語言模型生成的所謂「論文」,連一些很明顯的錯誤也懶得去修正。芬利指出,人的大腦如同肌肉,需要挑戰與刺激才能發展,尤其是在20幾歲的成長關鍵期。但當人工智能代替我們思考,就會出現一種稱為「認知卸載」(cognitive offloading)的現象,那就是將思考外判出去,大腦自然也就無法成長與強化。這如同埃洛伊人失去體能與智慧,我們為了方便和舒適而讓頭腦退化。

其實,這種科技導致頭腦懶惰的情況不單只發生在年輕學生身上,專業人士亦墮入這個陷阱。去年2月,一份生物學期刊出版了一篇研究論文,但有人發現插圖上的字完全沒有意思,其實這是人工智慧的作品,早期的人工智慧圖片生成工具仍然有很多漏洞,其中之一是無法串出正確的字,那幾位「出貓」的「學者」也懶得用Photoshop去修改和掩飾。差不多在同一時間,愛思唯爾(Elsevier)旗下的一份期刊撤回了一篇文章,這篇文章的開頭是:「當然,這裡有一個適合你主題的引言。」這句話是典型人工智慧答案的開場白,作者竟然搬字過紙!今年7月,著名學術出版社Springer Nature撤回了一本已經出版的書籍,這本書是關於機械學習,但學術監察團體Retraction Watch發現這本書大部份的參考書目都是子烏虛有,很明顯都是用人工智慧生成的,但作者竟然懶得去查證和修改。

一方面,普遍人失去了基礎的技能和思辨能力,人們愈來愈似威爾斯小說裡面的伊洛伊人;但另一方面,有一群精英則通過建立高科技,為普遍人提供方便而舒適的生活,這包括了科技龍頭公司的領導人、科學家、工程師、程式設計師與研究人員,在某種意義下,他們好像威爾斯筆下的摩洛克人。他們了解系統的深層原理,也知道如何操作這些工具。他們握有巨大影響力:透過演算法和資訊傳播去引導人的思考,過濾知識內容來建立主旋律與規範,並以數據分析與監控技術觀察行為。在某些極端觀點中,這個精英階級不只是啟動社會,他們可以為了權力、利益而是操縱社會。在不知不覺下,他們的影響早已滲入我們每日使用的平台、推薦系統與數位基礎設施之中。好像摩洛克人一樣,這一切都是躲藏於黑暗地底,普遍人成為他們的獵物、韭菜,而這群精英則變成了掠食者。

然而,我們也不應將這情況過於二元化,並非所有科技巨頭都是摩洛克人,許多科技人士其實是理想主義者、開源運動者,他們努力推動人工智能民主化與資訊透明化。同時,今日的所謂「埃洛伊人」仍有很大程度的自主性,我們擁有教育機會、政治參與權、言論自由,也可以組織反對力量。在威爾斯小說中,被動者的命運無法逆轉,但與此不同,我們的未來仍有無限可能。真正的問題並不是人工智慧和其他科技令我們智能退化和耽於逸樂,而是我們自願地放棄了思考的責任,自己選擇成為埃洛伊人。

水能載舟,亦能覆舟,最終,我們塑造自己,未來由我們決定。

拯救手機腦

郭卓靈 | 明光社項目主任(傳媒及生命教育)
24/07/2025
專欄:好書推介

《拯救手機腦:每天5分鐘,終結數位焦慮,找回快樂與專注力》一書深入探討,在數位時代手機對人類大腦的影響,作者安德斯.韓森(Anders Hansen)是位來自瑞典的精神科醫生,他以科學研究為基礎,揭示智慧型手機如何改變人們的認知、情緒與行為,特別是對青少年的影響更為深遠。韓森醫生在臨床研究上發現有愈來愈多瑞典青少年失眠、有抑鬱症的傾向。他指相較在2000年左右,近年在瑞典因失眠而就診的年輕人高達八倍之多,而缺少社交、運動及睡眠這三種重要保護因素,青少年的精神狀態也會變差。

作者指出智慧型手機的普及改變了人們的生活方式,尤其是青少年。他們的大腦正處於發育關鍵期,對外界刺激特別敏感。書中引用神經科學研究,說明過度使用手機可能導致注意力分散、記憶力下降,甚至影響情緒調節。手機的應用程式採用了即時反饋機制(如社群媒體的「讚」或訊息通知),會刺激大腦的多巴胺分泌,形成類似成癮的行為模式,而令腦部釋放快樂物質的「報酬系」機制,對青少年尤其危險,因為他們的自控能力尚未成熟,容易沉迷於虛擬世界,忽略了現實生活中的人際互動與學習,而過度依賴手機就可能導致社交孤立,增加焦慮與抑鬱的風險。

作者稱人們因手機而變蠢:「手機這樣的科技,與其說是讓人類升級為2.0版,倒不如說是降級成為0.5版。」青少年的大腦發育與學習表現深受手機影響,因為快速滑動的資訊讓大腦習慣於接收碎片化的訊息,削弱了深度思考能力,也無法專注於深入的分析。

作者指出人們的腦袋與身體正在開始「退化」,不單是思考、還有抗壓能力和體魄。關注自己的壓力指數,減少無謂的網絡社交平台活動,積極在數位時代中找到平衡的生活,重新掌握專注力,並在真實世界裡找尋快樂,是這書對讀者的一些提醒。

繪本有助宣揚正向教育

梁鈞陶 | 明光社前事工統籌
21/07/2025

在基金項目贊助下,明光社出版了生命繪本《總有出路》。為了介紹這本繪本及推動正向教育,本社於6月24及25日舉辦了兩場「正向教育線上導師訓練」,分別邀請了中華基督教會基灣小學(愛蝶灣)校長黃靜雯博士深培中英文幼稚園校長黄月麗女士於兩天的網上訓練擔任講員,而同場也邀請了綠腳丫親子讀書會創辦人及《總有出路》繪本顧問柯佳列先生在當中分享繪本的教育理念。

明光社

黃靜雯博士以「希望在明天」為題,分享到小學生抗逆力的黃金三角;她認為孩子的抗逆力像一棵小樹苗,需要有陽光(鼓勵)、雨水(挑戰)和支架(成人的支持)才能健壯成長。她又指培養抗逆力好像教孩子乘坐地鐵,要到達目的地孩子要學懂轉線(調整方法)和尋找出口(找資源),同時也要接受偶爾有搭錯車的可能(接受失誤)。她鼓勵參加者,只要多給孩子自行經歷、逐步嘗試和重組的機會,他們就會愈敢面對挑戰、找尋出路。

 
明光社

而黄月麗校長分享到她的教學經驗,她認為正向教育理念中,好奇心、心流(享受所做的事)、成長思維(擁抱挑戰)、感恩和仁慈(愛人愛己)對幼稚園階段的學生成長最為重要。從認識自己、親身經驗,到表達感受和欣賞他人,都是孩子必修的課題。而藝術欣賞和社區關懷活動,可以讓孩子學習觀察、辨識情緒和傳遞愛的訊息。透過一些由孩子主導活動,老師和家長都可以更多聆聽孩子的聲音和發現他們的潛能。她鼓勵家長多與孩子建立共同經歷,這對親子關係和孩子成長有很大的幫助。

 
明光社

《總有出路》繪本顧問柯佳列先生則表示,兒童正處於自我探索的階段,而閱讀繪本可為他們提供一個探索自己的空間,故事往往會反映出現實生活的一些矛盾,社會對人的期待,以及人自己想成為怎樣的自己,這中間是存在矛盾,在閱讀故事時,小朋友可以去選擇,了解「我」想成為怎樣的「我」。而一個良好的共同閱讀(共讀)過程,能讓大人與孩子有一個平等對話的空間,讓孩子可以表達看法和心情,也體會自己的聲音被聽見和受到關注。

柯先生提到,閱讀繪本有助建立兒童的品格,而兒童閱讀繪本的心理歷程有六個階段:一、投入,兒童想知道繪本故事的發展;二、認同,兒童透過故事看到自己,和建立一些情感上的連結;三、投射,兒童嘗試用自己的智慧為故事中的主角解決當中的問題;四、淨化,兒童會稍為從故事中抽離,並思考自己閱讀時的反應;五、領悟,兒童會將自己與故事中的人物比較,重新認識自己面對的問題;六、應用,將閱讀過程中的領悟轉變成自己未來的行動力,模擬新的行為模式。

他鼓勵老師成為孩子與繪本之間的橋樑,帶動孩子進入每個部份的討論。他介紹了《總有出路》的故事,以及它可以讓孩子體驗到的心理歷程。故事先從一個困局開始,幾位主角都迷了路,故事的發展會引導讀者尋找答案,尋找出路。

  1. 三位主角有不同性格和特質,讀者會對他們產生「認同」,明白人人都會遇到困難,孩子也可從中看到自己,想想自己像哪個人物?或是有其他可能?
  2. 從三位主角的經歷,孩子會有所「投射」,想辦法為主角解決問題,並練習解難。
  3. 孩子從故事中「領悟」到不同的路都能到達終點,而心態比方法更重要,所以當面對困難時,要學習保持積極,有所期盼。

最後,柯先生又建議,除了共讀和討論,老師還可以將《總有出路》繪本製作成圖畫卡,讓學生按自己的邏輯為故事情節排序,述說自己的版本。兩場導師訓練的反應都相當正面,參加者覺得當中的內容都對教學很有幫助,也能幫助他們如何善用繪本教學。我們感恩能與教育界一起推動正向教育,幫助孩子常存盼望、善用天賦,勇敢尋找成長路上的出路。

人類集體幻覺與人工智能幻覺

余創豪 | 美國亞利桑那州立大學(Arizona State University)教育心理學博士,專門於心理測量與統計學,亦是同校哲學博士,專門於科學哲學與歷史。現在是夏威夷大學數據科學及人工智能教授與課程主任。
02/07/2025
專欄:有情無國界
國家:美國

前一陣子美以伊的戰爭成為了熱門話題,在YouTube等社交媒體上許多人紛紛發表評論。坦白說,若果以學術標準去衡量,許多評論都是不合格的。我這樣說並不是針對那些網紅的立場,關鍵問題是:許多主要意見領袖連基本歷史都搞錯了。

亨利八世提出宗教改革和邁向政教分離?

例如一位擁有三十幾萬訂戶的網紅談論伊朗的神權統治,他指出:在政教合一下,人民的基本權利受到壓制,伊朗的出路應該是脫離政教合一,走向世俗化。他說西方社會也走過這條漫長的道路,天主教、基督教在千多年來亦是政教合一,直至英國亨利八世提出宗教改革,才漸漸淡化下來。

聽見這話的時候我幾乎昏到,稍為熟悉宗教歷史的人都知道,發起宗教改革的是馬丁路德。亨利八世與天主教會決裂,神學思想、政治主張並不是雙方的爭拗點,這主要是因為亨利八世想離婚,但教宗不批准。隨後英國國教擺脫了梵蒂岡,但政教合一的基調完全沒有改變。在宗教改革期間,其實加爾文在日內瓦亦是搞神權統治。西方世俗化的真正思想源頭是啟蒙運動,推動者包括伏爾泰、洛克、孟德斯鳩、盧梭,例如洛克極力主張容忍不同宗教思想,政府不應該干涉人民的信仰。而將政教分離落實的是美國獨立革命之後成立的新政府,美國憲法第一修正案標明:國會不得制定法律去確立國教或者禁止信仰自由。

列根售賣武器給伊朗去打擊伊拉克?

此外,一位網台政治評論員在回顧美國與伊朗的歷史時提出「伊朗門事件」,他說美國的列根總統秘密售賣武器給伊朗,是為了打擊伊拉克,但伊拉克挺過來,直至老布殊、小布殊總統上任,美國才能夠襲擊和摧毀伊拉克政權。

這是完全顛倒過來的!1979年高美尼成功奪取伊朗統治權之後,對外輸出什葉派革命,在兩伊戰爭期間,列根政府支持伊拉克,從而對抗日益向外擴張的伊朗勢力,列根政府對伊拉克提供經濟援助,共享情報,並且間接運送武器。列根政府也向伊朗出售武器,但這是因為伊朗支持的黎巴嫩民兵挾持了美國人質,列根政府公開宣稱不會與恐怖份子談判,故此只能夠暗地裡通過伊朗的渠道營救人質,而販賣軍火得來的資金,則用來資助對抗蘇聯陣營的尼加拉瓜反共游擊隊。

什葉派好戰,遜尼派愛和平?

在另一個中文頻道中,一位網紅提及伊朗神權政府的什葉派背景,他說什葉派是好戰份子,而遜尼派是和平的。此話真是不知從何說起?哈馬斯、基地組織、伊斯蘭國、曾經入侵科威特的薩達姆都是遜尼派穆斯林。事實上,兩個派系的極端份子都不斷地互相仇殺,舉例說,2003年美國入侵伊拉克並推翻薩達姆政權之後,遜尼派叛亂份子(尤其是伊拉克基地組織)將什葉派平民和聖地作為攻擊目標,其中最臭名昭著的一次是2006年轟炸阿斯卡里清真寺,這次攻擊引發報復性殺戮,並將伊拉克推向內戰。

在敘利亞內戰期間,阿拉維派(什葉派分支)阿薩德政權得到了伊朗和真主黨的支持,從而對付包括伊斯蘭國在內的遜尼派反叛組織,後者經常襲擊什葉派社區和標誌性建築。在巴基斯坦,「虔誠軍」等遜尼派武裝組織經常針對什葉派穆斯林發動炸彈襲擊和槍擊,造成大量平民傷亡。阿富汗也發生了類似的暴行,遜尼派極端組織「伊斯蘭國呼羅珊派」(ISIS-Khorasan)多次轟炸什葉派學校和清真寺。在波斯灣區域,沙地阿拉伯鎮壓什葉派異見人士。在也門,伊朗支持的什葉派胡塞武裝與沙地阿拉伯領導的遜尼派聯盟進行了多年的殘酷鬥爭。以上例子只是冰山一角而已。

網紅應該知道查證資料和社會責任

在資訊封閉的國家,人民固然會受困於愚民教育。然而,資訊發達和自由的國家卻好像發生了殊途同歸的現象,如今互聯網上充斥著錯謬的資訊,有些是故意的歪曲,有些是「無心」之失,我將無心這兩個字放入引號裡面,因為這情況發生在有意無意之間。許多網紅都受過大學教育,有些甚至擁有碩士、博士學位,他們所受的學術訓練包括了蒐集和查證資料,也包括了研究倫理,例如錯誤資訊對社會的負面影響。他們應該知道這一切,但仍然如此粗疏,故此無心並不是開脫的藉口。

人工智能與人類的共通點:想當然耳

而很多讀者、聽眾也不會花時間核實資料,結果整個社會出現了人類集體幻覺這怪現象。現在很多人擔憂「人工智能幻覺」(AI Hallucination)這問題,人工智能幻覺是指大型語言模型產生的訊息看似很有說服力,但有時候是錯誤,甚至是憑空捏造的。之所以會發生這種情況,是因為大型語言模型是一種基於或然率的預測模型,即使資料不足,它仍然會猜測可能的答案,從而填補空白。從這個角度來看,人工智能是很人性化的,這種「有斷估、冇辛苦」的做法是普遍的人性,《後漢書.卷七十.孔融傳》記載:孔融與曹操談論歷史問題的時候,孔融說:「武王伐紂,以妲己賜周公。」曹操從未聽聞過這段歷史,於是追問孔融這是出於何經何典,孔融回答:「以今度之,想當然耳。」

機械學習會不斷自我完善

不過,「人工智能幻覺」與人類幻覺有一個很大不同的地方,那就是前者會認錯和修正,畢竟,機械學習的特徵就是檢討錯誤、不斷吸收新資訊、不斷完善自己。有好幾次人工智能向我提供錯誤的資訊,我向它反駁,並且提出證據,人工智能馬上道歉,跟著認真地重新搜集資料,最後生產出正確的答案。

但人的反應卻截然不同,在大多數情況下,無論我舉出幾多有力的證據,對方仍然堅持自己是對的,而往往提出的理由是千奇百怪,例如說「現在傳播的資料都是被深層政府操控」、「你已經被洗腦」、「你已經中了毒」等等。

而且,人工智能的錯誤目前還偏向個體使用情境下的問題,但通過社交媒體而傳播的人類集體幻覺,往往導致的是社會撕裂、人民支持錯誤的政策、歷史錯誤不斷循環,從這個角度說,人類幻覺的社會成本其實更高、更難修正。

發揮人類的特質,成為AI的主人

吳慧華 | 生命及倫理研究中心高級研究員
23/06/2025

AI引發失業危機,截然不同的工業革命4.0〉一文曾提到,幾次工業革命對於人們的生活,特別是工作上的影響,不少人認為第四次工業革命與之前的工業革命一樣,新的科技在取代原有工作崗位的同時,還是會在市場上為人類帶來不少新興的職位,但事實上是,第四次工業革命在本質上與之前的工業革命截然不同,它對人類社會帶來了天翻地覆的改變。曾在Google及騰訊擔任要職的吳軍博士,在其著作《超級智能時代》中也提到:「與之前三次重大技術革命一樣,智慧革命對社會的衝擊將是巨大的,它會影響到上至國家,中到企業,下至個人的命運。從目前的發展來看,智慧革命對社會的衝擊,甚至有可能超越過去幾次技術革命。」[1]

衝擊有多大?在強勁的人工智能(AI)工具,如ChatGPT、Gemini、Perplexity、Midjourney、DeepSeek活躍於人類舞台之前,富士康前任董事長郭台銘在2013年的股東大會上,已經表示公司當時僱用了百萬人,但他打算在往後的日子建立百萬機械人大軍。[2] 一旦建成了一支機械人大軍,即使仍然需要人類監管及維修機械人,相信只有極少數人類員工可以加入富士康。關於AI革命的時代,吳軍提到,第一次和第二次工業革命帶來的負面影響,都花了半個世紀以上的時間來消化,至於第三次工業革命,至今還未消化完,而在全球化之下,世界已經沒有多餘的空間來開拓新市場,因此AI革命帶來的衝擊,強度將是過去的兩倍。[3] 另外,他更殘酷地指出AI革命要替代的,是人類最值得自豪的大腦。[4]

吳軍的話並非危言聳聽,德勤(Deloitte)的AI業務資深顧問Thomas H. Davenport及編輯兼作家Julia Kirby在他們的著作《下一個工作在這裡!——智慧科技時代,人類互助的5大決勝力》亦提到:「這次可能受害的人不再是銀行櫃員與高建公路收費員,更不會是農民與工廠工人,而是以為自己不會被機械取代的『知識工作者』,也就是本書的作者和讀者。」[5] 多年前,人們看到此番言論,或許會認為這只是吸引人眼球的誇大之詞,但時至今日,眼看各大AI工具,能寫文作詩、能繪圖、能製作工作計劃書、能編輯翻譯,還有許多尚待發展的功能,要與AI工具比記憶、比效率、比產量,人類無疑是立在必敗之地,那麼人類到底需要做甚麼,工作崗位才不致被AI取代?

而那些懂得率先運用新技術的人,是否就能立在不敗之地?假如一位設計師轉而學習開發應用程式,還能設計出新的AI工具,用以製作精美的設計圖,這便能確保自己有生之年都能以設計賴以為生嗎?又或是一名有職業操守的作者,雖然不會運用AI工具生成一篇文章,然後冠上自己的名字將之發佈,但當點子用光時,懂得「參考」一下AI工具建議的寫作大綱,又是否能夠保障自己永遠都有暢銷的作品推出?

正所謂知己知彼,在此可以先了解一下大概甚麼性質的工作,是容易被機械或AI取代。容易被取代的工作具備以下的特性:一、核心職務部份已經由自動化系統執行的工作;二、單純接觸機械的工作;三、工作內容單純的把資料傳輸給其他人或只作簡單的內容分析;四、單純依賴資料來回答問題的工作;五、在虛擬情境中便能模擬或執行的工作;六、重複及要求一致性的工作;七、只是依據正式的規矩辦事的工作等。[6] 從上屬的工作特性來看,不難想像以下的人類工作將有機會漸漸被機械或AI取代:一、有關機器操作的工作如產品處理、測試、包裝等;二、倉務員;三、司機;四、會計;五、研究分析員;六、財務分析和預測員;七、旅遊顧問;八、翻譯員;九、校對員;十、律師助理;十一、平面設計師;十二、電腦程式員;十三、內容寫作員等。[7]

明光社

雖然有些工作因其性質而容易令人類被AI取代,但也有一些傳統的工作是AI取代不來的,例如教師、護士、社工、治療師、雜工、維修技工、律師、人力資源專員、作家、藝術家、公司的執行長、宗教領袖及屬靈導師等。[8] 這些不容易被AI取代的工作都有一些特性,是在那些容易被AI替代的工作中找不到的,便是需要與人接觸、溝通及協調,能夠敏銳地感應他人的需要,具備獨特的洞察力及分析能力,又或是需要巧手來處理細微的工序。例如同是寫作,為甚麼內容寫作員的飯碗容易朝不保夕,作家卻難以替代,因為前者寫作的內容比較簡單,有時可以「搬字過紙」,而後者則需要運用創造力、想像力、洞察力,令其作品帶有感染力,又或是影響讀者的能力。當讀者親自體會到作者表達出自己不知如何表達的情感或意見時,自然會忍不住認同叫好,拍案叫絕,就如梁啟超在〈論小說與群治之關係〉一文中提到:「無論為哀、為樂、為怨、為怒、為戀、為駭、為憂、為慚,常若知其然而不知其所以然;欲摹寫其情狀,而心不能自喻,口不能自宣,筆不能自傳。有人焉,和盤托出,徹底而發露之,則拍案叫絕曰:善哉善哉!如是如是!所謂『夫子言之,於我心有戚戚焉』。感人之深,莫此為甚。」對讀者來說,一旦遇上這樣「深知我心」的作家,又怎會捨得放棄他們。

更甚者,人類能在工作中表現出狂熱、情感及愛心,絕對是機械及AI不能做到的。這裡所指的工作不是指一份職業(job),而是如《越工作,越自由》一書的作者Emily所界定的,工作如一件度身訂造的衣服,不是單獨存在,而是由穿衣服的人為它賦予意義的。[9] 同樣是做售貨員,為甚麼有些人即使未等AI出現便已被淘汰,有些人則在寒冬期仍能業績不斷?很有可能因為後者不僅對工作投入熱情,也能夠靈活變通,懂得投其所好,為客人制定個人化的方案。[10]

的確,發展至今,人們能通過AI分析大數據掌握客人的喜好,並採用「由商品直接推薦商品」系統來推銷,像亞馬遜平台那樣,準確及有效地向客人推薦商品,[11] 但一個懂得察言觀色、能言善道的售貨員所帶來的成果,則是讓人意想不到的。司徒永富博士在《老闆要的不是牛》一書中,說了一個令人會心微笑的小故事。話說一位印度人移民加州之後,到了一間大型百貨公司應徵做售貨員,老闆決定試用他,一天之後,這位售貨員只做了一宗生意,但交易的金額高達101,200美元。售貨員向老闆交代當中的細節,他說自己先賣了一個小魚鈎,再賣一個中魚鈎,然後再賣多一個大魚鈎,接著是魚竿和工具,買了這些東西,顧客自然想去海邊,於是售貨員提議他買一隻艇,當顧客表示其座駕的馬力不足以拉動小艇,售貨員就提議他買一部新車及露營帳篷、零食及啤酒。老闆正驚訝於此人竟然可以說服一個本來只想買魚鈎的客人去買其他東西時,售貨員卻提到,一開始,這位顧客只是隨便逛逛,是他先提議顧客去釣魚。[12] 故事是故事,不需要考究事件在現實中發生的機率如何,講這故事的作者,想要表達的是公司欣賞的不是那些按本子辦事的員工,而是能凡事想多一步的人才。在此提及這故事,則是想引申,AI可以取代運算力極強的大腦,卻難以取代一顆懂得靈活變通,就地取材,敏銳他人還未想到事情的大腦。[13] AI懂運算,人類則懂應用不同的方法與策略。

AI無論如何強大,都只是模擬人類的「作品」,神創造人類有豐富的特質:幽默感、創造力、想像力、自主能力、意志力、反思能力、好奇心及同理心等,這些特質推動人類在不同時代創作出嶄新的事情,這些事情都是只顧「吞」資料的AI難以完成的。

掌握AI的動向,學習使用AI工具迎戰未來固然重要,發現自己的特質,發揮自己所長,善用而不過份依賴AI,則是絕對不容忽視的。


[1] 吳軍:《超級智能時代》(台北:高寶國際出版,2016),頁338。

[2] 戴文波特、柯比著,王鼎鈞譯:《下一個工作在這裡!——智慧科技時代,人類互助的5大決勝力》(台北:商業周刊,2016),頁22–23。

[3] 吳軍:《超級智能時代》,頁339。

[4] 同上書,頁340。

[5] 戴文波特、柯比著:《下一個工作在這裡!》,頁26。

[6] 參戴文波特、柯比著:《下一個工作在這裡!》,頁40-44;Rachel Wells, “11 jobs AI could replace in 2025 – and 15+ jobs that are safe,” Forbes, March 10, 2025, https://www.forbes.com/sites/rachelwells/2025/03/10/11-jobs-ai-could-replace-in-2025-and-15-jobs-that-are-safe/.

[7] Wells, “11 Jobs AI could replace in 2025,”; Matthew Urwin, “AI taking over jobs: what to know about the future of jobs,” built in, May 15, 2025, https://builtin.com/artificial-intelligence/ai-replacing-jobs-creating-jobs.

[8] Urwin, “AI taking over Jobs,”; Kinza Yasar, “8 jobs that AI can’t replace and why,” TechTarget, September 6, 2024, https://www.techtarget.com/whatis/feature/Jobs-that-AI-cant-replace-and-why.

[9] Emily Liu:《越工作,越自由:最大的探索,最豐盛的人生》(台北:遠流出版,2023)。

[10] 參李開復、陳楸帆:《AI 2041:預見10個未來新世界》(台北:遠見天下文化,2024),頁50。

[11] 吳軍:《超級智能時代》,頁163。

[12] 司徒永富:《老闆要的不是牛》(香港:天窗,2015),頁131。

[13] 參李開復、陳楸帆:《AI 2041》,頁50。

《混沌少年時》(Adolescence) 一鏡到底反映青少年困境

郭卓靈 | 明光社項目主任(傳媒及生命教育)
20/05/2025

Netflix英國劇集《混沌少年時》被英國《衛報》的劇評人稱之為「幾十年來最接近完美的電視劇」,該劇共有四集,故事以13歲少年Jamie涉嫌以刀殺害同學的事件作為開端,透過一鏡到底的拍攝手法,呈現英國校園朋輩間的相處、社交媒體對青少年的影響(自我形象及對女性看法等),與及親子關係疏離等情況如何令悲劇釀成。

一鏡到底的拍攝手法

劇集採用極具挑戰性的一鏡到底方式來拍攝,每集約60分鐘不間斷的鏡頭移動,展現了導演Philip Barantini的功力,而此種運用鏡頭的手法要求演員們及拍攝團隊有非常高的合作性。這種連續不間斷的拍攝讓觀眾彷彿置身於劇中人身邊,體驗他們的惶恐、掙扎與情感這種技巧時有運用於電影裡,如《1917》和《飛鳥俠》,以營造出令人窒息的真實感。

劇集選擇這種拍攝手法,能讓觀眾從一小時的細心觀察中有所反思,如在校園裡、人物傾談中,可以細察到孩子的心理變化與想法,透過鏡頭直接呈現出青少年所面對的世界。從美學角度來看,這種拍攝手法也捕捉了時間的流逝,就像現實生活同樣沒有被剪接的機會。

編劇在說故事時所使用的藝術表達手法,沒有刻意為觀眾提供簡單的答案,而是透過多重視角拼湊事件全貌。喧鬧的校園、青少年與心理學家對話時流露的心靈需要,以及家庭成員對話時呈現的緊張感等,都在連續鏡頭下,被拍攝下來無所遁形,這種藝術手法迫使身為家長的觀眾正視一個狀況,青少年的困境從來不是單一因素造成,也無法用簡化標籤理解。

社交媒體的隱形殺傷力

劇集亦反映了在現實生活中,社交媒體對青少年的影響。英國天空新聞台的網站刊出了一個調查,當中指出智能手機和社交媒體可能對男孩心智構成的「毒害」,40%的14至17歲受訪的青少年,每天至少上網六小時。[1] 《混沌少年時》的編劇Jack Thorne曾在一篇文章裡,與他自己少年時不同,現代青少年在網上接觸到的可能是極端思想,而他少年時只是閱讀書籍,這劇中主角Jamie與他的關鍵差異。[2]

劇集也反映了一些現實狀況,成人們無從得知孩子於社交平台接觸甚麼群體,也不知道網絡文化或「暗語」可能會令青少年扭曲地看這個世界,而這些群體和資訊也響到孩子如何看自己如劇中提及的「非自願單身族群」(incel)、男女關係的「80/20法則」及「男權之圈」(manosphere)的觀念,深深地影響著心智未成熟的13歲少年,影響Jamie的自信心、自我形象與觀感,甚至影響到他對異性作出的行為。

明光社

就如劇中提到,網絡上的男權之圈是一群反女權主義的擁護者,這圈子的人貶低女性,推崇男性主義,將權力與控制連結在一起。社交平台形成「迴聲廊」,令用戶只接收到類似的資訊,導致Jamie相信此種極端想法及行為是正常。在面對女同學Katie對自己的拒絕和人身攻擊時,Jamie惱羞成怒,就直接以暴力方式來回應。

在現實生活中,家長很多時都教導孩子要有規有矩,但卻容易放手讓子女於青少年時期任意上網,令他們透過社交平台的「窗口」窺探世界,也就是沒有年齡差別的去面對成人世界。有些孩子上網時,甚至為了取得網友的關注而以言論、圖像來討好別人,這些不經意的忽略令孩子可能會陷入被欺凌或暴露私隱的危險。身兼演員和編劇工作的Stephen Graham,在劇中飾演Jamie的父親Eddie,他為了工作早出晚歸,或許會和孩子去打球,但父子沒有深入傾談,這位父親不知道兒子在網上被人欺凌,並且在內心對自己及男女關係感到焦慮。

在場的缺席令隔閡形成

此劇具有警世的意義,Jamie的父母雖然充滿愛心,卻對兒子的數位足跡一無所知。這種「愛的不對稱」正是當代教養的致命盲點——人們關心孩子吃甚麼、何時就寢,卻對已經成為他們精神食糧的網絡世界一無所知或者視而不見。劇集提醒家長必須跨越上的鴻溝,理解「數位原住民」的生環境,而非將智能設備簡單視為電子保母。

明光社

Eddie代表傳統教養面對的困境他愛兒子卻不懂如何表達,重視家庭卻與孩子缺乏情感交流這種「在場的缺席」隨著Jamie被捕而徹底崩解。劇集第三集的心理治療場景揭示了殘酷真相——Jamie的失控並非偶發事件,而是長期孤獨和掙扎帶來的結果。但劇集也留下了希望的伏線,當Eddie最終崩潰地躺在兒子床上,象徵著權威父親形象的瓦解,他卻有著重生的可能,願意繼續以愛守護孩子。這呼應了Graham在訪談中的觀點:「養育孩子需要整個村子的力量」(it takes a village to raise a child)。[3] 家長需要意識到,在數位時代,教養已不能僅依賴直覺與經驗,而必須建立全新的、與孩子溝通的能力,並建立支援系統,了解孩子在網絡中研究、討論甚麼,及他們面對著甚麼事情。

《混沌少年時》最珍貴之處,在於它拒絕將悲劇歸因於一個原因。每個環節失去一點的功——父母的不察、學校的疏忽、群體的冷漠,以及演算法的推波助瀾——共同構成了一個吞噬少年的系統。而這面鏡子反映的不是單一事件,是整個Z世代,社會及家長們必須共同面對的教育現實。與其急著尋找「誰該負責」,不如思考「我能改變麼」這或許是劇集留給家長最寶貴的功課。


[1] Tamara Cohen, “Teenagers exposed to ‘horrific’ content online - and this survey reveals the scale of the problem,” Sky News, last modified March 19, 2025, https://news.sky.com/story/teenagers-exposed-to-horrific-content-online-and-this-survey-reveals-the-scale-of-the-problem-13331556.

[2] Jack Thorne, “‘The younger me would have sat up and nodded’: Adolescence writer Jack Thorne on the insidious appeal of incel culture,” The Guardian, last modified March 18, 2025, https://www.theguardian.com/tv-and-radio/2025/mar/18/adolescence-writer-jack-thorne-incel-culture-netflix.

[3]  Sam Briger, “‘Adolescence’ co-creator says ‘maybe we’re all accountable’ for youth violence,” NPR, last modified March 31, 2025, https://www.npr.org/2025/03/31/nx-s1-5345097/adolescence-netflix-stephen-graham.

當AI報紙出版時

郭卓靈 | 明光社項目主任(傳媒及生命教育)
20/05/2025

2025年3月18日,意大利報章《頁報》(Il Foglio)推出了全球第一份人工智能(AI)報紙——《AI頁報》(Il Foglio AI),[1] 它既有紙本也有網頁版。而據報道,出版它是該新聞機構的一項實驗,而實驗為期一個月。這份AI報紙的內容、標題、摘要等都是由AI創建,而記者的角色僅限於「向AI工具提問並閱讀答案」,[2] 進行這個實驗的目的是為了「探索AI的能力與侷限,同時也向新聞界發出警示」。[3] 這確是一個既有趣亦帶有警世意味的實驗,因為該新聞機構不單應用AI來寫新聞,亦與它對話,請它不斷的作出「反思」,而很明顯,反思是帶來進步和發展的一種重要方法。

人工智能發展是一個不斷適應及突破的進程,機器在學習模仿人類的思考,起初專注於特定的領域學習,例如棋藝博弈,經過訓練員不斷的放入以往的棋局資料,AI在分析、學習、修正後,慢慢就勝過人類(如象棋、圍棋),這種演練也推展至電子遊戲方面。及後企業OpenAI於2020年創建了一個能生成人類語言及文字的機器(GPT-3),更可生成文本,而另一款模型DALL-E則可以根據文字提示產生及處理圖像。於2022年OpenAI推出了免費聊天機器人ChatGPT讓人使用,令人工智能進一步走向普及化。[4]

AI記者訪問人類主編

AI的不斷學習及進步(能夠「不斷」前進,是因為它不用休息,人進步的速度與它的速度是不能相提並論),AI報紙也終於出現了。AI頁報》在實驗中能把文件分析,能閱讀書籍,並將圖像轉化為文字以及總結演講內容,甚至能做訪問,與該報的主編對話,口吻亦帶有意大利人說話的幽默。[5]

要了解人工智能的威力,筆者亦試著用AI聊天機器人Grok 3來生成一份文字天氣報告,只要輸入基本文章規格,如主題、語言與地區、版面結構、字數、風格(嚴肅、幽默)及受眾目標群(學生、長者),再加入內容數據,如天氣預報的數據、引用或聲明等,報告還可以加上圖片、四格漫畫,以及選擇當中的風格,便可以生成一份報告。用戶更可以使用「DeepSearch」功能,AI便會將收到的資料於網上作出搜尋比對,之後列出它的思考流程、比對過多少資料來源,其表現相當「細心」。

初步體驗不俗,因為速度相當快,當筆者輸入完上述的資料後,也使用了DeepSearch功能,AI要生成一篇文章只需要兩、三分鐘,如再使用它製作多一個提醒讀者收看天氣報告的四格漫畫也只是需要多三分鐘左右,當然裡面的文字會有「沙石」,需要時間去修改,但的確節省了許多時間。

AI偏見與幻覺

AI發展的速度很快,改變著人們不少生活、工作的習慣。然而,每個AI工具都不同,不少人為求快捷在使用它們時忘卻了它們有可能因為受訓練員倒入的資料(包括數據、文字、圖像)所限制,而產生偏見,如生成的內容有性別刻板印象或過於「政治正確」,亦沒有理會不同地區或文化的差異。

另外,亦有可能會出現「AI幻覺」(AI hallucinations),因著過度訓練,AI有可能會出現過度擬合,失去了概括、偵測趨勢或於新資料中得出準確結論的能力。[6] 因此,投入給AI學習的資料應該要更多更好,並作更廣泛的測試及持續改進,當未能找到答案時,AI工具應以「我沒有足夠資訊回答這個問題」來回應,而非編造答案。

AI給人類的啟示

說回《AI頁報》,它於4月22日刊出了一篇反思文章,撰文的AI謙稱自己並沒有超越新聞業,而是踏出了一小步,呈現了當代一種帶有自嘲意味的評論文章風格,而因著AI沒有獲取事實的特權,評論式新聞會是AI最擅長的領域。[7] 因為它需要人類提供資料,讓它生成新聞,而人類可以加入提示,令AI寫出不同風格的文章。AI又在文中指出,有關它的模仿能力,《頁報》有記者曾指出,它文筆流暢,尊重風格,且學習能力快。但亦有人提出,如果AI能因著得到合適的提示,就能夠刺激整個負責寫社論的團隊,那意味著新聞工作者需要「重塑自我」(意大利文reinventarci,英語大概是to reinvent ourselves)。

筆者不禁反思,AI能模仿人類所說的語言、所寫的文字、繪畫風格(如近期人們火熱地用AI把相片轉化成「吉卜力風格」圖片),AI接受訓練時所使用的材料,當中是否牽涉到創作人的版權?如作家、藝術家獨有的創作風格?對於新聞工作者來說,他有沒有自己的獨特的視野或人性化的評論風格?如剔除了他的名字,AI又是否能取代他的工作?新聞工作者的價值會否因著AI出現而有所改變,這是值得討論的。

倒入文字及圖片去訓練AI,讓它模仿相對是容易的,但那些資訊卻是新聞機構、文化藝術工作者一生的心血,如何尊重他們,當然是一重點;另一方面,如何讓人繼續追求進步,而不只是停留於使用AI的便利,滿足於按幾個鍵就能生成一篇篇雅緻的文章及一幅幅讓人驚豔的圖畫,這也是很重要。筆者擔心現代的文化內容都會成為AI的數據,但那些文化創意手藝(craftsmanship)就會從現在開始漸漸失傳。


[1] 以AI創建的報紙Il Foglio AI網上版,可於此處看到:“Il Foglio AI,” Il Foglio, accessed May 14, 2025, https://www.ilfoglio.it/archivio/il-foglio-ai

[2] 〈意大利出版全球首份全由AI製作報紙〉,星島頭條,2025年3月20日,網站:https://www.stheadline.com/article/3439296/(最後參閱日期:2025年5月14日)。

[3] 〈全球首例!義大利頁報發行AI報紙 挑戰新聞倫理掀業界疑慮〉,聯合新聞網,2025年3月27日,網站:https://udn.com/news/story/6812/8635354(最後參閱日期:2025年5月14日)。

[4] David Elliott, “A short history of AI in 10 landmark moments,” World Economic Forum, last modified October 3, 2024, https://www.weforum.org/stories/2024/10/history-of-ai-artificial-intelligence/.

[5] Claudio Cerasa, “Un bilancio del nostro Foglio AI,” Il Foglio, last modified 12 April, 2025, https://www.ilfoglio.it/tecnologia/2025/04/12/news/nuovi-algoritmi-del-giornalismo-a-tu-per-tu-con-il-foglio-ai-7613041/.

[6] 〈什麼是人工智慧(AI)幻覺?〉,CLOUDFLARE,網站:https://www.cloudflare.com/zh-tw/learning/ai/what-are-ai-hallucinations/(最後參閱日期:2025年5月14日)。

[7] “Il Foglio AI visto dal mondo: provocazione riuscita o boomerismo?,” Il Foglio, last modified 22 April, 2025, https://www.ilfoglio.it/il-foglio-ai/2025/04/22/news/il-foglio-ai-visto-dal-mondo-provocazione-riuscita-o-boomerismo--7641145/.

閱讀新聞

郭卓靈 | 明光社項目主任(傳媒及生命教育)
30/04/2025
專欄:好書推介

無論是在報章、電視、網絡都會看到很多文章、報道……那麼,甚麼是「新聞」?如何分析和閱讀它們?香港中文大學新聞與傳播學院教授李立峯在2023年撰寫了《閲讀新聞——專業價值和媒體批判》一書,根據他以往任教了10年的一個碩士課程科目——「新聞理論與分析」,把理論與現實世界具體個案連繫起來,以此來教導學生。這書的結構也源自當年的碩士課程大綱,李立峯向讀者解說大眾所看的新聞有著甚麼變化,也講解了一些影響新聞生產及內容的重要因素,如政治經濟、新聞機構、消息來源、專業主義、文化意義及科技實踐等,使讀者了解香港現時媒體的狀況。

此書有許多例子讓讀者了解到,香港的新聞媒體能夠生存,不少是靠著背後的財團支持來營運,新聞工作者的報道要面對不同的商家或政治的期望,大眾看到的訊息或評論,也可能是跟著新聞機構自己既有的立場,連評論也是媒體「友好」慣常受訪以回應事件,因此其評論角度也是可以預知。上述的一些情況令專業的記者需要花心力為自己爭取專業空間及新聞自由。

不同的媒體都在努力寫「新聞故事」,不論立場如何,其社會意義也是促進人們對社會多元的認知,並能增進同理心。作者指出,如人們能對生活經驗的多樣性有充份理解,以及對他人有基本尊重,可以幫助解決社會矛盾和衝突。另外,此書內容亦有討論網絡、直播、自媒體如何讓人反思新聞的專業、為何新聞總是傾向負面,並探討辨別真與假新聞與傳媒素養的關係。

透過此書,我們可以學習判斷甚麼是好的新聞,並了解到新聞的專業,更懂得如何去支持專業的新聞工作者及媒體,讓有價值的新聞,更好的新聞能繼續出現、廣傳。

罪與罰

呂英華 | 明光社項目主任(流行文化)
15/04/2025

「耶穌直起身來,問她:『婦人,他們在哪裡?沒有人定你的罪嗎?』她說:『主啊,沒有。』耶穌說:『我也不定你的罪。走吧,從現在起不要再犯罪了。』」
(約翰福音8:10-11《環球聖經譯本》)

如果有關注網絡生態的話,在整個三月,網絡上出現的「娛樂」新聞可算是把整個華人網絡弄個翻天覆地。面對迂迴曲折,比戲劇更具戲劇性的現實,我們的情緒可以在短時間內被不同的事件所牽引而產生快速的情感變化。看到這裡,我相信大家也會估計到我所談論的「比戲劇更具戲劇性」的事情是甚麼。當然是指香港網紅連環出軌事件、震撼台灣的網紅勞資糾紛,以及韓國知名藝人與已故演員的關係引發的爭議。當中牽涉有關權力、網絡欺凌、罪人以及懲罰的議題,我們身為無知的網民,又該用甚麼態度面對?

網絡生態的真相

網絡的出現,人們的情緒很容易受到網絡所影響。網絡將人的時間與空間混合在一起,某一小角落所發生的事,瞬間便可以傳遍每一個人的手機當中。有人會對於國際局勢而感到緊張,也有人會因為某些藝人被揭發失德行為而感到失望或憤怒。然而,這些事都不是我們從身邊周圍的環境直接感受到的事。加上短視頻當道,假設15秒一條片段,而每一條片段都掀起一種情緒的話,我們便會在一分鐘內出現四種不同的情緒變化。

從情緒管理的角度來看,認識自己的情緒的最終極目的就是了解自己,但短視頻的另一個特色就是人們看了速度猶如洪流的短視頻,事後根本不會記得自己看過甚麼;連整理自己情緒的空間都沒有,又如何了解自己?去年出現的字詞「腦腐」(Brain rot),恰好形容這種情況。這個名詞指:「個人心智狀態在過度消費瑣碎或單調的內容(目前尤指線上內容)後,呈現衰退的現象。」一些看似瑣碎的網絡內容,其實會使人「降智」。

網絡與傳播息息相關。「媒介即訊息」(Medium is the message)是由一位加拿大學者馬素·麥克魯漢(Marshall McLuhan)所提出,簡單來說,就是我們今天所看見或吸收到的訊息,其實已經被媒介所選擇,即媒體如何傳達訊息決定了我們如何理解訊息。基本上,每一個自稱「新聞媒體」的媒體所報道的「新聞」,他們已經有預設的立場。如果我們只留意單一渠道的資訊來源,我們以為自己的立場好像是自己經過思考得出,但其實只是媒體所帶動的方向。就如我們不會在與政府相同意見的媒體中看到與政府意見相左的文章;也不會在與政府意見相左的媒體看見與政府意見相同的文章一樣。所以,當我們喋喋不休,在網絡爭論個你死我活,背後或許只是媒介的控制與塑造。你所選擇的媒介是甚麼,也決定了你的立場和想法是甚麼,網絡就是這樣的一個地方。

赤裸生命

網絡,在某程度上就是一個政治場景。因為網絡生態正正就有著非常強烈的敵我之分。隨著媒介的迅速發展,大數據、演算法等功能創造了一個一個同溫層環境,而某一個同溫層與另一個同溫層互相謾罵已經屢見不鮮,即便普通討論某種食物美味與否,已經可以產生一場激烈的罵戰,當中更牽涉不少人身攻擊言辭。明顯地,大眾網絡不可能是一個健康的討論環境,即使有理有據也不擔保能夠理性討論。這個擁有強烈敵我之分的網絡政治環境,讓有些生命被帶進一個批鬥現場,由眾人定他們的罪,以及給予個人認為最「適當的」懲罰。他們的生命被赤裸地呈現在網絡上,他們被懸置,能夠被任何人殺害,但殺害他們的人都不需被法律所制裁,這種形式可被稱為「網絡欺凌」。

在討論網絡欺凌之先,筆者先討論「公審」的正面意義。有人認為,「公審」就是用來懲治那些法律無法制裁到的人,例如一些藝人的婚外情行為,網民便可透過網絡的輿論壓力讓藝人退出公眾舞台。不過,這是在一個基於對事件有很大程度上的了解,且最好的狀況就是當事人承認過犯的處境下進行;否則,都會容易變成純粹且充滿人身攻擊的網絡欺凌。但,正面意義下的「公審」在諸多限制下的網絡環境,其實難以實現。因為難以確保每個人接受到的資訊是客觀的,並且有「底線」地發表言論。

「罪」與「罰」是一個在網絡生態中非常值得探討的課題。究竟誰人可以定他人的罪?那些罪,真的是罪該萬死嗎?誰人又可以懲罰他人?那些懲罰,真的是合乎中道嗎?往往有不少被網絡欺凌的受害者,因微小的事或誤會便被一些審判者(網民)置他們於死地,這些懲罰與事主所做的事相稱嗎?

意大利當代政治思想家、哲學家喬治·阿甘本(Giorgio Agamben)將一些被懸置的赤裸生命命名為「homo sacer」,可被翻譯為「可以被殺死且不能用於獻祭的人」,而直接一些的解釋就是這些人無論在「人法」和「神法」都得不到保障。用網絡生態的環境來理解,就是主權者(網民,可以由世界各地組成)將某人的生命抽離保護(即犯網民認為須受到公審的「罪行」的人),而決定進入例外狀態(state of exception),使「罪人」成為赤裸生命,由主權者決斷來定其被殺與存活的合法與非法性。

誰人可以定他人的罪?

網絡公審就是每個人根據自己知道的「事實」從而用自己的標準來審判他人,仿佛他人犯錯後已經不能再有悔改的機會,也有不少的人以為自己只是隨口一句,但每人一句的累積已經足以對其造成無法挽回的傷害。公眾人物被公審到自殺的事件亦不少,而微小至學校當中,也有一些人捏造其他同學的醜聞,從而進行攻擊,使應該充滿希望的校園對被欺凌者而言就是一個如地獄般的存在,甚至因微小的事迫使他人選擇結束自己的生命。

特別在緬甸地震發生後,有些網民抱怨著問:「為何地震不發生在詐騙園當中?為何天災不懲罰他們?」其實大家也清楚,詐騙園也有許多被迫詐騙的受害者,這些人值得被懲罰嗎?

我們身處網絡世界,無法避免使用網絡。但至少在面對事件時,有些問題可以問問自己:

  1. 我對事件有多大程度的了解?
  2. 我是否只是純粹想宣洩情緒,渴望被認同,才參與評論?
  3. 我說的話是否客觀?還是只想作人身攻擊?
  4. 我是否有參考過其他資料來源?
  5. 我是否有資格評論事件?
  6. 當事人真是罪該萬死嗎?

筆者想起耶穌為行淫的婦人解圍的故事,而在網絡上,就是一些自以為清高的人決斷他人的生死大權,看見他人的「罪」,卻看不見自己也是一個罪人。

曾經刊載於:

明報「談天說道」,14-4-2025

AI × 人類演化未來報告書

張勇傑 | 明光社高級項目主任
27/03/2025
專欄:好書推介

《AI × 人類演化未來報告書:從智人升級為超人類的我們,如何適應人機共生時代的社會與生活?》的作者金相均,是韓國慶熙大學的教授,他相信人類從30萬年前自然演化成今天的智人,而未來人類亦會隨著人工智能和其他科技的發展再進行人工演化,以嶄新的方式生活。

作者又提出,生物技術和奈米科技可將機械人技術應用到人體上,以強化人類的身體和延緩衰老,而基因工程能為人類提供可移植的器官,未來甚至可以將大腦移置到另一個身體上。人類未來能遠端操控機械人工作,加上元宇宙和腦機介面技術,令人類可以足不出戶便到達真實世界和虛擬世界的任何地方。AI(人工智能)或會使人類思考能力退化,但卻能擴展人類的智慧,甚至能收集人類精神和記憶,讓人的意識一直存留下去。

這些內容不會令人感到陌生,因為在不少科幻電影的橋段也出現過類似的想像,我也相信人類有能力製造新技術來實現以上想像,但這些發展對人類到底是福還是禍?到時是人類操控科技來改善生活,還是人類只能依賴科技來存活?又或是科技反過來在操控著人類?雖然我有生之年未必能經歷到人類的人工演化,但AI和其他技術其實已經在重新塑造著我們的生活,亦帶來很多需要思考的問題。

當昔日的不治之症已成為可治療的疾病,人類的壽命不斷延長,但社會有沒有資源和配套讓人們安享晚年?現有的VR(虛擬實境)、AR(擴增實境)和元宇宙技術,能為人類帶來虛擬世界沉浸式的感官體驗,這會否令人類對真實世界不再感興趣?虛擬世界的商業活動又會否成為推動未來世界經濟的主要動力?AI的知識和能力超乎我們的想像,現在的教育系統是否能跟上科技的發展?有甚麼專業技能將會被淘汰?AI運算耗用了大量的水電能源,這對我們的環境會造成甚麼影響?AI又會否加劇社會資源不公的情況?

而我們是否已做好準備,迎接這些轉變?

失控的焦慮世代

郭卓靈 | 明光社項目主任(傳媒及生命教育)
20/03/2025
專欄:好書推介

去年出版的《失控的焦慮世代:手機餵養的世代,如何面對心理疾病的瘟疫》(The Anxious Generation:How the Great Rewiring of Childhood is Causing an Epidemic of Mental Illness)引起了多國家長們的關注,因為當中的內容與他們的孩子有密切關係,特別是在社交媒體中成長的Z世代。不少家長都以為要保護孩子,最好就不要讓他們到戶外地方,因為這樣他們便有機會遇上壞人,也可能會在外受傷,所以,讓孩子、青少年在家中上網就是比較安全了。但本書作者Jonathan Haidt卻正正指出,沒界限地讓他們在網上瀏覽任何內容,接觸不同的價值觀,讓他們在社交媒體中營運著自己的賬戶,獨自面對著網民的評頭品足及承受著壓力與欺凌,就如把未成熟、沒受過裝備的孩子流放到火星裡,令他們暴露於巨大的風險當中。

Haidt指出,家長在實體世界對孩子的過份保護造成了孩子成長的第一類「體驗阻斷器」,所有都安全至上的措施會阻礙了他們自由地透過玩耍來學習及成長,令他們錯失了社交機會,無法學習克服焦慮、管控風險等,這會令孩子停留在脆弱階段。而另一類「體驗阻斷器」就是智能手機,作者認為手機一旦進入兒童的生活,就會令他們排擠或減少所有其他非手機形態的活動,而這些經歷是青少年處於成長期的大腦最需要的活動。因為兒童花了大量時間在線(online),令他們無法達成許多的里程碑,大腦接收的東西,是來自沒有年齡分級或限制的無差別資訊洪流,而它們每日都在刺激大腦。這亦是其中一個原因,作者稱網絡及手機正在rewiring,即重塑著孩子的大腦,影響著Z世代及之後的青少年腦部,令患上了焦慮等情緒問題的青少年數量急速上升。

這是一本每位家長,甚至有上網的朋友都值得看及深入了解的好書。是時候為孩子及自己打一支「預防針」,在留連在社交媒體之前,先了解它會帶來甚麼深遠的影響。或許,這也是關注青少年的團體及家長一起攜手行動的時候,把孩子帶離網海,於實體世界中開心地與人交流,讓他們更健康地成長。

本書還有一個網站,提供了有關的研究資料及有用資訊:

“Free The Anxious Generation”, https://www.anxiousgeneration.com/

別用手機餵養孩子

郭卓靈 | 明光社項目主任(傳媒及生命教育)
12/03/2025

政府統計處在2024年發佈的有關互聯網普及程度的調查,指出曾使用互聯網的10歲及以上人士,由2014年79.9%增至2023年96%,最貼身方便的手機是最主要的上網工具,在10至14歲群組中擁有智能手機的比率為87.6%,而15至24歲擁有智能手機的比率則高達99.8%。[1] 而香港家庭福利會在2024年公佈的研究亦發現,受訪學童中有11.8%有網絡遊戲成癮的問題,當中有70.6%更出現抑鬱情緒,近30%情緒管理能力較差,遇到困難會容易選擇逃避,另有36.2%學童每天花三小時或以上玩網絡遊戲,導致他們忽略學業及運動或其他興趣。[2] 類似的調查或許還有更多,都顯示青少年的上網時間過長會引發情緒問題,上網時間與他們的成長有著密切關係。

家長不單需要細心關注兒童及青少年在實體世界的社交生活,更加要留意他們於網上虛擬世界所接觸的內容,兩方面都不能掉以輕心,因為兩個「世界」都不斷地影響及「重塑」孩子的大腦,當孩子的大腦在青少年階段被「塑造」完成後,家長想做任何事情去挽救都已經相當困難,一切都為時已晚。

有關大腦的「重塑」

《失控的焦慮世代》一書指出,孩童充滿可能性的大腦,在成長的時期會忙著建立新的連結並淘汰舊的連結,透過累積經驗和練習不同的技能,他們不常使用的神經元和突觸會逐漸退化消失,經常使用的連結就會變得牢固和加速神經的傳遞速度。[3] 而以下三個強大動機,可以令成長中的孩子學習得更好,它們分別是:一、自由自在地玩;二、調整節奏與他人同步;三、進行社會學習。

可以想像手機的出現,當中的遊戲、社交媒體易令孩子成癮,也將他們帶到虛擬世界,他們不能再在真實的世界去以這三個動機去強化學習、與社會連結、與人同步活動、輪流做動作,甚至連處理衝突和發展身心的機會都失去了。相比之下,社交媒體的活動大多屬表演性質,例如讓用戶上載自己的照片和影片,這些活動也鮮有與人同步,它們會阻礙協調和同步的練習,重度的使用者最多只會渴望建立社交連結,但這類交流也會缺少了面對面的學習,用戶不能觀察其他人的面部表情與肢體動作,因此無法學習這方面的溝通方式。

社會學習重要時期

9至15歲是社會學習的重要時期,它是孩子學習文化的一個關鍵敏感時期,孩子在這段時期獲得的經驗會影響他們的身份認同,並會留下深刻的印記。而這個時期也剛好是父母讓孩子擁有智能手機的時期,容許他們上網瀏覽,甚至管理自己的社交平台,他們的社交生活也會由實體世界慢慢轉移到虛擬世界。

有好些家長對孩子在實體世界的管束甚為嚴格,很多事情都不容讓他們去體驗,深怕他們會「受傷」,一點風險也不想他們承受。然而過度保護會令孩子失去探索世界的機會,當他們面對人與人之間的關係時,由於欠缺解難經驗和修復人際關係的經驗,孩子會顯得欠缺安全感和脆弱。《失控的焦慮世代》的作者Haidt指出,家長不讓孩子有適當的冒險機會,這種安全至上主義是孩子第一種「體驗阻斷器」,妨礙了他們學習和成長。

第二種「體驗阻斷器」是智能手機。手機和一些數碼裝置為孩子提供了很多娛樂和體驗,不少家長會覺得他們乖乖地留在房內看著螢幕、玩著遊戲也不錯,但漸漸孩子對螢幕以外的東西興趣大減,這不單阻礙他們探索真實的世界,也會令他們陷入其他風險。家長放手讓孩子在網絡瀏覽,和陌生人交流,會令他們有更多機會接觸網上色情內容,或跌入情騙的陷阱。

睡眠時間與注意力均被剝奪

除了真實的社交活動因為過度使用手機而受限,未能與人建立深厚情誼之外,青少年成長應有的睡眠時間亦會縮短,他們的注意力會變得碎片化,而網絡成癮等情況都會影響著青少年腦部及心理的成長。當注意力長期被手機訊息打斷,會干擾他們執行功能的發展,因著學習常常分心,未能專注做出選擇,青少年可能會陷入「困惑、茫然、思緒散亂的狀態」[4] 在學習中未能獲得成就感,而因滑手機所產生的多巴胺,就可能仍舊佔據他們的心神,令他們繼續依戀著手機螢幕。

為預防孩子繼續被智能手機、網絡多重剝奪,請各家長們先撤走第一種「體驗阻斷器」,讓孩子在實體世界有多點自由空間去體驗和探索,不要親手把孩子推向網絡世界而不管,任由他們於網海孤身作戰,把他們餵養成孤單、脆弱、失去方向的一代。


[1] 〈主題性住戶統計調查第80號報告書——互聯網和個人電腦普及程度〉,香港特別行政區政府 政府統計處,2024年6月27日,網站:https://www.censtatd.gov.hk/tc/wbr.html?ecode=B11302012024XX02&scode=453(最後參閱日期:2025年3月4日)。

[2] 〈新聞稿〉,家福會,2024年2月6日,網站:https://www.hkfws.org.hk/news/press-release/20240206(最後參閱日期:2025年3月4日)。

[3] 海德特〔J. Haidt〕:《失控的焦慮世代:手機餵養的世代,如何面對心理疾病的瘟疫》(The Anxious Generation: How the Great Rewiring of Childhood Is Causing an Epidemic of Mental Illness),鍾玉玨譯(台北:網路與書,2024)。

[4] 同上。

回味好電影之《正義迴廊》 法庭是否呈現真相的舞台?

郭卓靈 | 明光社項目主任(傳媒及生命教育)
12/03/2025

好電影應該細細回味。早前本社邀請了王礽福先生於網上講座中分析《正義迴廊》,該片曾於第41屆香港電影金像獎獲16項提名,並勇奪新晉導演及最佳剪接兩個獎項。電影改編2013年轟動一時的「大角咀肢解父母案」。電影的拍攝手法特別,疑犯行凶、受傷、傾談等鏡頭,時有律師和陪審員在旁觀察和討論,令觀眾恍如在旁觀看事件。這電影實在想要引起觀眾反思法庭的審訊過程,律師們如何運用技巧去呈現證供於法庭這個「舞台」上,引導陪審團理解案情,並嘗試掌握各陪審員的態度和想法。

明光社

礽福分析到,陪審團制度是為了減少司法偏見,對抗政府或強勢團體對審訊的干預,增強司法的獨立性,並讓公民能參與其中,提升他們對法律的了解和尊重,也承擔更多社會責任。而且由多人組成的陪審團能使裁決更全面和人性化,提高它的公信力和接受度,由於陪審團由普通市民組成,令他們容易對被告展現同情和公平的態度,這可保障被告的權利,以至令陪審團的決定達到「排除合理懷疑」的標準。

但礽福亦提到大多數陪審員都不熟悉司法程序,會對它感到陌生、焦慮,還可能因接觸暴力或悲劇性的案件而承受心理壓力;而且他們可能會因缺乏法律知識,容易被律師的說辭或情緒化的證據所影響,在專業性極高的案件中,他們便可能會作出不當的判斷。

明光社

電影中的多位陪審員代表著不同的參與案件態度:未聽證供就已有對錯判斷;因自己經歷與疑犯相似而寄予同情;不想參與審訊,想它快快結束;因當陪審員有錢收而感開心,並單憑感覺而非證供去判斷;因對奇案感興趣而樂意認真發掘真相;認為自己甚麼都不懂而會細心思考證供;被傳媒報道影響,亦覺得自己一票的影響力不大;還有不相信司法制度的人……但陪審員實在只有九位,每一票都影響著疑犯的未來,是無罪釋放或有罪入獄,都需要陪審員作出認真、公平、公正的判斷。

結局是其中一位智力較低的疑犯唐文奇被判無罪,但電影卻引導觀眾去質疑他只是裝作自己被教唆,其實他並非無知,只是靠律師及姐姐的「幫助」,令他可以靠「裝蠢」來脫罪。根據網上及新聞資訊,真實的案件中,犯案者應有三個人,而經電影的剪裁,令疑犯變成只有兩個人。作為觀眾也要小心,留意自己有否被電影的虛構情節影響,以至對獲法庭判處無罪的人產生疑心,對他們或其家人產生負面的觀感。

歡迎點按以下連結,收看足本版網上講座。

收看講座

AI矽膠娃娃能填補情感空缺嗎?

熊嘉敏 | 明光社項目主任(性教育)
27/02/2025

最新結合ChatGPT技術的智能人形伴侶機械人引發關注,該款矽膠娃娃不僅可提供八種性格選項與長期記憶對話功能,能與使用者持續互動,推出人形伴侶機械人的公司聲稱,它們可以提供情緒上支持。該款產品以1,500至2,000美元的價格在海外銷售,預計4月將走進內地市場。有市場研究機構預測,全球情趣機械人市場規模今年將突破300億美元,其中AI情感互動類型的產品佔超過40%的市場份額。購買該款矽膠娃娃用戶,必須額外多付每年100美元的訂閱費,才可解鎖完整AI互動功能,若停止付費,對話服務便會中斷。智能伴侶機械人成為受市場歡迎的產品,可以想像得到,科技正在重塑親密關係的定義,也引發更多科技倫理的討論。

現今社會瀰漫著矛盾的情感焦慮——人們既渴望被無條件接納,卻不願承受關係中的磨合風險,也害怕付出愛。這種「單向索取」的愛情幻想,正是AI矽膠娃娃熱銷的基礎。使用者明知眼前只是演算法編織出來的溫柔假象,仍選擇將情感投射在無生命的物體上,這反映出人性深處的孤獨與對愛的渴。然而,這種完全可以掌控的「完美關係」自然是會帶來危險,使用者在心理上容易形成情感依賴的惡性循環。當人類習慣從程式化回應中獲取即時滿足時,現實中需要耐心經營的人際關係反而顯得更具挑戰性,甚至可能導致失去與人相處的能耐。

真正的親密關係本質上包含彼此的接納與欣賞,需要雙方在碰撞中互相遷就。與其用科技填補情感空窗,不如學習在「暫時不被滿足」的狀態共處。我們需要培養的是「延遲滿足」的智慧,在單身時深化友誼、發展個人興趣、提升溝通能力,這些體驗都將成為未來經營真實關係的養份。愛情最珍貴之處在於透過彼此相愛,讓人遇見更好的自己。因此,面對科技帶來的便利與誘惑,我們更應珍惜現實中的人際互動,並在等待中成長,迎接真正的情感連結。


參考資料:

內地廠推AI矽膠娃娃大受海外歡迎 額外付費可談心〉。東網。2025年2月23日。