Deepfake的陰暗面:詐騙與色情
燭光網絡 164期 (p.4)

人工智能Deepfake(深度偽造技術,下稱:深偽)的發展,能透過深度學習算法合成高度逼真的影像、聲音或影片,讓人難以分辨真偽。然而,技術愈加發展,它愈成為全球網絡詐騙及合成色情圖片的網絡欺凌工具,令更多受害者蒙受巨額損失、心理創傷和社會信任崩潰。
深偽原本被視為創新工具,能夠用於娛樂產業(如:電影特效、遊戲開發)、教育(結合VR技術來重現歷史場景)、娛樂(如:換臉應用程式)等。然而,在網海中卻有不少人濫用它來達到不良目的,如製造虛假新聞、政府宣傳、欺騙和個人騷擾等負面用途。雖然根據報告指出,2024年香港深偽詐騙事件增長比率(194%)比全球的四倍增幅為低,但增幅都接近兩倍。[1] 而2024年詐騙事件增幅最高五大行業的首兩位是交友(265%)及線上媒體(180%);深偽欺詐類型佔今年所有企圖欺詐事件的 7%。[2]
冒充名人專家博取信任
不當使用深偽方式作為欺詐手段的其中一種方式就是騙取信任。騙徒製作虛假人物與受害人發展網上情緣,誘騙大額投資;又或是冒充名人、高層來取得別人的信任來達至騙財目的。去年就有一深偽技術的大型詐騙集團被偵破,騙款高達3.6億港元,他們以精心設計的「社交工程」配以深偽技術生成的虛假影像和聲音,從情感層面攻破受害者的防線。據報道稱無論是虛假的網上情緣、假扮加密貨幣投資專家,還是編創悲情故事來博取同情,集團成員透過詳細分工和專業訓練,使用深偽技術製作假聲、假人,其效果逼真得連專業人士都難分真假。此外,他們更配以團隊業績榜、聘請專人教授騙人心法和如何讓受害者同情、欺騙其情感,成功吸引大量本地及海外受害人墮進騙局。[3]
最近,中國央視新聞亦揭發有網上直播帶貨者以深偽技術假冒名人,包括奧運冠軍運動員全紅嬋,以她的聲音,稱自己為了「讓家裡的生活過得更好一點,將老家土雞蛋分享給粉絲們嚐嚐」,獲粉絲們大力支持,騙得了4.7萬的訂單,這不單是嚴重侵犯了當事人的權益,而且還涉嫌違法違規,冒充當事人而得到粉絲支持獲利。[4]內地有網絡專家稱,技術上只需要一段當事人清晰的語音樣本,任何名人、專家的聲音都可以被複製,在網上被打造成上萬粉絲的帳號,再為後續牟利鋪路,又或是被操縱說出攻擊者設定的內容。然而,在內地政府已明文列出:「不得利用深度合成服務… 侵犯他人合法權益等…的活動」[5],明顯上述行為已屬違法。
生成虛假色情照成欺凌手段
另一種不當使用深偽工具就是製作合成色情圖片作為販售及網絡欺凌工具。深偽色情早已在2017年出現,早期的做法是運用AI科技把影星的樣子拼合到另一個身體上,大多為色情作品。由於牽涉到非自願及數量大幅增加,迫使色情網站及社交平台作出限制及禁止深偽色情內容。及後科技再於2019年發展到可將女性圖像生成出脫掉衣服的模樣,稱之為DeepNude(深度裸體)。
根據BBC新聞資料所指,美國網絡安全公司的研究發現:「2019年至2023年五年間,網上深偽影片增加了5.5倍,高達98%含色情內容,99%涉及女性」。[6] 現時這種科技已於網絡廣泛被利用於牟利、惡作劇、報復或欺凌的情況中。台灣2021年「小玉事件」,擁有逾8000名付費會員的「台灣網紅挖面」帳號,販售過百位名人的換臉色情片及性私密影像,最終加害者「小玉」被判罰入獄5年。而南韓去年亦爆出「Deepfake版N號房」事件,成員多達數十萬人,受害者為成員女性友人或是兒童、青少年,被製作及散播的合成性剝削影像逾2萬多部。[7]
在香港,雖然通過《2021年刑事罪行(修訂)條例草案》並訂立「窺淫罪」,窺淫、偷拍或未經同意發佈私密影像,違者最高判監5年,而私密影像定義也包括經修改的影像,即「深偽色情」影像及影片。但法例當中亦有「法律黑洞」,最近香港大學法律系爆出「N號folder」事件,女學生上載於社交平台的相片被同系一名男同學取用並製成深偽色情影像,被該男生的同系女友在使用其電腦時發現,至少牽涉同系17名女同學。但由於相片只存放於該名男學生的電腦中,並沒有發佈,所以港大這頂級法律學府的學生自己也難以通過法律途徑去「維權」(維護她們對自己身體的私隱及自主權)。由於事件沒有窺淫罪中的「發佈」,與及沒有「起底罪」中的「披露」行為,該男生至今仍未被刑事檢控,現行法律或港大的規程都無法應對該男生的行為。最後,只在女學生向公眾交待事件後,校方就出了兩封警告信要加害者向受害人正式道歉及退出下學年的海外學術交流。
從上述的事件可見,深偽技術背後,香港還未有足夠的法例保障市民的肖像及聲音版權,亦未有像英國、韓國及台灣等地的法律,[8]能把偽造色情影像的製作行為列為刑事罪行以保護市民。大眾更不能掉以輕心,小心上載於社交媒體的相片,亦不應隨便相信所看、所聽的訊息,真假難測,誤信或亂傳,其後果可能不堪設想。
附加資料:
深偽的核心是生成對抗網絡(Generative Adversarial Networks, GAN),這是一種機器學習框架,包含兩個神經網絡:生成器(Generator)和辨識器(Discriminator)。生成器負責產生假內容,辨識器則試圖分辨真假。兩者透過競爭不斷優化,直到生成器產生的內容逼真到難以辨別。 這讓深偽能輕易操縱臉部、聲音或動作,生成高度逼真的虛假影像和語音,使人難以察覺,無論是相片或是影片,更換了相中、影片中人,使其看起來就像是頭像中人在行動,甚至可修改人的聲音,聽起來就是另一個人在說話。
詳細介紹可見另一文章:
人工智能換臉 Deepfake https://www.truth-light.org.hk/nt/article/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8...
[1] 梁巧恩,〈Deepfake詐騙|香港 Deepfake詐騙按年升逾倍 全球更錄得四倍增幅〉,《香港經濟日報》,2024年12月2日,網址:https://inews.hket.com/article/3860891/
[2] 同上。
[3] 尹思哲,〈AI 騙局無孔不入:從假上司到 deepfake 情感騙案,如何識破高科技詐騙?〉,Unwire.pro,2024年11月16日,網址:https://unwire.pro/2024/11/16/vx-research/feature/
[4] 〈AI仿冒全紅嬋帶貨賣土雞蛋 博粉絲同情下單量達4.7萬〉,《am730》,2025年8月19日,網站:https://www.am730.com.hk/%E4%B8%AD%E5%9C%8B/ai%E4%BB%BF%E5%86%92%E5%85%A...
[5] 中華人民共和國中央人民政府,工業和信息化部規章,2023年1月10日起施行。互聯網信息服務深度合成管理規定第二章「一般規定」的第六條:「任何組織和個人不得利用深度合成服務製作、複製、發佈、傳播法律、行政法規禁止的信息,不得利用深度合成服務從事危害國家安全和利益、損害國家形象、侵害社會公共利益、擾亂經濟和社會秩序、侵犯他人合法權益等法律、行政法規禁止的活動。」網址:https://www.gov.cn/zhengce/202310/content_6909368.htm
[6] 江穎怡、鄭佩珊、余美霞,〈BBC調查:香港大學深偽色情照事件 吹哨及受害者親述「N號檔」始末〉,BBC新聞,2025年8月18日,網站:https://www.bbc.com/zhongwen/articles/cpdj61djyngo/trad
[7] 〈AI生成|南韓「Deepfake版N號房」震驚全國 2人散布深偽色情片被捕〉,《星島日報》,2024年8月31日,網站:https://www.singtaousa.com/2024-08-31/ai%e7%94%9f%e6%88%90%ef%bd%9c%e5%8...
[8] 鄭佩珊、余美霞,〈香港大學N號檔深偽圖片受害女生:「這是一個法律黑洞」〉,BBC新聞,2025年8月11日,網站:https://www.bbc.com/zhongwen/articles/cp94nmgde2xo/trad