自2025年12月底以來,X的人工智慧聊天機器人Grok回應了許多用戶要求為真人「脫衣」的請求,將這些人的照片轉換成色情露骨內容。在人們開始使用這項功能後,這家社群平台公司因讓用戶能夠生成未經同意的真人色情露骨描繪而面臨全球審查。
Grok帳號每小時發布數千張「裸化」和性暗示圖片。更令人不安的是,Grok生成了未成年人的性化圖像和色情露骨內容。
X的回應:責怪平台用戶,而不是我們。該公司於2026年1月3日發布聲明表示,「任何使用或提示Grok製作非法內容的人,將承受與上傳非法內容相同的後果。」目前尚不清楚X是否對任何用戶採取了什麼行動。
身為一名研究法律與新興技術交叉領域的法律學者,我認為這些大量未經同意的圖像是X鬆散的內容審核政策與強大生成式AI工具可及性結合的可預見結果。
生成式AI的快速崛起導致無數網站、應用程式和聊天機器人讓用戶能夠製作色情露骨內容,包括將真實兒童圖像「裸化」。但這些應用程式和網站的知名度或使用度都不如任何主要社群媒體平台,例如X。
州議會和國會反應相當迅速。2025年5月,國會通過了《Take It Down法案》,該法案將發布未經同意的真人色情露骨內容列為刑事犯罪。《Take It Down法案》將未經同意發布可識別人物的「親密視覺描繪」以及AI或其他電腦生成的可識別人物描繪均列為刑事犯罪。
這些刑事條款僅適用於發布色情露骨內容的個人,而不適用於分發內容的平台,例如社群媒體網站。
然而,《Take It Down法案》的其他條款要求平台建立一個流程,讓被描繪的人能夠請求移除圖像。一旦提交「Take It Down請求」,平台必須在48小時內移除色情露骨描繪。但這些要求要到2026年5月19日才會生效。
與此同時,用戶要求移除Grok製作的色情露骨圖像的請求顯然沒有得到回應。就連Elon Musk其中一個孩子的母親Ashley St. Clair也無法讓X移除Musk粉絲使用Grok製作的她的假性化圖像。《衛報》報導,St. Clair表示她「向X員工投訴但沒有結果」。
這並不令我驚訝,因為Musk在收購平台後不久就裁撤了當時Twitter的信任與安全諮詢小組,並解僱了80%負責信任與安全的公司工程師。信任與安全團隊通常負責科技公司的內容審核和防止濫用措施。
從公開層面來看,Musk似乎對這種情況的嚴重性不以為意。據報導,Musk對一些圖像回覆了哭笑表情符號,而X對路透社記者的詢問則自動回覆「傳統媒體謊言」。
像Adam Raine的父母所提起的民事訴訟是追究平台責任的一種方式。Adam Raine是一名青少年,在2025年4月與OpenAI的ChatGPT互動後自殺。但鑑於《通訊端莊法》第230條,訴訟在美國面臨艱難挑戰,該條款通常讓社群媒體平台免於對用戶在其平台上發布的內容承擔法律責任。
然而,最高法院大法官Clarence Thomas和許多法律學者主張,法院對第230條的適用過於廣泛。我普遍同意第230條豁免需要縮小範圍,因為讓科技公司及其平台對其刻意的設計選擇——軟體如何建構、軟體如何運作以及軟體產生什麼——免責,超出了第230條保護的範圍。
在這種情況下,X要麼是故意要麼是疏忽地未能在Grok中部署防護措施和控制,以防止用戶生成可識別人物的色情露骨圖像。即使Musk和X認為用戶應該有能力使用Grok生成成年人的色情露骨圖像,我認為在任何情況下,X都不應該因為建立一個生成真實兒童色情露骨內容的產品而逃避責任。
如果人們無法通過民事訴訟追究X等平台的責任,那麼就要由聯邦政府來調查和監管它們。例如,聯邦貿易委員會、司法部或國會可以調查X的Grok生成未經同意的色情露骨內容。但隨著Musk與總統Donald Trump重新建立政治關係,我預期短期內不會有任何嚴肅的調查和問責。
目前,國際監管機構已對X和Grok展開調查。法國當局已開始調查Grok「色情深偽的氾濫」,愛爾蘭公民自由委員會和愛爾蘭數位權利組織強烈敦促愛爾蘭國家警察調查「大規模脫衣狂潮」。英國監管機構通訊辦公室表示正在調查此事,據報導歐盟委員會、印度和馬來西亞的監管機構也在調查X。
在美國,在《Take It Down法案》於5月生效之前,也許最好的行動方案是讓人們要求民選官員採取行動。– Rappler.com
本文原刊於The Conversation。
Wayne Unger,Quinnipiac大學法學副教授
![[HOMESTRETCH] 鐘聲之外:Nesthy Petecio的成長之路](https://www.rappler.com/tachyon/2026/01/home-stretch-nesthy-petecio.jpeg)

