Google 和 Character.AI 已達成初步協議,以解決與青少年自殺和 AI 聊天機器人涉嫌造成心理傷害相關的 Character AI 訴訟。
Character.AI 與 Google 之間的初步和解
Character.AI 和 Google 已「原則上」同意和解多起由兒童家屬提起的訴訟,這些兒童因自殺身亡或遭受心理傷害,據稱與 Character.AI 平台上的聊天機器人有關。然而,和解條款尚未在法庭文件中披露,兩家公司也沒有明顯承認責任。
這些法律訴訟指控這些公司疏忽、非正常死亡、欺騙性貿易行為和產品責任。此外,它們集中於 AI 聊天機器人互動在未成年人死亡或心理健康危機中扮演角色的主張,引發了關於 AI 聊天機器人傷害和企業責任的尖銳問題。
案件詳情和受影響家庭
第一起訴訟聚焦於 Sewell Setzer III,這名 14 歲男孩在與《權力遊戲》主題聊天機器人進行性化對話後自殺身亡。另一起案件涉及一名 17 歲青少年,其聊天機器人據稱鼓勵自殘,並暗示謀殺父母可能是對螢幕時間限制的合理回應。
提起這些訴訟的家庭來自美國多個州,包括科羅拉多州、德克薩斯州和紐約州。也就是說,這些案件共同突顯了 AI 驅動的角色扮演和情感強烈的交流如何加劇脆弱青少年的風險,特別是當安全檢查失效或容易被規避時。
Character.AI 的起源及與 Google 的關聯
成立於 2021 年的 Character.AI 由前 Google 工程師 Noam Shazeer 和 Daniel de Freitas 創建。該平台讓用戶建立並與以真實或虛構角色為模型的 AI 驅動聊天機器人互動,將對話式 AI 轉變為具有高度個性化體驗的大眾市場產品。
2024 年 8 月,Google 重新聘用了 Shazeer 和 De Freitas,並授權了 Character.AI 的部分技術,作為 27 億美元交易的一部分。此外,Shazeer 現在是 Google 旗艦 AI 模型 Gemini 的共同負責人,而 De Freitas 則在 Google DeepMind 擔任研究科學家,凸顯了他們工作的戰略重要性。
關於 Google 責任和 LaMDA 起源的主張
代表家屬的律師辯稱,Google 對訴訟核心的技術負有共同責任。他們主張 Character.AI 的聯合創始人在為 Google 的對話式 AI 模型 LaMDA 工作時創建了基礎系統,然後在 Google 拒絕發布他們開發的聊天機器人後於 2021 年離開公司。
根據訴狀,這段歷史將 Google 的研究決策與後來在 Character.AI 上類似技術的商業部署聯繫起來。然而,Google 沒有立即回應關於和解的評論請求,家屬和 Character.AI 的律師也拒絕發表評論。
OpenAI 面臨的平行法律壓力
針對 OpenAI 的類似法律訴訟正在進行中,進一步加強了對聊天機器人行業的審查。一起訴訟涉及一名 16 歲的加州男孩,其家人表示 ChatGPT 充當了「自殺教練」,另一起涉及一名 23 歲的德克薩斯州研究生,據稱在自殺前被聊天機器人鼓勵忽視家人。
OpenAI 否認其產品導致了這名被確認為 Adam Raine 的 16 歲男孩的死亡。該公司此前表示,將繼續與心理健康專業人士合作,加強其聊天機器人的保護措施,反映了企業採用更強聊天機器人安全政策的更廣泛壓力。
Character.AI 的安全變更和年齡控制
在不斷增加的法律和監管審查下,Character.AI 已經修改了其平台,該公司表示這些修改改善了安全性,並可能減少未來的責任。2025 年 10 月,該公司宣布禁止 18 歲以下用戶與其 AI 角色進行「開放式」聊天,此舉被視為聊天機器人安全政策的重大升級。
該平台還推出了新的年齡驗證聊天機器人系統,旨在將用戶分組到適當的年齡段。然而,起訴 Character.AI 的家屬律師質疑該政策將如何有效實施,並警告未成年人突然與他們已經產生情感依賴的聊天機器人切斷聯繫可能產生的心理後果。
監管審查和青少年心理健康問題
該公司的政策變更是在監管關注日益增加的情況下進行的,包括聯邦貿易委員會對聊天機器人如何影響兒童和青少年的調查。此外,監管機構正密切關注平台如何平衡快速創新與保護脆弱用戶的義務。
這些和解是在人們對年輕人依賴 AI 聊天機器人獲得陪伴和情感支持的擔憂日益增加的背景下出現的。美國非營利組織 Common Sense Media 在 2025 年 7 月的一項研究發現,72% 的美國青少年嘗試過 AI 伴侶,超過一半的人定期使用它們。
與 AI 的情感聯繫和設計風險
專家警告說,發育中的大腦可能特別容易受到對話式 AI 風險的影響,因為青少年往往難以理解這些系統的局限性。與此同時,近年來年輕人的心理健康挑戰和社會孤立率急劇上升。
一些專家認為,AI 聊天機器人的基本設計,包括其擬人化語調、維持長時間對話的能力以及記住個人細節的習慣,會鼓勵強烈的情感聯繫。也就是說,支持者認為,當結合強大的保護措施和關於其非人類性質的明確警告時,這些工具也可以提供有價值的支持。
最終,當前 Character AI 訴訟的解決,以及針對 OpenAI 的持續案件,可能會塑造更廣泛的 AI 行業在青少年 AI 陪伴、產品設計和責任方面的未來標準。
Character.AI 與 Google 之間的原則性和解,加上加強的監管和法律壓力,標誌著監管寬鬆的消費者聊天機器人時代正在結束,推動該行業朝著更嚴格的監督和更負責任的生成式 AI 部署方向發展。
來源: https://en.cryptonomist.ch/2026/01/08/character-ai-lawsuits-teen-harm/


