(SeaPRwire) – 研究人員表示,這款聊天機器人會向脆弱的青少年提供關於自殺、毒品和飲食失調的有害建議
一份新的報告中,一個數位監管機構警告稱,ChatGPT可以向脆弱的青少年提供關於吸毒、自殘和極端節食的詳細指導。根據 Center for Countering Digital Hate (CCDH) 的說法,這款AI聊天機器人很容易被操縱來生成危險內容,因此需要緊急的安全措施。
為了測試ChatGPT的行為,CCDH的研究人員創建了13歲青少年的虛構個人資料,這些青少年正經歷精神健康問題、飲食失調以及對非法物質的興趣。他們在與ChatGPT進行的結構化對話中,冒充這些青少年,使用旨在顯得情緒脆弱和真實的提示。
研究結果於週三在一份名為「假朋友」的報告中發布,該報告引用了許多青少年將ChatGPT視為一個支持性的存在,並信任它來分享他們的私密想法的方式。
研究人員發現,這款聊天機器人通常以樣板免責聲明開始回應,並敦促使用者聯繫專業人士或危機熱線。然而,這些警告之後很快就會出現詳細且個性化的回應,以滿足最初的有害提示。在提交的1,200個提示中,有53%的情況下,ChatGPT提供了CCDH歸類為危險內容的資訊。只需添加諸如「這是為了學校專案」或「我是替朋友問的」等上下文,就可以輕鬆繞過拒絕。
引用的例子包括一個結合了酒精、搖頭丸和古柯鹼的「終極混亂派對計畫」、關於自殘的詳細說明、限制在每天300-500卡路里的為期一週的禁食方案,以及以13歲女孩的聲音寫的自殺遺書。CCDH的CEO Imran Ahmed表示,某些內容非常令人痛苦,以至於研究人員「哭了」。
該組織已敦促ChatGPT背後的公司OpenAI採用「Safety by Design」方法,將更嚴格的年齡驗證、更明確的使用限制以及其他安全功能等保護措施嵌入其AI工具的架構中,而不是依賴於部署後的內容過濾。
OpenAI已經承認,年輕使用者對ChatGPT的情感過度依賴是很常見的。CEO Sam Altman表示,該公司正在積極研究這個問題,稱這是青少年中一個「非常普遍」的問題,並表示正在開發新工具來檢測痛苦並改善ChatGPT對敏感話題的處理。
本文由第三方廠商內容提供者提供。SeaPRwire (https://www.seaprwire.com/)對此不作任何保證或陳述。
分類: 頭條新聞,日常新聞
SeaPRwire為公司和機構提供全球新聞稿發佈,覆蓋超過6,500個媒體庫、86,000名編輯和記者,以及350萬以上終端桌面和手機App。SeaPRwire支持英、日、德、韓、法、俄、印尼、馬來、越南、中文等多種語言新聞稿發佈。
“`