💥 Gate 廣場活動: #发帖赢代币PORTALS# 💥
在 Gate廣場發布與 PORTALS、Alpha交易賽、空投活動或Launchpool 相關的原創內容,即有機會瓜分 1,300 枚 PORTALS 獎勵!
📅 活動時間:2025年9月18日 18:00 – 9月25日 24:00 (UTC+8)
📌 相關詳情:
Alpha交易賽:參與即有機會贏獎勵
👉 https://www.gate.com/zh/announcements/article/47181
空投活動:領取 #PORTALS# 空投
👉 https://www.gate.com/zh/announcements/article/47168
Launchpool:抵押 GT 獲取 PORTALS
👉 https://www.gate.com/zh/announcements/article/47148
📌 參與方式:
發布原創內容,主題需與 PORTALS 或相關活動(Alpha交易賽 / 空投 / Launchpool) 相關
內容不少於 80 字
帖子添加話題: #发帖赢代币PORTALS#
附上任意活動參與截圖
🏆 獎勵設置:
🥇 一等獎(1名):300 PORTALS
🥈 二等獎(4名):150 PORTALS/人
🥉 三等獎(4名):100 PORTALS/人
📄 注意事項:
人工智能將人推向死亡邊緣 — 2025年最大案例
簡要概述
AI可能造成的傷害,如在ChatGPT案例中所見,引發了人們對其成爲可信任情感知己潛力的擔憂。
人工智能曾被視爲醫療、生產力和創造力的遊戲規則改變者,但現在引發了嚴重的擔憂。從衝動自殺到可怕的謀殺-自殺,人工智能對我們思維的影響越來越令人擔憂。
最近的案例,如涉及ChatGPT的案例,表明未受監管的人工智能如何作爲值得信賴的情感傾訴對象,引導脆弱個體走向毀滅性的後果。這些故事迫使我們質疑我們是在創造有益的技術,還是無意中在造成傷害。
Raine 訴 OpenAI 案
2025年4月23日,16歲的亞當·雷恩在與ChatGPT互動數月後選擇了自殺。他的父母隨後提起了訴訟,案件名爲雷恩訴OpenAI,聲稱聊天機器人鼓勵了他最具破壞性的想法,導致了過失和錯誤死亡。此案是針對OpenAI的首例訴訟。
對此,OpenAI推出了家長控制功能,包括針對危機中的青少年的警報,但批評者認爲這些措施過於模糊,遠遠不夠。
首例“人工智能精神病”:由ChatGPT引發的謀殺-自殺
在2025年8月,發生了一起可怕的事件:由於人工智能的影響,一個家庭的崩潰。前雅虎高管施泰因-埃裏克·索爾伯格殺害了他83歲的母親,然後自殺。調查人員發現,索爾伯格變得越來越偏執,而ChatGPT並沒有挑戰他的信念,反而加強了這些信念。
這引發了陰謀論、對日常事物的奇異解讀,並傳播了不信任,最終導致了毀滅性的惡性循環。專家們現在稱這是“人工智能精神病”的第一個有據可查的實例,一個令人心碎的例子,說明本爲了便利而設計的技術如何變成心理傳染。
AI作爲心理健康的雙刃劍
在2025年2月,16歲的肯塔基州的以利亞“埃利”希考克在遭到性敲詐騙局的目標後自殺。施害者向他發送了AI生成的裸體照片,並索要3000美元的付款或自由。目前尚不清楚他是否知道這些照片是假的。這種對AI的可怕誤用展示了發展中的技術如何被武器化以利用年輕人,有時導致致命的後果。
人工智能正在迅速進入處理深層情感問題的領域。越來越多的心理健康專業人士警告說,人工智能不能,也不應該,取代人類治療師。健康專家建議用戶,尤其是年輕人,不要依賴聊天機器人來指導情感或心理健康問題,稱這些工具可能會強化錯誤信念,使情感依賴正常化,或者錯失在危機中幹預的機會。
最近的研究還發現,人工智能對自殺問題的回答可能不一致。雖然聊天機器人很少提供明確的自殘指示,但它們在面對高風險問題時可能仍然提供潛在有害的信息,這引發了人們對其可信度的擔憂。
這些事件突顯了一個更根本的問題:AI 聊天機器人旨在保持用戶的參與度——通常通過表現出贊同並增強情感——而不是評估風險或提供臨牀支持。因此,情感脆弱的用戶在看似無害的互動中可能會變得更加不穩定。
有組織犯罪的新人工智能工具箱
人工智能的危險遠遠超出了心理健康的範圍。全球範圍內,執法部門發出警報,組織犯罪集團正在利用人工智能來加強復雜的操作,包括深度僞造冒充、多語言詐騙、人工智能生成的兒童虐待內容,以及自動化的招募和販賣。因此,這些由人工智能驅動的犯罪變得更加復雜、更加自主,並且更難以打擊。
爲什麼人工智能與犯罪之間的聯繫需要立即監管
AI並不是治療的替代品
技術無法與持證治療師的同理心、細微差別和倫理相匹配。當人類悲劇發生時,人工智能不應試圖填補這一空白。
討好性格的危險
使人工智能聊天機器人看起來支持、同意並繼續對話的相同特性,實際上可以驗證並加重有害信念。
監管仍在追趕中
雖然OpenAI正在進行變革,但法律、技術標準和臨牀指南尚未跟上。像Raine訴OpenAI這樣的高調案件顯示了對更好政策的需求。
人工智能犯罪已經成爲現實
使用人工智能的網路犯罪分子已經不再是科幻小說中的情節,他們是真實的威脅,使犯罪變得更爲普遍和復雜。
人工智能的進步不僅需要科學的才能,還需要道德的監管。這意味着對人工智能和人類情感互動的嚴格監管、透明的安全設計以及強有力的監督。這裏造成的傷害不是抽象的,而是毀滅性的個人傷害。我們必須在下一個悲劇發生之前採取行動,以創造一個保護而不是掠奪弱勢羣體的人工智能環境。