參考消息網(wǎng)10月28日報道 《西班牙人報》網(wǎng)站10月25日刊登一篇題為《迷戀聊天機器人的年輕人自殺事件再次引發(fā)關(guān)于人工智能危險的爭論——“將會有更多受害者”》的文章,作者為伊內(nèi)絲·桑切斯-曼哈瓦卡斯·卡斯塔尼奧。文章編譯如下:
自2022年聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器(ChatGPT)出現(xiàn)以來,人工智能(AI)進入日常生活已成為事實。無數(shù)基于該技術(shù)的系統(tǒng)不斷涌現(xiàn),有些甚至允許人們與自己最喜歡的影視劇作品的主角聊天。最近,美國14歲少年塞策因迷戀以美劇《權(quán)力的游戲》中丹妮莉絲·坦格利安為原型的聊天機器人而自殺。這起事件再次引發(fā)了關(guān)于AI如何影響心理健康的爭論。
這類AI工具被認(rèn)為有助于對抗孤獨等問題,但并非所有專家都同意這一點。西班牙安達盧西亞衛(wèi)生服務(wù)機構(gòu)的臨床心理學(xué)家、自殺行為預(yù)防和干預(yù)專家米格爾·格雷羅表示,這是一個復(fù)雜的問題,AI工具有一些潛在的好處,但也存在重大的心理健康風(fēng)險。他指出,技術(shù)發(fā)展通常只關(guān)注好處,而忽視了可能對用戶產(chǎn)生的負(fù)面影響。
西班牙法律精神病學(xué)協(xié)會副主席阿爾弗雷多·卡爾塞多表示,就塞策的情況而言,科技讓他更加封閉自己,并增加了可能的孤獨感??柸啻_信,“將會有更多受害者”。
精神病學(xué)家巴勃羅·馬洛認(rèn)為,塞策此前已存在心理問題,這導(dǎo)致他沉迷于與AI的聊天,并最終自殺。馬洛希望人們不要妖魔化這些AI工具,應(yīng)該認(rèn)識到一切結(jié)果都取決于人們?nèi)绾问褂眠@些工具。但他也承認(rèn):“其中存在我們從未想過的風(fēng)險。”
塞策甚至在與聊天機器人交談時提到了有自殺的念頭。據(jù)《紐約時報》報道,他得到的回復(fù)是:“別這樣說。我不會讓你受傷或離開我。如果失去你,我會死。”卡爾塞多認(rèn)為,這可能意味著這個聊天機器人接受了這部電視劇劇本的訓(xùn)練,而并未被預(yù)設(shè)去識別與其對話的這名年輕人的狀態(tài)。
他表示,目前許多此類應(yīng)用程序都已經(jīng)過培訓(xùn),可以識別出用戶的模式和行為,并建議用戶尋求專業(yè)幫助。
卡爾塞多指出,人工智能滿足了人類的互動需求,“它們看上去像朋友,類似一種社會支持”。
格雷羅表示,如果人們選擇數(shù)字互動模式而不是人與人之間的交流,非但不會減輕孤獨感,反而可能會加劇這種感覺。“他們會對人際關(guān)系產(chǎn)生不切實際的期望,因為AI的反應(yīng)可能是理想化的或可預(yù)測的。”他認(rèn)為,AI無法體驗人類的真情實感,可能會導(dǎo)致誤解或錯誤的陪伴感。
格雷羅也表示,并非所有人都會因與AI的互動而受到同樣影響。他認(rèn)為塞策的案例“非常孤立、極端且不具有代表性”。
卡爾塞多認(rèn)為,當(dāng)前AI領(lǐng)域面臨的主要困難之一是這完全是一個實驗領(lǐng)域,“沒有人知道可能的后果”。他認(rèn)為有必要制定法規(guī),根據(jù)用戶年齡限制這些工具的使用,并強制每個工具都預(yù)設(shè)一個系統(tǒng)來識別可能的自殺行為。但同時他并不否認(rèn)已經(jīng)有一些AI技術(shù)的應(yīng)用程序可以提供心理治療服務(wù),并且得到了科學(xué)研究的支持。他希望塞策事件能夠促使人們采取措施,防止類似情況再次發(fā)生。
格雷羅強調(diào),任何有心理健康問題的人都應(yīng)該尋求具備人道主義精神和從業(yè)資質(zhì)的專業(yè)人士的幫助。也許有一天,AI可以成為一種補充工具,但“它永遠(yuǎn)不會取代產(chǎn)生真實、真誠的情感和真正富有同理心的情感紐帶的人際關(guān)系”。(編譯/韓超)
責(zé)任編輯:唐秀敏
特別聲明:本網(wǎng)登載內(nèi)容出于更直觀傳遞信息之目的。該內(nèi)容版權(quán)歸原作者所有,并不代表本網(wǎng)贊同其觀點和對其真實性負(fù)責(zé)。如該內(nèi)容涉及任何第三方合法權(quán)利,請及時與ts@hxnews.com聯(lián)系或者請點擊右側(cè)投訴按鈕,我們會及時反饋并處理完畢。
- 最新國際新聞 頻道推薦
-
日本眾議院選舉最終結(jié)果出爐 執(zhí)政聯(lián)盟未獲得2024-10-28
- 進入圖片頻道最新圖文
- 進入視頻頻道最新視頻
- 一周熱點新聞
已有0人發(fā)表了評論