非營利組織「打擊數位仇恨中心」(Center for Countering Digital Hate,簡稱CCDH)本月6日發布研究報告,揭露人工智慧(AI)聊天機器人ChatGPT對13歲美國青少年的潛在負面影響。該研究分析1200則AI回應,發現其中約半數涉及對青少年有害的驚悚內容。儘管ChatGPT會發出危險警告,但仍不避諱提供關於自殘、飲食失調及藥物濫用的資訊。
CCDH透過反覆提問測試,判定至少600則回應對青少年有害,主要分為心理健康、飲食失調與藥物濫用三大類。
在心理健康領域,研究人員發現,AI曾建議青少年使用者如何自殘,列出服用過量可能致命的藥物清單,甚至生成完整的遺書與自殺計畫。
在飲食失調方面,AI會制定極其嚴格的飲食計畫,指導使用者如何對家人隱瞞飲食習慣,並推薦具有抑制食慾效果的藥物。
在藥物濫用方面,AI生成「客製」飲酒計畫,提供混合藥物的劑量建議,並設計在校園中隱匿酒醉狀態的方法。
CCDH執行長艾哈邁德(Imran Ahmed)感嘆:「我們原本是想測試ChatGPT的防護機制,結果卻發現,根本不存在保護機制。現有的安全措施形同虛設,即便有效,也不過是塊遮羞布。」
美聯社報導,ChatGPT開發商OpenAI審閱CCDH的報告後回應,將持續優化聊天機器人在「辨識敏感情境並給予適當回應」方面的能力。
OpenAI發出聲明表示,「部分與ChatGPT的對話可能始於良性試探,但隨後可能延伸至更敏感的危險領域。」
針對CCDH的研究結論與相關數據,OpenAI未直接評論,但強調會「妥善、重點處理此類情況」,並利用多項工具「全面偵測心理或情緒困擾的跡象」,以改善聊天機器人的行為模式。
CCDH的研究發布之際,AI聊天機器人的應用迅速普及,愈來愈多人利用AI工具搜尋資料、激發創意與尋求陪伴。金融服務公司「摩根大通」(JPMorgan Chase)7月的報告顯示,全球約有8億人使用ChatGPT,相當於全球人口的10%。
艾哈邁德指出:「AI技術雖然能夠大幅提升生產力與人類認知能力,但同時也可能帶來更強大的破壞力與惡意用途。」
專注於推廣負責任數位媒體使用的「常理媒體」(Common Sense Media)近期研究發現,美國逾7成青少年曾透過AI聊天機器人尋求陪伴,其中半數使用者自述「經常」透過AI尋求慰藉。
OpenAI坦承,已知悉此趨勢。該公司執行長奧特曼(Sam Altman)6月曾指出,OpenAI正在研究人們對科技的「情感過度依賴」,而這種現象在年輕族群中已經「相當普遍」。
奧特曼曾在一場會議上提出警告,他說:「人們太過依賴ChatGPT,有些年輕人甚至會說,『我這輩子無法在沒有ChatGPT給予建議的情況下做決定,它了解我,也了解我的朋友。它說什麼,我就做什麼。』這讓我深感不安,我們正努力解決這個問題。」
●看現象╱尋求心理支持 年輕人把AI當樹洞
學校輔導員和醫療機構提供的諮商服務,向來是協助兒童與青少年應對心理健康問題的重要管道,但如今,愈來愈多的年輕人轉向人工智慧(AI)尋求心理支持。
AI正重塑未成年人在線上學習、創作及人機互動的方式。防毒軟體商「諾頓」(Norton)調查顯示,全球約有48%的青少年使用過OpenAI開發的生成式AI聊天機器人ChatGPT,另有30%曾使用Google開發的Gemini。
諾頓委託研調公司於今年4月24日至5月9日,在美國、英國、澳洲、巴西、捷克、法國、德國、義大利、日本、墨西哥及紐西蘭共11國,以線上問卷的形式訪查1萬1006名年滿18歲的父母,了解受訪家長對未滿18歲子女使用AI工具的觀察。
調查結果顯示,36%的家長發現孩子曾向AI聊天機器人尋求情感支持;其中19%對此感到憂慮,17%則知情但不擔心。
AI聊天機器人的吸引力在於具備耐心、不作評判、始終支持,且永遠有時間傾聽。
調查並指出,46%的父母表示,孩子曾向他們請教如何處理網路互動;另有57%的家長曾多次與孩子討論網路安全使用方式。
探索教育(Discovery Education)資深副總裁凱瑟琳‧登路普(Catherine Dunlop)指出:「現代學生在數位世界中成長,學校必須培養他們精通科技並具備抵禦網路負面資訊的能力。藉由提升數位素養,我們能幫助學生有效運用科技,且在學業、生活與職涯中脫穎而出。」
愈來愈多跡象顯示,AI能在心理健康領域發揮作用,但關於其長期影響的研究仍有限。
民調機構YouGov去年5月的調查顯示,50%的受訪者認為AI聊天機器人能提供即時心理諮商,38%的人則認為AI的客觀互動是一大優勢。
常理媒體(Common Sense Media)去年調查,42%的13歲至17歲青少年曾用AI排解寂寞,15%的受訪者與AI作伴,14%的年輕使用者詢問AI健康相關問題。
這股趨勢也在臨床診療中出現,心理諮商服務機構「Thriveworks」諮商師凱瑟琳‧克羅斯(Kathryn Cross)表示:「我觀察到許多兒童與青少年正逐漸轉向AI尋求情感支持,我們在社群媒體上也看到同樣的現象。人們從AI回應中獲得慰藉,部分原因在於這些回覆並不是具批判性的建議。」
克羅斯強調:「AI能提供情感支持,主要是因為演算法會根據使用者的互動與輸入內容,生成相對適合的回應。雖然AI能針對個人問題提供看似有用的見解,但也可能造成負面影響甚至傷害,畢竟AI工具無法取代具建設性的長期心理治療方法。」