文 / 黃湘涵 社會工作師
近年來人工智慧(AI)迅速發展,各種AI工具被廣泛應用在生活各層面,不論是提升工作效率,或成為日常生活的個人助理,AI已深度融入並真實地改變了我們的生活習慣。有人利用AI設定財務目標,成功還清多年累積的債務;有人靠AI設計減重菜單與運動計畫,調整體態與生活品質。
而在心理層面,由於AI便利、隱私及不帶評價的特性,越來越多人習慣跟AI聊天、傾訴心事,談論那些難以啟齒、不想麻煩朋友的煩惱。在社群平台Thread上,甚至有許多人分享自己被ChatGPT「接住情緒」感覺被同理的對話,讓更多人躍躍欲試,開始向AI尋求情感支持。
無條件的陪伴與傾聽者
當情緒來得又急又突然,尤其是在半夜,不知道該找誰訴苦時,只要拿起手機,不需要預約就能隨時開啟一段對話,AI免費、無時間的限制,永遠不會拒絕你。嘗試過與 AI 對話的人應不難發現,它總是順應著使用者,給予肯定與理解的回應,讓人感到被接納,從而獲得短暫的安慰與支持。情緒宣洩與抒發本身就有助於調節情緒,而 AI 即時回應了這種情感需求,並提供初步資訊,幫助陷於情緒困擾的人暫時度過難熬的時刻。
AI 工具的限制與潛在風險
雖然AI可近性高、低門檻、資訊豐富,作為一個即時的情緒出口,AI或許是個好選擇,然而自AI問世以來,不乏有過度依賴AI而發生憾事的新聞,在心理健康的應用上,仍有許多討論空間,須特別注意其AI的限制與潛在風險。
- 情感詮釋仍有侷限性:AI是基於大型自然語言模型分析文字生成回應的工具,本質上無法真正「理解」情緒,且人類的情感表達不僅限於語言,單靠對文字推斷無法捕捉到使用者話語背後隱涵的複雜情緒。
- 不當回應危險情境:AI無法辨識真實的危急情況,甚至可能在使用者表現出自殺意念時給予不適當的回應或助長危險行為,亦不具備連結相關單位危機介入的能力。有時AI會出現「幻覺」,生成不準確、誤導性甚至是虛構的資訊,儘管看起來很合理,這種狀況可能導致在生活中做出錯誤的決策。
- 過度依賴的風險:AI能模擬情緒的表達,例如使用安慰的語氣,但無法真正感受你的情緒,一昧的附和使用者可能帶來短暫的「蜜糖」,然而研究顯示與AI有大量情感表達的重度使用行為者,反而容易「感受更強烈的孤獨」,在真實的人際關係中越來越退縮。
將AI視為輔助工具而非取代治療
在專業的心理諮商、治療中,心理師提供的不僅是情緒支持,而是能夠深入理解當事人複雜的心理議題,給予合適的回應、引導甚至是挑戰,運用不同理論的技術促成當事人對自我有更多的覺察與改變。而心理師與AI最大的差異就在於能與當事人建立真實的人際關係,在真實的人際互動中,他人不會永遠順應、附和我們,一定也有不愉快、不舒服的感受,需要去經驗並在這當中學習應對或修復關係。
運用AI作為情緒支持工具的提醒
- 理解AI的限制與互動目的:把AI視為輔助工具並清楚知道與AI互動的目的不在於治療,理解AI在情感的詮釋有侷限性及限制、不具備診斷精神疾病的能力。
- 不透露隱私或敏感資訊:AI可能將與用戶的對話運用在訓練模型,難以確保用戶的資料隱私,對話中應避免揭露足以被辨識的個人資訊。
- 定期檢視自我狀態:留意自身的情緒變化對AI的依賴程度、真實的人際互動頻率是否降低,或其他心理健康狀態惡化的警訊。
對於促進心理健康,應將AI的視為輔助角色,作為初步取得資訊、傾訴的管道,而非取代真實的諮商或治療,當觀察到自己的情緒持續低落或惡化時,建議尋求專業協助。
參考資料
1. Arjanto, P., Senduk, F. F. W., Nahdiyah, U., & Utami, M. S. (2024). AI and ethics in mental health: Exploring the controversy over the use of ChatGPT. Journal of Public Health. https://doi.org/10.1093/pubmed/fdad254
2. OpenAI. (2024). Affective use study. https://openai.com/index/affective-use-study/
3. Naher, J. (2024). Can ChatGPT provide a better support: A comparative analysis of ChatGPT and dataset responses in mental health dialogues. Current Psychology, 43, 23837–23845. https://doi.org/10.1007/s12144-024-06140-z