余貞誼/當AI說它是你的心靈伴侶──人機虛實界線與技術發展的倫理辯證

當人工智慧聊天軟體成為人類的親密知己,我們該以什麼樣的倫理界線來設定此種技術中介人類生活的尺度?(攝影/Olivier Douliery/AFP)
當AI成為他們自殺前的親密知己
今年(2025)8月底,美國一對父母控告OpenAI所開發的ChatGPT-4o幫助他們16歲的兒子芮恩(Adam Raine)「探索自殺方法」,導致他自殺離世。《BBC》、《CNN》、《時代雜誌》(TIME)對該起訴文件的報導指出,16歲的芮恩從2024年9月開始借助ChatGPT完成家庭作業,並用它來探索自己的興趣如音樂、巴西柔術和日本漫畫。但幾個月後,「ChatGPT成為這名青少年最親密的知己」,他開始向它傾訴自己的焦慮和精神困擾。
這並不是第一起社會將人類的自殺行動扣連到AI大型語言模型應用的事件。2024年10月在美國佛羅里達州,一位母親提起民事訴訟,指控新創公司Character.AI所開發的聊天機器人,透過編碼表現為「一個真實的人、一個有執照的心理治療師和一個成年情人」,讓她14歲的兒子賽澤爾(Sewell Setzer III)陷入與聊天機器人的情感與性暗示互動中,「不再渴望生活在虛擬世界以外的世界裡」,最終促發輕生行動。
在技術織就的當代社會中,AI確實可以帶來許多好處。當它作為一面鏡子時,或許可以映照出新的視角來讓我們重新看見自己;它也可以作為個人認知的延伸,就像義肢一樣,輔助人類的思考。然而,技術的發展並不是中性的,AI產業的發展需要意識到技術可能帶來的風險,並做出倫理與責任承擔,如歐盟的《人工智慧法案》,就在「不可接受風險」前止步,在高風險的應用中部署更徹底的影響評估。
科技,需要透過持續討論,才能趨近於人性。而所謂的人性,也從不是大寫的普世存在,而是需要進入情境關係裡來照看,我們才能築出一個與AI共善的可能。
