人工智能技术发展迅猛,不仅无所不知还温暖贴心,越来越多人开始把情绪困扰、心理问题交给ChatGPT等生成式人工智能平台。
适度借助人工智能进行情绪疏导无可厚非,但如果过度依赖,甚至将其视作专业心理医生,风险不容忽视。
近期,一名美国16岁少年的父母就指控ChatGPT“鼓励”爱子轻生酿成悲剧,而将高科技公司OpenAI告上法庭引发广泛关注。
我们应该怎么样正确使用人工智能平台做情绪疏导?如果AI在与用户对话时提供了涉及自杀、自残等危险信息,平台是否应承担相应责任?
人工智能技术发展迅猛,不仅无所不知还温暖贴心,越来越多人开始把情绪困扰、心理问题交给ChatGPT等生成式人工智能平台。
适度借助人工智能进行情绪疏导无可厚非,但如果过度依赖,甚至将其视作专业心理医生,风险不容忽视。
近期,一名美国16岁少年的父母就指控ChatGPT“鼓励”爱子轻生酿成悲剧,而将高科技公司OpenAI告上法庭引发广泛关注。
我们应该怎么样正确使用人工智能平台做情绪疏导?如果AI在与用户对话时提供了涉及自杀、自残等危险信息,平台是否应承担相应责任?