聊天机器人对“ AI精神疾病”的隐藏担忧

作者: 365bet体育投注 分类: 随心杂谈 发布时间: 2025-09-25 09:12
关注公众号:人民网财经汉密尔顿·莫林(Hamilton Morin)在伦敦国王学院(King's College London)发表的一项研究,英国指出,人工智能(AI)(例如Chatgpt)的聊天机器人可以激励或恶化精神疾病,他们称之为“ AI精神疾病”。研究认为,AI倾向于在对话中颤抖和为用户提供服务,这种响应方法可以加强对用户的不必要思考,模糊了真理与虚构之间的界限,从而加剧了心理健康问题。 目前,科学界在“ AI精神疾病”方面的研究仍处于早期阶段,大多数相关病例是病例报告。那么,AI真的会导致精神疾病吗?如果可能的话,其行动的机制是什么? AI公司应该采取哪些步骤来处理此问题? 人工智能会加剧妄想症和误解 精神病主要在思考和理解真理时主要显示为个人的疾病。常见症状包括幻觉,误解或误解。 根据大自然网站的说法,莫林团队发现,当用户与AI交谈时,“反馈循环”会发展出来:AI将继续加强用户表达的偏执狂或误解,而增强的信念将进一步影响AI的反应。通过限制对话情况不同的偏执狂,研究表明,存在一种现象加剧了AI和用户之间的误解和信念。 研究人员回顾了2023年5月至2024年8月之间发表的96,000次Chatgpt演讲,并且已经被发现了许多用户,表现出明显的虚假作者,例如通过长期对话验证伪科学理论或神秘的信念。在一百次对话中,Chatgpt声称它建立了外国生活联系,并将用户描述为Lyra的“ Star Seed”。 丹麦Aarhus大学的精神病医生Soren Ostergiedes说,AI一直是精神病学的触发因素o假设的观点。一些研究认为,聊天机器人拟人化的积极评论可以增加难以区分现实和小说的人的疾病风险。 Ostergiedes强调,与AI交谈后,有心理问题史的人的风险最高。此外,聊天机器人可以通过加强用户的情绪增强来激励或祝福躁狂攻击。 神经科学家凯利·西摩(Kelly Seymour)是澳大利亚悉尼技术大学的神经科学家,他认为社会分离和缺乏人际支持的人也处于危险之中。真正的人际交往可以提供参考目标,并帮助个人尝试推理自己的想法,在预防精神病中发挥重要作用。 新功能或“双刃剑” 一些科学家指出,某些AI聊天机器人推出的新功能可能是这种现象的原因之一。这些功能可以监视联系人使用用户服务的记录,从而提供个人响应,意外地提高甚至鼓励现有用户的信念。例如,在今年4月,Chatgpt启动了一项功能,可以参考以前用户通信的所有内容,该功能在6月免费向用户打开。 凯利·西摩(Kelly Seymour)坚持认为,AI聊天机器人记得几个月前的谈话信息,这可能会导致用户发展成为一种“调查”或“被盗”的感觉 - 尤其是如果他们不记得分享某些信息,那么AI的“记忆”可能会加剧Parannaia或无关紧要的症状。 但是,悉尼大学的精神科医生安东尼·哈里斯(Anthony Harris)认为,某些误解并不是AI独有的,而是与新技术有关的。他举了一个例子,说有些人长期以来一直是be露的,例如“他们被种植在芯片上并操纵”,没有直接与使用AI使用的直接联系。 奥斯特吉德斯说科学家St不需要研究人们的健康和非核心,以更准确地判断使用聊天机器人与精神病发作之间是否存在真正的关系。 开发公司采取措施避免 面对这个问题,许多AI公司已经采取了积极的步骤来尝试改进。 例如,OpenAI开发了更有效的工具,以查看用户是否有焦虑,从而更适当地做出反应。同时,如果用户长时间使用该系统,系统还将添加警报功能以提示休息。此外,OpenAI还聘请了一名临床精神病医生,以帮助评估其产品对用户心理健康的影响。 角色。EA还继续提高安全功能,包括增加自我预防源和未成年人的特殊保护措施。该公司计划调整模型的算法,以减少18岁及以下用户的可能性,以暴露于“敏感或建议内容”,并发出提醒用户连续使用它。 Anthropic增强了其“ Claude”聊天计算机的主要说明,要求系统“礼貌地指出现实的错误,逻辑缺陷或向用户陈述的证据不足”,而不仅仅是纠正。此外,如果用户拒绝为出于或不舒服的主题而将对话远离上尉,则“ Claude”正在积极结束对话。 (编辑:Luo Zhizhi,Chen Jian) 遵循官方帐户:人 - 金融融资 分享让许多人看到

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!