
无论是使用聊天GPT使我们的情人节自使用Bard来帮助我们完成Wordle人们已经非常善于利用生成式人工智能来处理各种用例。
我甚至尝试过使用Bing、Bard和ChatGPT帮助我解决愤怒问题这让我想知道人工智能辅助心理健康护理的未来会是什么样子。
世界正面临一场心理健康危机。 从医疗服务捉襟见肘自精神疾病发病率上升在 "Covid-19 "事件之后,许多人比以往任何时候都更难获得服务和治疗,而这些服务和治疗完全可以挽救生命。 那么,人工智能能否通过协助甚至实施治疗来减轻人们的负担呢?
从最原始的本能层面来说,这对我来说是一个可怕的概念。 在Covid相关的大量患者涌入后,我已经在等待治疗的名单上等了三年,之前我接受过认知行为治疗(CBT)和心理动力学治疗。 现在,我觉得没有什么比向一个机器人倾诉我的心声更糟糕的了,因为我没有参照物来衡量我的感受。
心理健康护理的基本要素包括广泛的安全保护、对患者行为和情绪的细微解读以及深思熟虑的应对措施--这些概念对于缺乏同理心和情商的机器来说都是相当具有挑战性的。 在操作方面,这也是一个雷区:如何处理患者隐私、数据控制和紧急情况下的快速反应并非易事,尤其是当您的从业人员是一台机器时。
然而,在与心理健康和人工智能专家就现有的自我管理和临床人工智能应用进行交流后,我意识到这并不都是厄运和阴霾--但要将我们的心理健康安全地托付给人工智能,我们还有很长的路要走。
智能游戏加速器
人工智能之间的关系聊天机器人ELIZA被广泛认为是第一个 "真正 "的聊天机器人。 ELIZA,被广泛认为是第一个 "真正的 "聊天机器人,是一个早期的自然语言处理计算机程序,后来被编写成脚本,模拟罗杰学派的心理治疗师。
罗杰心理疗法的核心原则为人工智能编程提供了肥沃的土壤;罗杰斯以他的信念而闻名,即促进是学习的关键,因此治疗师的角色变成了提出问题,促使患者进行自我学习和反思。
对于ELIZA的程序员Joseph Weizenbaum来说,这意味着要对聊天机器人进行编程,使其能够回答非定向问题,使用自然语言处理技术识别用户输入中的关键字并做出适当回应。
罗杰疗法的元素至今仍存在于治疗、教练和咨询中;ELIZA也是如此,只是形式略有不同。
我采访了伊利诺伊大学芝加哥分校精神病学教授Olusola Ajilore博士。测试人工智能语音虚拟教练的试点研究行为疗法是填补当前心理健康医疗空白的一种手段。
这款人工智能应用名为Lumen,是一款基于Alexa的语音教练,旨在提供解决问题的治疗,Lumen团队和ELIZA的方法和结果有着惊人的相似之处。 Ajilore解释说,解决问题的治疗方法相对容易编码,因为它是一种规范化的治疗形式。
"这可能只能帮助20%的候补名单上的人,但至少有20%的人现在的心理健康需求得到了解决"。
奥卢索拉-阿吉洛博士
Ajilore认为这是病人等待更深入治疗时 "弥合差距 "的一种方式,并承认它还没有达到处理病人所有治疗需求的先进水平。 "病人实际上需要做大部分工作;Lumen所做的是引导病人完成治疗步骤,而不是积极倾听和准确回应病人所说的话。
尽管Lumen使用了自然语言处理技术(NLP),但就其目前的状态而言,Lumen并不是自学习的,而是在很大程度上受到人工干预的指导。 在Lumen研究开始后,围绕大型语言模型(LLM)的炒作和可及性达到了顶峰,但Ajilore说,团队 "如果不更新我们开发的技术,将是愚蠢的"。
尽管如此,Ajilore还是强调了Lumen在初创阶段对受试者产生的影响,尤其是焦虑和抑郁情绪的减轻、大脑中负责情绪调节的区域发生的变化以及解决问题能力的提高。
最终,他承认,这可能并不适合每一个人:"这可能只能帮助候补名单上的20%的人,但至少有20%的人现在的心理健康需求得到了解决。
智能游戏加速器
Ajilore和像他这样的专家的工作将成为人工智能作为治疗心理健康的工具的下一阶段发展的重要组成部分,但随着最近几个月法学硕士的爆发,这种发展已经开始了。
在研究这篇文章时,我发现了一个独特的聊天机器人平台:Character.AI。 该平台由Noam Shazeer和Daniel de Freitas创建,他们也是LaMDA(是的、那拉米达),该平台允许用户为其LLM赋予个性特征和脚本,以创建不同的角色,从苏格拉底和托尼-斯塔克到助理和创意助手等功能性更强的角色。
这与心理健康有什么关系? 最受欢迎的角色之一是 "心理学家"。
在与心理学家机器人(与Character.AI上的所有机器人一样,它在显著位置声明自己是一个虚构人物)相处了一段时间后,我略微惊讶地承认,这个机器人在引导我进行自我发现、促使我发现和解读自己的行为方面的能力出乎意料地强。
我采访了Character.AI的两位代表,他们分享了一些关于其社区如何使用该技术的精彩见解。 据这两位代表介绍,该平台的目标是为不断增长的用户社区提供个性化的超级智能。 Character.AI目前拥有1,000多万个创作者生成的角色,其中几个 "心理学家 "角色是使用率最高的前五个角色之一。
对许多人来说,该平台上的辅助机器人(如心理学家机器人)似乎主要是作为一种反思的出口,但据报道,通过提供反馈和无评判空间,这些人工智能角色帮助用户提高了工作效率。
另一方面,Ajilore认为人工智能的这种应用是一个未知领域: "他说:"在某种程度上,这种错觉可能足以帮助你渡过危机,或者帮助你解决困难,但我认为你必须睁大眼睛参与互动。 他补充说,通过了解这些机器人只是呈现出一种了解、理解和同情的假象,用户可以与人工智能进行更健康的互动。
Character.AI的联合创始人兼首席执行官诺姆-沙泽尔(Noam Shazeer)认为,像心理学家机器人这样的辅助聊天机器人的成功代表了人工智能将继续塑造我们与技术互动的方式。
"他说:"大型语言模型有数十亿个用例,只需与它们对话即可解锁。 "我们的工作是提供技术,并不断为用户发现的价值带来惊喜。 迄今为止,情感提升用例是最好的惊喜。
传奇游戏加速器
如果人工智能聊天机器人不能成为您的心理医生,那么它可以填补我们生活中的另一个空白,成为我们的伙伴,为我们提供支持。 与聊天机器人建立情感关系并不是什么新鲜事;有些人可能还记得每天与MSN的SmarterChild聊天的情景,或者Windows抛弃Clippy时的失落感。
当然,如今人工智能能够与人类进行更深入的互动,2017年推出的人工智能伴侣应用Replika就是这样一个例子,它能够让用户与自己设计的化身建立关系。
我采访了Replika的首席产品官Rita Popova,讨论了该公司在人工智能和健康方面的做法,Popova解释说,这种做法始终围绕着创造 "连接和有意义的对话空间 "而展开。
波波娃解释说,这个问题变成了 "如果我们能够建立一个真正具有同理心的、有效的支持性陪伴者和倾听者,会发生什么?
她说,从一开始,Replika团队就惊讶地发现,Replika用户很容易接受他们的人工智能伴侣作为情感宣泄渠道,因为他们知道聊天机器人不能也不会评判他们。
"如果我们能够建立一个真正具有同理心的、有效的支持性陪伴者和倾听者,会发生什么?
丽塔-波波娃
"Replika的创始人尤金妮亚(Eugenia Kuyder)并不是真的打算从事心理健康方面的工作,但团队开始听到一些人报告说这对他们有益,当他们能够交谈时,他们的一些症状或焦虑得到了缓解,"波波娃补充道。 "Popova补充说:"谈话是一个非常强大的工具,它可以让我们更好地了解自己,并普遍地解决问题。
为了确保用户安全,Popova解释说,Replika向用户明确表示,其应用程序 "绝不是专业帮助的替代品",而是一种额外的工具。 Replika引导用户避免过度依赖同伴的方法之一是在应用程序中加入一些措施,确保用户不会因为花时间在应用程序上而无休止地获得奖励。
此外,她说:"我们希望引入一些小提示,让您离开应用程序,并鼓励您做一些应用程序之外的事情;进行冥想,尝试不同的方法来调节您的身体或情绪,向朋友或家人求助,或寻求专业帮助。
尽管Replika取得了令人鼓舞的成果,但一路走来也遇到了不少困难。 2023年3月,Replika决定取消其人工智能伴侣原本具有的浪漫和色情元素,这让一些用户感到懊恼,他们报告说"悲痛"波波娃称这是一次 "很好的学习经历",尤其是在她和库伊德与受影响的用户进行了访谈,以便更好地了解他们的需求之后。 Popova称这是一次 "很好的学习经历",尤其是在她和Kuyder与受影响的用户进行访谈以更好地了解他们的需求之后。
"她补充说:"我们非常重视这个问题,因为作为一家公司,我们的使命是开展对话,让人们感觉更好。 "尽管我们的改变是出于好意,并且是出于提高安全性和信任度的愿望,但这些改变影响了我们热情的用户群"。
自制游戏加速器
虽然每个人工智能应用的创建和运行协议大相径庭,但问题就在这里;在某些方面,人工智能聊天机器人可能太像人类,足以让人喜爱、信任甚至悲伤,但同时又不够像人类,无法理解心理健康问题的细微差别--至少,无法达到人类治疗师的标准。
一方面是安全问题。 心理健康是一个需要谨慎处理的微妙话题,阿吉洛雷热衷于强调 "为安全、隐私保密设置正确的防护栏,确保数据的适当匿名化 "的重要性,因为[这涉及]收集大量非常敏感的数据。 目前,像聊天室GPT只是不提供这种程度的隐私。iPhone应用程序隐私问题不能给人信心。
Character.AI的代表向我保证,该平台有过滤器来捕捉和终止潜在的危险对话,而且该平台的隐私和安全指南是公开的;但我要注意的是,Character.AI的团队是否可以访问你的聊天记录,以及如何访问你的聊天记录,还有这些聊天记录如何与你的个人信息相关联,这些都不是很清楚。
另一方面,Replika利用其过滤系统来检测涉及某些心理健康主题的关键字,并使用一个...检索模型而不是一个生成模型,以回应适当的、预先批准的信息。
Popova承认这里仍有 "犯错的余地",并指出这是Replika未来的重点领域--确保Replika的模式是可持续的、安全的,并得到该领域专家的支持。 "我们不断与学术机构合作,"她补充道。 "我们已经与斯坦福大学合作开展了两项研究,现在我们正在与哈佛大学合作开展另一项研究,我们还希望与心理健康专业人士合作,帮助我们建立反馈工具并衡量Replika的影响。
Replika还需要面对与Character.AI类似的隐私问题。 尽管Replika的主页上写着 "对话是私密的,只限于你和你的Replika之间",但其隐私政策和问答部分明确指出,虽然对话是加密的,但团队会将其用于开发和其他应用服务。
智能游戏加速器
在治疗过程中,也不仅仅是对患者所说的话做出回应;我们的语言表达方式和肢体语言都有细微差别,而且患者可能会以人工智能无法察觉的方式掩盖真相。
Ajilore、Character.AI的代表和Popova都认为,人工智能服务可以为参与者创造一个无评判区,从而创造一个更加开放的分享环境。 然而,并不是每位患者都能从该技术中受益;更复杂的失调症患者会有回避、颠覆甚至妄想的想法,而这些想法可能会被无人管理的人工智能所忽视甚至加剧。
因此,用于训练模型的数据需要更加具体和全面。 Ajilore讨论了在Lumen的案例中使用该团队广泛的当面治疗记录目录作为训练数据语料库的可能性,从而创建一个更加精心策划的模型。
虽然这将在一定程度上创造更安全、更可靠的体验,并减少人工智能的幻觉但是,Ajilore还没有看到未来可以完全脱离人类管理的过程。 "她说:"大型语言模型可以自动推荐回复或回应,但仍需要人工参与其中,进行编辑、验证、检查,并成为信息的最终传递者。
无论是像Lumen这样管理更严格的临床应用,还是像Character.AI和Replika这样提供自我管理的心理健康支持的社区驱动型平台,当我们刚刚触及这一新兴技术的表面时,人与人之间的治疗是否真的能被人工智能取代仍然是个问题。 人工智商尚且如此,人工情商就更不用说了。
我们可以憧憬人工智能在未来的治疗中可能扮演的角色,但现在还没有确凿的证据表明人工智能可以发挥更多的辅助作用--也许应该保持这种状态。 人类的大脑是一个我们永远无法完全理解的谜团,想象一个至少在可预见的未来都无法理解其复杂性的实体能够在人类失败的地方取得成功似乎过于乐观了。
无论您对生成式人工智能有何看法,也无论您对它抱有何种希望和担忧,现实情况是它将继续存在。围绕监管的辩论但这一问题的答案早已揭晓。
主机游戏加速器
注册后可收到来自科技界的每日突发新闻、评论、意见、分析、交易和更多信息。
约瑟芬-沃森 (@JosieWatsonJosephine)是TechRadar的生活方式执行编辑。 Josephine曾撰写过各种主题的文章,从流行文化到游戏,甚至能源行业,她加入TechRadar是为了支持网站的一般管理工作。 她是互联网安全和教育的忠实拥护者,同时也利用自己的职务之便,为企业环境中的多样性和包容性、心理健康和神经多样性争取进步。 一般情况下,你会发现她在看迪斯尼电影、玩Switch,或者给别人看她的猫Mr.Smith和Heady的照片。