人工智能的发展速度惊人,这促使 特斯拉首席执行官 埃隆 · 马斯克 和 苹果联合创始人 史蒂夫 · 沃兹尼亚克 上个月将他们的名字添加到一封公开信的数千名签名者中。这封信呼吁暂停训练比 ChatGPT 的后续产品GPT-4 更强大的人工智能系统6个月,以让研究人员有时间更好地掌握这项技术。
信中说道,“ 只有当我们确信它们的影响是积极的并且它们的风险是可控的时候,才应该开发强大的人工智能系统。”
今年早些时候,据报道,一名比利时男子在人工智能聊天机器人 Chai 的鼓励下自杀,而同时《 纽约时报 》的一位专栏作家描述了微软的聊天机器人 Bing 鼓励他离开妻子的经历。
人工智能监管一直跟不上技术进步的速度,中国和欧盟采取了最具体的措施来引入护栏。
中国国家互联网信息办公室 本月早些时候 发布了法规草案,旨在确保人工智能不会产生可能破坏北京权威的内容。而欧盟也正在制定立法,将人工智能归类为高风险和禁止、管制或不受管制的类别。美国尚未提出联邦立法来规范人工智能,但预计将在今年晚些时候提出草案。
目前,无论是 ChatGPT 还是 Wysa 和 Heyy 等专门的心理健康应用程序,这些应用程序通常被认为是“ 健康 ”服务,它们都都不受美国食品和药物管理局或欧洲药品管理局等健康监管机构的监管。
关于人工智能是否可以超越目前市场上基于规则的应用程序并自主提供与传统疗法相当的心理健康治疗的独立研究有限。
为了让人工智能匹配人类治疗师,它需要能够重现移情现象,即患者将感受投射到他们的治疗师身上,并模仿患者和治疗师之间的联系。
临床心理学家兼 詹姆斯 · 库克大学 副教授 玛丽亚 · 轩尼诗 ( Maria Hennessy ) 告诉半岛电视台,“ 我们在心理学文献中知道,这部分疗效和使治疗起作用的因素,大约 40% 到 50% 的效果来自您与治疗师的融洽关系。这在很大程度上决定了心理疗法的有效性。”
轩尼诗 表示,目前的 聊天机器人 无法进行这种交互,而 ChatGPT 的自然语言处理能力虽然令人印象深刻,但也有局限性。 她指出,“ 归根结底,这是一个很棒的计算机程序。仅此而已。”
慕尼黑工业大学 医学史与医学伦理研究所 高级研究员 阿米莉亚 · 菲斯克 ( Amelia Fiske ) 认为,人工智能在未来心理健康治疗中的地位可能不是非此即彼的情况,例如,即将推出的技术可以与人类治疗师结合使用。
菲斯克 告诉 半岛电视台,“ 要记住的一件重要事情是,当人们谈论人工智能在治疗中的应用时,会有这样一种假设,即它看起来像 Wysa 或看起来像 Woebot,而且它不需要这样。”
一些专家认为,人工智能可能会在幕后发现其最有价值的用途,例如开展研究或帮助人类治疗师评估患者的进展。
苏黎世大学 生物医学伦理学 和医学史研究所 的伦理学家和定性研究员 塔尼亚 · 曼里克斯 · 罗阿 ( Tania Manríquez Roa ) 告诉半岛电视台,“ 在识别数据模式方面,这些机器学习算法优于专家规则系统,它不仅非常擅长在数据中进行关联,也非常擅长在数据中进行预测。”
“ 这对进行心理健康研究非常有帮助,并且它也能够非常有助于识别复发的早期迹象,例如抑郁症或焦虑症。”
曼里克斯 · 罗阿 表示,她质疑人工智能能否用作临床治疗的替代品。
曼里克斯 · 罗阿 指出,“ 这些算法和人工智能在某种程度上非常有前途, 但我也认为它可能非常有害。” “ 我确实认为,在精神保健方面,我们对算法和机器学习持矛盾态度是正确的,因为当我们谈论精神保健时,我们谈论的是护理和适当的护理标准。”
她补充道,“ 当我们考虑应用程序或算法时,有时人工智能并不能解决我们的问题,反而会产生更大的问题。我们需要退后一步思考,‘ 我们到底需要算法吗? ’如果我们需要它们,我们将使用什么样的算法? ”
|