东莞心理医师,东莞心理医师资格证?

东莞心理医师,东莞心理医师资格证?

参考消息网5月12日报道据阿根廷布宜诺斯艾利斯经济新闻网5月2日报道,近日越来越的案例中开始有患者把ChatGPT当心理师,然而专家警告将人工智能AI)替代心理治疗存在风险。

报道称,可以说,人工智能已经站稳了脚跟。从最初的Siri、亚马逊智能家居“亚历克莎”等日常应用到最近的ChatGPT,都在表明这项技术在不断突破自我,如今已经能够执行直至不久前还只能由人类承担的任务。

专家担忧会带来风险

报道称,AI虽然在特定任务中强于人类,但在以我们的方式理解世界上仍存在困难。正因如此,一些专家对人们求助ChatGPT而非心理医生感到担忧。

这一切都发生在尚不清楚这类工具的触角将伸向何处的当下。近日,谷歌公司计算机科学家杰弗里·欣顿离开这家科技巨头,就是为了向世人警告,AI系统为人类带来了“生存风险”。

但是,有可能把ChatGPT当成一种机器人心理治疗师吗?

阿根廷精神病学家协会会长里卡多·科拉尔表示:“这是非常新的事物,正处于发展期,它的效度和准度显然还会得到大幅提高。”

对于把这类工具当作治疗手段,这位专家指出,虽然有报道称有人已经这样做,但人与人之间的直接接触在心理治疗过程中起着不小的作用。

科拉尔表示:“现在的情况是,许多人在疫情暴发和隔离措施实行后开始通过视频连线进行远程会诊,不少治疗师、精神病医生或心理医生仍采取这种工作方式。然而,很多人觉得不舒服。有一种我们称之为医患关系或者治疗关系的事物,它不容易被取代。换句话说,显然存在一个十分重要的方面,它与人际关系和关系本身有关,我们称之为移情问题。”

心理学博士弗拉维奥·卡尔沃同意科拉尔的观点,并强调说:“有两种类型的移情:情感移情和认知移情。”

“AI或许可以理解一些机制,但永远不会像人类一样体验情感”,它无法“将心比心”,而这种能力对良好的治疗效果至关重要。他接着说:“如果不是用人的灵魂去触碰另一个人的灵魂,那就不是治疗,而只是一系列冷冰冰的建议和可能性。”

专业护理的补充手段

报道称,对他而言,如果要找出AI在这方面的积极之处,那便是“这是一个可能被用来解决一个关键问题的事物,因为目前社会和社区对心理健康问题缺乏对策,所以AI对那些正遭受痛苦,且接触不到任何自然人、医生、治疗师、心理医生、精神病医生的人来说可能是救命稻草”。

包括ChatGPT、谷歌的“巴德”、微软公司的必应聊天在内,种种强大的通用聊天机器人都基于大语言模型。这种技术可以轻而易举地编造出乍听之下有理有据的信息。

然而,它们的设计初衷并非提供疗法,并且这类编程产品也不遵守人类治疗师所恪守的道德和法律准则。在目前的形式下,它们也没有办法跟踪向用户所提建议的实际执行情况。

研究情绪障碍的临床心理学家、堪萨斯大学教授斯蒂芬·伊拉尔迪说:“如果碰上病情较重的精神疾病患者,以它的能力还无法取代心理健康专业人士。”他指出,ChatGPT这种“赤脚医生”会造成“极高的风险”。虽说如此,他认为这个对话伙伴已经足够出色,许多人认可它是有用的。

伊拉尔迪提醒说,如今心理健康服务供不应求,如果具有适当保障措施,将ChatGPT改造为对专业护理的一种补充手段也未尝不可。

对于美国抱抱脸公司首席伦理科学家玛格丽特·米切尔来说,这些聊天机器人可用来帮助危机求助热线的工作人员增强应答能力。

但让她感到担忧的是,向聊天机器人寻求治疗的做法可能会导致盲目依从,从而加重自身的痛苦。她说:“即使有人觉得这项技术大有帮助,也不意味着它能把求助者引向一个好的方向。”

此外,米切尔认为,还需要注意它所涉及的隐私问题。她解释说,开放人工智能研究中心(OpenAI)会收集用户对话并将其用于训练,所以可能不太适合那些想谈论极其私密话题的人。

报道称,她说:“用户可以删除他们的账户信息,尽管这一过程可能需要4周之久。3月,在一些用户反映能够看到其他用户聊天记录的标题后,OpenAI以技术问题为由短暂关闭了ChatGPT。”

浏览官网肯定赠送七大超级赠品和赠送价值¥2万元的珍贵课程98套。添加 微信:a1978531790  官网:www.xlzxkf.com

本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 1978531790@qq.com 举报,一经查实,本站将立刻删除。
如若转载,请注明出处:https://www.haxlsd.com/5536.html