医疗自诊依赖AI聊天机器人存风险,专家呼吁谨慎使用

在医疗资源紧张、等待时间长、成本不断攀升的背景下,越来越多的人开始借助人工智能聊天机器人进行医疗自诊。然而,过度信任聊天机器人的输出结果可能会带来风险。最近一项由牛津大学主导的研究揭示了人们在向聊天机器人提供信息时,往往难以提供能够获得最佳健康建议的关键信息。这项研究招募了英国参与者,并向他们提供了由一组医生编写的医疗场景。参与者需要在这些场景中识别潜在的健康状况,并使用聊天机器人以及他们自己的方法来确定可能的行动方案。研究结果显示,聊天机器人不仅使参与者更难识别相关的健康状况,还让他们更有可能低估自己所识别出的健康状况的严重程度。此外,参与者从聊天机器人那里得到的回答常常是好坏参半的建议,难以做出准确的决策。 尽管科技公司正不断推动将人工智能作为改善健康状况的一种手段,但专业人士和患者对于人工智能是否已准备好用于高风险健康应用存在分歧。美国医学协会建议医生不要使用聊天机器人协助临床决策,而人工智能公司也警告不要根据聊天机器人的输出结果进行诊断。因此,在做出医疗决策时,建议依赖可信的信息来源,并先在现实世界中进行测试。

话题追踪

9块9的AI洗头:颠覆还是泡沫?

定焦One | 2025-05-10 08:20

版权悖论:保护AI创作=扼杀人类创作?

互联网法律评论 | 2025-05-09 20:15

OpenAI悬着的心终于“死了”

秋阳 | 2025-05-09 14:30

本信息来自互联网,不代表导读网立场,如若转载,请注明出处:http://www.frfey.com/news/54716/

(4)

导读信息推荐

发表回复

本站作者后才能评论

    联系我们

    邮件:sooting2000@qq.com

    工作时间:周一至周五,9:30-18:30,节假日休息

    关注我们