在医疗资源紧张、等待时间长、成本不断攀升的背景下,越来越多的人开始借助人工智能聊天机器人进行医疗自诊。然而,过度信任聊天机器人的输出结果可能会带来风险。最近一项由牛津大学主导的研究揭示了人们在向聊天机器人提供信息时,往往难以提供能够获得最佳健康建议的关键信息。这项研究招募了英国参与者,并向他们提供了由一组医生编写的医疗场景。参与者需要在这些场景中识别潜在的健康状况,并使用聊天机器人以及他们自己的方法来确定可能的行动方案。研究结果显示,聊天机器人不仅使参与者更难识别相关的健康状况,还让他们更有可能低估自己所识别出的健康状况的严重程度。此外,参与者从聊天机器人那里得到的回答常常是好坏参半的建议,难以做出准确的决策。 尽管科技公司正不断推动将人工智能作为改善健康状况的一种手段,但专业人士和患者对于人工智能是否已准备好用于高风险健康应用存在分歧。美国医学协会建议医生不要使用聊天机器人协助临床决策,而人工智能公司也警告不要根据聊天机器人的输出结果进行诊断。因此,在做出医疗决策时,建议依赖可信的信息来源,并先在现实世界中进行测试。
话题追踪

钛媒体APP | 2025-05-10 13:35

钛媒体APP | 2025-05-10 13:25

钛媒体APP | 2025-05-10 13:25
本信息来自互联网,不代表导读网立场,如若转载,请注明出处:http://www.frfey.com/news/54716/