普瑞纯证

外媒 | ChatGPT准确提供癌症谣言和误解信息-普瑞纯证

ChatGPT准确提供癌症谣言和误解信息

2023年3月20日 - 一项最新研究发现,来自犹他大学的研究人员在《国家癌症研究所癌症谱系》杂志上发表的一篇论文中指出,基于大型语言模型(LLM)的ChatGPT在被问及常见的癌症谣言和误解时提供了准确的信息,但这些答案可能会被错误地解释,对患者的决策产生负面影响。近年来,基于人工智能的聊天机器人在各行各业中变得越来越流行,帮助用户查找信息并在在线空间中导航;医疗保健也不例外。ChatGPT最近在这个领域引起了热议,因为它在美国医学许可考试风格的测试中获得了60分的成绩,这是一个及格分数,表明它在医学教育中的潜力。然而,聊天机器人的兴起对患者护理和共同决策产生了影响,因为患者转向这些在线工具来帮助他们收集与他们的健康状况相关的信息。根据2020年一项调查研究,该研究利用来自健康信息国家趋势调查(HINTS)的数据,研究人员发现80%的美国成年人报告使用互联网寻求健康信息。

犹他大学的研究人员强调,这种趋势带来了一定的风险,因为关于癌症的错误信息和有害信息仍然对临床医生和患者构成挑战。在这个领域正确信息的重要性使得评估来自AI聊天机器人的癌症信息相关输出的准确性至关重要。为了做到这一点,研究人员评估了ChatGPT的输出的准确性,与国家癌症研究所(NCI)提供的答案进行比较,使用从NCI“常见的癌症谣言和误解”网页中提取的问题。NCI和ChatGPT的答案都是盲评的——这意味着五位癌症专家审查答案时不知道答案来自哪个来源——并且被评估其准确性。评审人员根据他们是否认为答案准确来评估答案。然后,研究人员比较了NCI和ChatGPT答案的每个问题的独立评估结果。经过评估,对于所有问题,NCI答案的总体一致性比ChatGPT输出的准确性高100%,而ChatGPT输出的准确性为96.9%。尽管研究人员指出,在错误答案的数量上几乎没有明显差异,但这些结果表明ChatGPT可以成为提供准确癌症信息的有用工具,但需要注意患者可能会错误地解释这些答案,从而对他们的决策产生负面影响。

版权声明 本网站所有注明“来源:普瑞纯证”或“来源:pureFDA”的文字、图片和音视频资料,版权均属于普瑞纯证网站所有。非经授权,任何媒体、网站或个人不得转载,否则将追究法律责任。取得书面授权转载时,须注明“来源:普瑞纯证”。其它来源的文章系转载文章,本网所有转载文章系出于传递更多信息之目的,转载内容不代表本站立场。