微软将GPT-4引入医患自动起草信息回复服务,与美国最大的医疗保健软件公司Epic Systems达成合作

763次阅读
没有评论

微软和Epic Systems宣布,他们将OpenAIGPT-4 AI语言模型引入医疗保健,用于起草医护人员对患者的消息响应,并用于在寻找趋势的同时分析医疗记录。

Epic Systems是美国最大的医疗保健软件公司之一。据报道,其电子健康记录(EHR)软件(如MyChart)在美国超过29%的急诊医院使用,全球超过3.05亿患者在Epic拥有电子记录。

 

微软将GPT-4引入医患自动起草信息回复服务,与美国最大的医疗保健软件公司Epic Systems达成合作

OpenAI的GPT-4在专业基准上展示了“人类水平的性能”

在周一的公告中,微软提到了Epic将使用其Azure OpenAI服务的两种具体方式,该服务提供对OpenAI大型语言模型(LLM)的API访问,如GPT-3和GPT-4。用外行的话来说,这意味着公司可以雇用微软,使用微软的Azure云平台为他们提供生成性人工智能服务。

GPT-4的首次使用是允许医生和医护人员自动起草对患者的信息回复。新闻稿援引威斯康星州UW Health首席信息官Chero Goswami的话说:“将生成性人工智能集成到我们的一些日常工作流程中,将提高我们许多供应商的生产力,使他们能够专注于真正需要他们关注的临床职责。”

第二次使用将为SlicerDicer带来自然语言查询和“数据分析”,SlicerDicer是Epic的数据探索工具,允许对大量患者进行搜索,以识别可能有助于做出新发现或出于财务原因的趋势。据微软称,这将有助于“临床领导者以对话和直观的方式探索数据”。想象一下,与类似于ChatGPT的聊天机器人交谈,并向其询问患者医疗记录的趋势,你可能会得到了解情况。

GPT-4是由OpenAI创建的大型语言模型(LLM),已经在数百万本书籍、文档和网站上进行了培训。它可以在文本中执行作文和翻译任务,其发布与ChatGPT一起激发了将LLM集成到每种类型的业务中的冲动,无论是否合适。

然而,微软和Epic之间的合作关系引起了大型语言模型研究人员的担忧,部分原因是GPT-4能够弥补(混淆)其数据集中没有代表的信息。

为什么ChatGPT和Bing Chat如此擅长编造

语言模型没有被训练成产生事实。他们被训练成能产生看起来像事实的东西,”博士说。Margaret Mitchell,Hugging Face的首席伦理科学家。如果你想用法学硕士写创意故事或帮助语言学习——很酷。这些事情并不依赖于陈述性事实。将技术从虚构的流利语言领域(它闪耀的地方)带到基于事实的对话领域,这完全是错误的。”

Mitchell解释说,医疗保健中的自然语言生成(NLG)已经研究了多年,这项工作表明的最重要的事情之一是,提供不具有误导性的信息很重要。她说,这在某种程度上可以通过使用模板和规则来完成。通过使用模板和规则,我们可以实现[微软的工作]似乎试图做的很多事情——并从Ehud Reiter等NLG专家的多年工作中汲取——而无需将虚构内容注入一个应该基于事实的系统。

此外,有些人想知道法学硕士是否是这份工作的合适工具。Mitchell说,多年来,对话和自然语言生成工作一直是研究和开发的积极领域。我想知道那些系统没有提供什么让Epic和微软觉得他们不值得投资,相反,他们应该投资一些不适合这个目的的东西。

另一个担忧来自GPT-4的潜在偏见,这种偏见可能会根据性别、种族、年龄或其他因素歧视某些患者。在OpenAI的GPT-4系统卡中,代表OpenAI工作的研究人员写道:“我们发现GPT-4-早期和GPT-4-发射表现出许多与早期语言模型相同的局限性,例如产生有偏见和不可靠的内容。”

即使Epic使用专门针对医疗使用而训练的GPT-4的微调版本,偏见也可能以自动医生对患者通信中的微妙措辞的形式出现,或者在试图传达有关医疗数据的结论时,即使这些结论来自现有的外部系统,如SlicerDicer。

“生与死的区别”

考虑到这些限制,OpenAI自己的使用政策可以理解地指出,其模型不能用于提供如何治愈或治疗健康状况的说明。特别是,“OpenAI的模型没有经过微调以提供医疗信息。您永远不应该使用我们的模型为严重的医疗状况提供诊断或治疗服务。”

Epic和微软对GPT-4的应用似乎绕过了这些规则,避免了GPT-4本身自主提供通信(没有医疗专业人员)的暗示,或者在SlicerDicer的情况下,通过在单个患者记录上提供诊断或数据分析,仅以总体方式提供。微软和OpenAI在发布时无法发表评论。我们联系了他们以寻求澄清,如果我们收到回复,我们会更新。

总的来说,Mitchell说,她对当今炒作丰富的环境中对生成性人工智能的普遍误解和误用感到沮丧:“结合众所周知的自动化偏见问题,即即使是专家也会相信如果由系统自动生成的东西是不正确的,这项工作将产生错误信息,”Mitchell说。在临床环境中,这可能意味着生与死的区别。

 

Read More 

正文完
可以使用微信扫码关注公众号(ID:xzluomor)
post-qrcode
 
评论(没有评论)
Generated by Feedzy