微软Copilot Health上线:AI分析个人健康数据但不提供医疗建议

🤖 AI总结

主题

微软推出AI健康助手Copilot Health,旨在提供个性化健康洞察。

摘要

微软发布Copilot Health AI功能,通过分析用户健康数据提供个性化洞察,但强调其并非医疗建议,并着重保障数据安全与隐私。

关键信息

  • 1 Copilot Health整合可穿戴设备与健康记录数据,提供个性化分析。
  • 2 微软明确声明该功能不提供医疗建议,仅为健康管理工具。
  • 3 产品强调数据隔离与加密,保护用户隐私安全。

微软Copilot Health上线:AI分析个人健康数据但不提供医疗建议

微软推出了名为Copilot Health的新功能,旨在存储用户的健康数据,通过AI技术”提供可操作的个性化健康洞察”,但同时避免承担实际医疗建议的法律责任。

微软声称为此创建了一个”独立、安全的Copilot空间”来实现这一功能。然而,公司在公告末尾特别声明:”Copilot Health不用于诊断、治疗或预防疾病或其他病症,也不能替代专业医疗建议。”

这一免责声明显得尤为重要,因为最近英国一项研究发现聊天机器人在医疗建议方面表现不佳。尽管如此,人们普遍使用AI模型寻求健康建议。OpenAI统计发现,全球每天有超过4000万人向ChatGPT咨询健康建议。为了进军这一市场,OpenAI在1月份推出了ChatGPT Health,几天后Anthropic也推出了面向医疗的Claude。

微软自己的研究显示,近五分之一的Copilot对话涉及个人症状或病症评估。

微软AI首席执行官穆斯塔法·苏莱曼在社交媒体上表示:”我认为人们仍然低估了这种转型的深远影响。今天我们宣布Copilot Health,让用户能够在一个安全、私密的健康空间中连接所有电子健康记录和可穿戴设备数据,Copilot可以分析和推理这些数据,提供个性化洞察和主动提醒。”

不过,这些个性化洞察和主动提醒并非医疗建议,而是旨在促进更模糊的概念——健康。苏莱曼建议,Copilot Health将帮助人们在实际医疗预约时向真正的医生提出更有针对性的问题。

Copilot Health被描述为帮助人们整理来自Apple Watch、Oura、Fitbit等消费级可穿戴设备活动数据的工具,这些信息可以与医院健康记录和实验室结果结合形成完整档案。

根据微软的免责声明,这不是医疗建议。但这确实听起来像是最终目标——苏莱曼表示,微软希望”为全球数十亿难以获得可靠医疗建议的人们提供这项服务。”

由于美国食品药品监督管理局在年初放宽了可穿戴设备规则,监管医疗建议和AI健康信息输出之间的区别可能变得更难辨别。正如Arnold & Porter律师事务所1月份指出的:”关于可穿戴设备的修订政策可能意味着更多AI支持的临床决策支持可以作为非设备临床决策支持提供,即无需FDA审查。”

Copilot Health承诺在安全和隐私方面提供保障,这是微软历来重视的领域。

微软医疗团队成员Bay Gross、Peter Hames、Chris Kelly、Dominic King和Harsha Nori坚持表示:”您的Copilot Health对话和数据与普通Copilot隔离,受到额外的访问、隐私和安全控制保护。Copilot Health中的数据受到行业领先的保障措施保护,包括静态和传输加密、严格访问控制,以及您选择时管理和删除信息的能力。您可以随时瞬间断开与电子健康记录或可穿戴设备等健康数据源的连接。您在Copilot Health中的信息不会用于模型训练。”

Q&A

Q1:Copilot Health能提供医疗建议吗?

A:不能。微软明确声明Copilot Health不用于诊断、治疗或预防疾病,也不能替代专业医疗建议。它主要提供个性化健康洞察和主动提醒,帮助用户整理健康数据,并协助用户在医疗预约时向医生提出更有针对性的问题。

Q2:Copilot Health如何保护用户的健康数据安全?

A:微软表示Copilot Health的对话和数据与普通Copilot隔离,受到额外的访问、隐私和安全控制保护。数据采用静态和传输加密、严格访问控制,用户可以随时管理和删除信息,断开与健康数据源的连接,且数据不会用于模型训练。

Q3:为什么科技公司都在推出健康AI产品?

A:因为市场需求巨大。OpenAI统计发现全球每天有超过4000万人向ChatGPT咨询健康建议,微软研究也显示近五分之一的Copilot对话涉及健康症状评估。OpenAI、Anthropic和微软都相继推出了各自的健康AI产品来满足这一需求。

© 版权声明

相关文章