Legal Risk Assessment and Prevention in Artificial Intelligence-Assisted Health Care
-
摘要:
随着大模型、生成式人工智能等新技术在医疗领域的广泛应用,人工智能医疗面临的法律风险显现出新的样态。人工智能医疗的算法歧视和数据安全问题催生了一般人格权和具体人格权侵权风险,医疗健康数据的处置与收益分配催生数据产权纠纷,人工智能技术深度嵌入后医疗损害责任亦存在归责不确定风险。基于人工智能医疗法律风险新的样态变化,需要建立相应的算法审查机制消弭算法歧视,完善数据全生命周期管理体系确保数据安全,确立数据产权分层确权授权规则化解产权纠纷,并针对医疗损害过错情形合理分配侵权责任。
Abstract:With the wide application of new technologies such as large language models and generative artificial intelligence (AI) in the health care sector, artificial intelligence-assisted health care is confronted with new forms of legal risks. The algorithmic bias and data security issues in AI-assisted health care have given rise to risks of infringement on general personality rights and specific personality rights. The handling of health care data and the distribution of profits from health care data have spawned disputes over data property rights. Moreover, there will also be risks of uncertainties in the attribution of liability for medical harms once AI technology becomes deeply embedded in health care. Based on the emerging changes in the legal risks associated with AI-assisted health care, it is necessary to establish a corresponding algorithm review mechanism to eliminate algorithm biases, improve the data management system through a whole-life cycle approach to ensure data security, define hierarchical data property rights and establish authorization rules to resolve property rights disputes, and reasonably assign tort liability for medical harms based on specific faults.
-
Keywords:
- Artificial intelligence /
- Intelligent medical treatment /
- Legal risk
-
1. 风险衍生:人工智能技术在医疗领域的应用发展
《中华人民共和国基本医疗卫生与健康促进法》(以下简称《基本医疗卫生与健康促进法》)第49条规定,“国家推进全民健康信息化,推动健康医疗大数据、人工智能等的应用发展”,以法律形式对人工智能在医疗健康领域的应用发展作出引导规范。人工智能(artificial intelligence, AI)是指模拟、延伸、扩展和表现出人类智能(如推理和学习)的能力,其技术实现的方式主要包括机器学习、神经网络、自然语言处理、计算机视觉、深度学习等[1]。近年来,以大模型、生成式人工智能为代表的技术革新,推动着人工智能技术从“浅层智能”迈向“深层智能”、从“计算”迈向“智算”[2]。在医疗领域,人工智能技术的应用亦从简单嵌入逐渐发展为系统融合,并在临床诊疗、医院建设、健康监测、影像识别、药物研发与管理、流行病监测与防控等场景得到相当程度的应用。例如,在医疗设备方面,截至2024年7月,国家药监局已批准的277个创新医疗器械中就含有多项人工智能医疗器械[3];而在医疗服务等方面,辅助诊断、影像分析和自助问诊等的人工智能应用亦取得了明显成效[4]。基于此,随着人工智能在医疗设备和服务等方面的广泛应用,“AI+医疗”正成为助推医疗卫生事业高质量发展的有力技术驱动,在保障公民更好享有基本医疗卫生服务,推进健康中国建设中显示出广阔应用前景[5]。
技术条件的变革通常也催生着新的风险样态,人工智能技术与医疗领域的嵌入融合也促成了风险因子的勾连叠加。党的二十届三中全会提出的“完善生成式人工智能发展和管理机制”和“建立人工智能安全监管制度”等决策部署[6],正是对人工智能技术发展中各类潜在风险的宏观政策回应。人工智能在医疗领域的广泛应用,在个人层面为医生和患者带来了更为便捷、精准和个性化的医疗服务,在机构层面也通过更为智能的数据分析建立健全医疗卫生服务体系。但与此同时,人工智能医疗也产生了诸如算法透明性、数据安全、数据产权、医疗损害责任界定等在内的法律风险。例如,在一起医疗保健人工智能引发的隐私权诉讼案件中(Dinerstein v Google),案件的主要事实就在于医疗机构在监测和分析患者基本情况时,在未经允许的情况将患者健康信息上传至谷歌公司并用于数据分析和产品开发,泄露了患者隐私和个人信息[7]。人工智能蕴含的技术风险与医疗领域的内生风险相互勾连叠加,构成了人工智能医疗中的法律风险新样态,广泛持续地影响着医生、患者以及医院之间的关系。因此,有必要分析评估人工智能医疗领域法律风险的主要类型与样态,构建科学有效、系统完备的风险防范路径,从而以法治方式促进人工智能医疗高质量发展。
2. 风险评估:人工智能医疗面临的法律风险新样态
“风险”是对发生各类人身伤亡、财产受损的可能性的描述,其语义指向“未来可能发生危害的不确定性”[8]。随着智慧医疗的推广,基于大语言模型的诊疗机器人、可穿戴健康监测设备、智能诊疗模型、个性化治疗方案以及自动预约系统等人工智能医疗设备、系统的应用渐次增多,放大和异化了医疗活动中的各类法律风险。人工智能医疗法律风险,即是医疗机构及医务人员在医疗过程中承担各类不利法律后果的可能性。实际上,风险虽然具有一定程度的不确定性,但“不确定性”的外延较之于风险更广,能够被预见、度量和评估的这部分的“不确定性”才被归为风险[9]。因此,区别于实质意义上完全的不确定性,风险是可被预见、度量和评估的,这也成为对人工智能医疗中的法律风险进行评估及防范化解的逻辑基础。
2.1 算法主导与算法歧视,催生人工智能医疗的一般人格权侵权风险
大模型、生成式人工智能等智慧医疗的技术融入,依赖于各式各样的“算法”的设计与运用。算法作为人工智能极为重要的技术手段,是通过预先给定的控制结构和步骤,分析处理接收到的信息和数据并输出结果[10]。从本质上而言,算法作为技术手段是中性的,其功能目的源自算法开发主体的设计,而其最终呈现出的功能效果也与使用主体的理解、运用有关。人工智能医疗的应用场景依赖于算法驱动,但算法主导之下,医务人员和患者作为人的主体性出现机制化和系统化的失却,对具有某些特征或被认为具有某些特征的群体区别对待,在一定程度上消解了相关群体人格平等、人格尊严的基础,为人工智能医疗的技术运用带来了一般人格权侵权风险。
一是算法的技术运用造就技术弱势群体的不平等。人工智能医疗的算法开发和使用,对于具备较高技术接纳度的群体而言提升了其参与医疗活动的便捷程度和效率。但算法在相关设备中的过量化应用,对缺乏“数字技能”的群体,如接受能力较差的老年人、文化程度较低的群体等,容易在繁杂的信息流转中被边缘化,其医疗诉求、健康状况等信息游离在人工智能医疗之外。此类“游离”并非仅关系到患者一方,而是对医务人员、医疗机构也有所制约和影响。例如,对人工智能技术接纳度低、较少普及智慧医疗的科室或医院,其产生的诊疗数据不会被算法正确收集和处理。长此以往,相关算法的迭代和优化更加不会考量此类技术弱势群体的实际诊疗情况,甚至会反过来异化技术弱势群体的实践判断,基于大数据分析的算法决策作用于医务人员的具体诊疗,从而进一步加剧技术方面的不平等、忽视技术弱势群体的实质诉求。
二是人工智能医疗通过健康智能监测、大数据分析等手段分析患者的前期病史、基因及生活方式,实现“个性化”医疗,提升了医务人员的诊断准确性、优化治疗方案,并对患者的护理质量也有一定程度的改善[11]。但上述手段也是基于算法的技术运作。人工智能医疗的算法模型至少在开发和使用这两个阶段,存在着产生算法歧视和偏见等不公平问题的可能性。在人工智能医疗的算法开发设计阶段,算法研发人员需要选定相应的医疗数据作为训练的数据集,并使之成为辅助医疗决策的重要依据。但如何采集和使用数据,以及选择何种类型、范围的数据不可避免地存有一定程度的主观性与局限性。与算法预设逻辑符合较佳的患者,通常能够适配更好的诊疗方案和分析结果;而不符合或较少符合算法预设逻辑的患者,则很有可能适配到无效的甚至是错误的“个性化”诊疗方案。因此,算法研发人员的知识面、价值观影响着人工智能医疗的算法模型生成,其主观性与局限性带来了一定程度的算法歧视。在人工智能医疗的算法使用与优化阶段,医务人员以及医疗机构通过相应的设备和系统,也会收集和处理大量的新的医疗健康信息,这些信息可能会在算法主导之下产生差别对待和不平等的问题。例如,医务人员借助人工智能技术开展诊疗活动,但算法基于前期数据的富集可能重点标记某些患者群体特征。算法在对相应特征进行智能分析后进行诊疗筛选过滤,可能会根据分析结果推荐质量各异、水平不一的治疗方案和医疗服务,致使人工智能医疗侵害人格平等权。此外,复杂化的数据集以及技术手段可能会导致算法黑箱的出现,导致算法歧视之后也不一定能被发现和修正。
2.2 数据携带医疗健康信息,催生人工智能医疗的具体人格权侵权风险
医疗健康信息是《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)第28条明确列举的“敏感个人信息”。“推进全民健康信息化”与“推动健康科技创新”等政策举措的持续实施,为人工智能医疗富集了广泛丰富的医疗健康数据,如个人层面的患者身份信息、医疗保健数据,群体层面的人类基因遗传数据、地方性流行病数据等。庞大的医疗健康数据赋予了人工智能医疗更精准和更高效的辅助决策能力,但是此类数据存在着被滥用或非法使用的可能性。在智能互联网时代,医疗健康数据这类“敏感个人信息”的泄露或非法使用,容易导致自然人的人格尊严受到侵害或者人身、财产安全受到危害。就人工智能医疗数据携带的病历、不良反应报告、临床诊疗方案等各类医疗健康信息而言,一旦发生泄露或被非法使用,将会侵犯自然人单项或多项的具体人格权,如生命权、健康权、名誉权、肖像权、个人信息权等[12]。
医疗健康数据具有极强的特殊性与敏感性,关系到人工智能辅助医疗决策的有效性与高效性,是各类深度学习的人工智能医疗算法模型得以应用、验证、反馈、发展所必需的。但是,医疗健康数据在采集、使用、处理等各个环节都存在着一定程度的安全风险。例如,在数据采集环节过度收集自然人信息、屏蔽或限缩自然人知情同意的权利;在数据使用环节超出必要限度或用于非法用途,致使一些患者的“敏感细节”被不当公布;在数据处理环节的“数据脱敏”不到位,导致患者的医疗健康信息泄露等。质言之,医疗健康数据的规范使用是人工智能医疗得以持续发展的安全性前提,医疗健康数据的采集、使用和处理等各个环节都存在“敏感个人信息”被泄露或被非法使用的可能性。
2.3 数据处置与收益分配,催生人工智能医疗的数据产权纠纷
数据作为形成新质生产力的优质生产要素,可通过深度学习、构建分析模型等方式来挖掘和加工数据并产生新的价值[13]。人工智能医疗中生产和采集处理的医疗健康信息,以“数据资产化”的形式产生包括经济利益在内新的价值。但人工智能医疗涉及的数据来源和范围极为广泛,电子病历、医疗影像分析、智能问诊等诸多医疗活动都会产生包括个人基本信息、健康状况信息、卫生资源信息、药物应用信息等在内的多种医疗健康信息数据。此外,人工智能医疗数据所承载的权利主体也趋于多元化,有包括个人、企业、医疗机构、公共卫生机构、管理机构、科研机构等在内的多个权利主体,涉及个人与个人、个人与机构、机构与机构等多重产权交叠[14]。
医疗健康数据来源的广泛性以及权利主体的多元化,使得人工智能医疗的数据产权归属相当模糊,不同主体之间关于数据处置和收益分配存在争议和纠纷。医疗健康数据产权归属的模糊性还降低了医疗机构、医务人员以及人工智能医疗产品提供者之间的合作意愿,进一步增加了数据产权纠纷化解的难度。与此同时,医疗健康数据还具备公共属性,但人工智能医疗数据产权模糊化的情况下,相关医疗健康数据的分类分级保护和有序开放使用也较为困难,难以有效地将其纳入公共数据资源目录体系管理。
2.4 技术嵌入影响侵权责任的过错认定,催生人工智能医疗的归责不确定风险
大模型、生成式人工智能的技术嵌入医疗设备和服务,成为医务人员进行诊疗活动的重要辅助,例如肺结节CT影像辅助检测软件、冠脉CT造影图像血管狭窄辅助分诊软件以及常见的智能问诊分诊机器人等。随着人工智能医疗的软硬件设备的开发和应用渐次增多,人工智能越来越深入地作用于医疗决策,发生医疗事故时归责的不确定性也随之增加。《中华人民共和国民法典》(以下简称《民法典》)规定医疗损害的责任承担重点在于“过错”,即患者在诊疗活动中受到损害,医疗机构或者其医务人员有过错的,由医疗机构承担赔偿责任。从实践中人工智能医疗的人机交互关系出发,人工智能医疗的侵权责任主要为医疗产品责任和诊疗损害责任两类[15]。但这两类侵权责任并非总是独立生发,而是在实践中存在着交互叠加,造成了人工智能医疗归责的不确定。
人工智能医疗归责的不确定一方面体现在归责主体难以界定。嵌入大模型、生成式人工智能等技术的医疗产品,其开发、推广应用和具体使用关涉到包括医务人员、患者、医疗机构、企业等在内的多元主体,为医疗过错的认定和追责带来了困难。上述主体亦并不一定独立作用于医疗产品责任,例如某些医疗损害中既有算法模型开发者的疏漏,也有医务人员或患者运用人工智能辅助诊疗的错误使用。另一方面,尽管人工智能医疗居于辅助性定位,通常的诊疗制度安排是以人工智能医疗设备辅助诊疗并由医务人员人工复查,但其实践张力在于,如若每项人工智能辅助决策均由医务人员复查核实,那么辅助效率将极大受限甚至增加了医务人员排除错误的负担和判断失误的风险。因而人工智能医疗的应用发展中,存在着以其辅助性替代医务人员和患者主体性的倾向,为医疗损害责任的划分造就了模糊空间。此外,由于算法黑箱等技术原因的存在,数据采集筛选、设备软硬件更新等多种情况的改变都会影响诊疗结果的具体判断,有可能开发者和使用者都很难察觉相关损害是否确凿来自人工智能医疗。因此,人工智能医疗的侵权风险整体上存在扩大化,但侵权风险的具体责任承担者却呈现分散化态势,医疗损害责任难以在多元主体中找寻,也难以更进一步地合理界分相关主体实际应当承担的责任。
3. 人工智能医疗法律风险的防范路径探索
3.1 建立人工智能医疗算法审查机制
人工智能医疗的算法运行与公众的生命健康密切相关,其容错率比其他领域人工智能要低,而其“技术向善”的期待值则较之于其他领域人工智能要高。因此,需要关照人工智能医疗的领域地位,以及其法律风险的特殊性,建立起人工智能医疗算法审查机制,由技术主体、医疗机构及监管部门组成人工智能医疗算法审查委员会,对人工智能医疗算法目的、程序、效果等层面的进行审查,促使其符合医学伦理和法律规范,成为可信赖的、合乎法律和伦理的人工智能医疗。
人工智能医疗算法的目的审查,主要是通过对相关算法的底层代码和数据采集的识别分析,防止算法开发者在算法模型中写入有悖于一般医学伦理和法律规范的技术目的,并需要对不适宜的数据进行排除和滤筛。算法的目的审查具有抽象性,可以由审查主体事前对算法的运用场景进行量化并划定范围,以列举的方式将算法预期目的和使用范围予以阐明,要求开发者按要求设计算法模型。在算法模型设计完毕后,由审查主体进行比对,审查其是否满足列举的要求,强化人工智能医疗算法的规范性和客观性。人工智能医疗算法的程序审查,主要是通过提升算法技术路径的透明度和可见性,推进算法公正、减少算法歧视和算法滥用。
人工智能医疗算法的开发者需要向医疗机构及监管部门报备相应的参数、数据以及技术路径等,并将必要的算法代码及编程语言转换为有关智慧医疗的自然语言。依此,人工智能医疗算法如何辅助诊疗、如何设定参数等技术程序得以向有关部门呈示,也有助于医务人员和医疗机构更好理解和使用相应算法模型,减少由算法带来的医疗不公现象。
由于算法黑箱的存在,人工智能医疗算法的目的审查和程序审查难以实现全面且详尽的事前审查,因而也需要在其应用实施后进行效果审查。人工智能医疗算法的效果审查可以采用主动审查与被动审查相结合的方式。主动审查即由审查主体在人工智能医疗算法模型应用实施一段时间以后,进行相应的审查评估,检验其在实际运行中是否符合相关医学伦理要求和法律规范;被动审查则是指相关医务人员、医疗机构以及患者,在人工智能医疗中发现或受到不公正或不正确的对待,可就相关算法提请审查,确保人工智能医疗算法的规范有效运行。
3.2 完善人工智能医疗数据“全生命周期管理”体系
医疗健康信息属于敏感个人信息,《个人信息保护法》第28条明确规定了个人信息处理者处理此类信息必须具有“特定的目的”和“充分的必要性”,并且需要采取严格保护措施,为规范医疗健康信息的采集处理提供了充分的法律基础。人工智能医疗生产、采集和处理患者的医疗健康信息有其必要性和合理性,但需要承担保障数据安全的法律义务和责任。对于医疗健康信息的处理,需要平衡好用于人工智能医疗技术发展和数据安全之间的关系,建立人工智能医疗数据“全生命周期管理”体系。全生命周期管理作为现代化的管理理念,能够以全要素管控和统筹整合实现全方位、全流程闭环管理[16],与大模型、生成式人工智能等新技术的发展需求与安全需求相契合。人工智能医疗中由医务人员、患者产生的各类医疗健康信息,其采集、使用、处理等均应纳入规范监管,并建立免于进入或退出人工智能医疗的环节,实现人工智能医疗数据的全生命周期管理。
具体而言,一是在医疗健康数据的采集环节,人工智能医疗的开发者或提供者应当向医务人员以及患者说明数据采集的相关情况,例如数据范围、采集的必要性、可能的用途等等,避免侵犯相关主体的知情同意权;二是在医疗健康数据的使用环节,应当用于之前向医患双方说明的用途,需要变更用途的也应当向特定主体告知或公示,不得因为经济利益等原因擅自变更数据用途;三是医疗健康数据的处理环节,需要严格遵循合法、正当、必要等处理原则,即数据处理需要遵循《民法典》《个人信息保护法》《中华人民共和国数据安全法》《生成式人工智能服务管理暂行办法》等法律法规,不得突破现行法律框架,并且还需要具有充分的正当性和必要性基础;四是建立免于进入或退出人工智能医疗的环节,即医务人员和患者有权拒绝人工智能医疗的辅助性诊疗,可以退出与人工智能医疗产品或服务的交互,从源头上避免自身的医疗健康信息被记录和使用。
3.3 确立人工智能医疗数据产权的分层确权授权规则
“数据分类分级确权授权”是构建数据基础制度的顶层设计要求之一[17]。医疗健康数据的产权确权授权,可依据其数据属性进行“产权分层”。原因至少包括以下三点。一是从权利价值来看,医疗健康数据涉及个人导向下的自然人基本权利价值、市场导向下的经济效率价值、公共物品导向下的社会价值,不同层次的权利之间构成限缩与制约;二是从权利主体来看,医疗健康数据的权利主体复杂多样,囊括了从自然人到机构、从生产者到处理者等多元主体;三是从权利存在形式来看,医疗健康数据属于“无形物”,其可以被多个层次的主体占有和处分、使用,不影响其实际存在[18]。基于此,人工智能医疗中的数据要素产权得以适配分层式确权授权,以数据产权分层因应可能的利益冲突和价值衡量需求。
人工智能医疗数据产权的分层式确权授权需要有明确的规则基础,才能实质减少数据处置与收益分配等方面的数据产权纠纷。具体而言,一方面可按医疗健康数据关涉的国家安全、公共利益、商业秘密、个人隐私等进行排他性确权。人工智能医疗数据涉及公共利益乃至国家安全的部分,其产权应当归属于国家,不得将其产权归属至个人或企业主体,也不得用作商业用途;而涉及企业的商业秘密或个人的人格权的数据,则应归属为对应的企业及个人。对于不涉及个人隐私、商业秘密、国家安全的医疗健康数据,则可归属相关市场主体或者直接公开,以便最大程度发挥医疗健康数据服务公共卫生事业、创造经济社会价值的作用。另一方面,就具体的产权划分规则而言,可依据“数据贡献度”构设分层式确权规则,减少权利主体复合带来的产权纠纷。尽管数据产权归于数据生产者的简要分配原则具有相当程度法理基础,但实践中个人、企业、医疗机构、公共卫生机构、管理机构、科研机构在人工智能医疗数据的产生、采集和处理的各环节都发挥了一定作用,只是其贡献度却存有差别。因此,可以根据相关主体在形成医疗健康数据过程中的实际贡献度,对其理应享有的数据产权进行确认,而在处分医疗健康数据产权或分配收益时,也需要按实际贡献度进行合理划分。此外,在构设人工智能医疗数据产权的分层确权授权规则时,还需要体现出“权利人负责”的原则,即个人、企业或相关机构处分医疗健康数据、享受其收益时,需要承担保障数据安全责任,确保医疗数据产权确权授权规则保持权利义务一致性与权责均衡。
3.4 以“过错情形类型化”合理分配人工智能医疗侵权责任
“过错”是认定和分配医疗损害责任的核心要件。从人机交互关系角度出发,人工智能医疗侵权责任的过错情形主要有三种,即基于开发设计缺陷的医疗产品责任,基于医务人员或医疗机构过错的诊疗损害责任,以及上述两种过错共同致人损害的混同责任。具体而言,基于开发设计缺陷的医疗产品责任界分最为明晰,人工智能医疗设备和系统存在相应的软件、硬件缺陷并导致相关人员受到损害时,直接适用医疗产品责任向相关设备、系统的开发者或提供商追责即可。与医务人员及医疗机构有关的诊疗损害责任认定,重点在于医务人员及医疗机构是否尽到注意义务、管理义务等法律义务。医务人员和医疗机构应当对其所使用的人工智能医疗产品具有必要的了解,知晓人工智能医疗产品的算法审查情况、临床用途等基础信息,并在人工智能医疗产品的使用过程中安全使用,防止其被错误使用或非法利用。医疗机构还对人工智能医疗产品的应用推广、培训教育、安全维护负有管理责任。医疗产品责任和诊疗损害责任共同造成医疗损害的情形下,尽管存在着算法黑箱等技术方面的归责困难,但应当先由人工智能医疗产品提供商与医疗机构承担共同承担连带赔偿责任。面向患者的外部赔偿责任承担后,人工智能产品提供商、医疗机构应当根据具体过错情形分配内部责任。此种情况下,为解决人工智能医疗侵权责任的内部划分存在的技术疑难,可成立人工智能医疗算法审查委员会、人工智能医疗鉴定委员会等专门机构予以鉴定,确定各相关主体应当承担的具体责任份额。
4. 结语与展望
融合大模型、生成式人工智能等新技术推进人工智能医疗的应用发展,既是提升公共卫生服务有效性和长效性的现实需要,也是《基本医疗卫生与健康促进法》的法律规定和“推进健康中国建设”的政策要求。在此背景下,如何防范化解人工智能医疗的法律风险尤为重要。除针对人工智能医疗的算法、数据、责任分配等予以机制性、即时性的策略建构之外,还应当强化人工智能领域及医疗健康领域的立法,确保人工智能医疗的应用发展有明确的法律条款作为规范基础,以法律形式维护人工智能医疗的安全性。随着人工智能医疗的持续普及和规范发展,优质医疗资源亦能借助智能技术更好地扩容下沉,紧密型医联体建设与基层医疗卫生服务也将迈向更高水平,从而为社会公众提供更安全、更高效、更普惠的医疗健康产品和服务。
* * *
作者贡献声明 杨金铭负责调查研究和初稿写作,王纳和胡业勋负责监督指导和审读与编辑写作,张伟负责论文构思、监督指导、初稿写作和审读与编辑写作。所有作者已经同意将文章提交给本刊,且对将要发表的版本进行最终定稿,并同意对工作的所有方面负责。
Author Contribution YANG Jinming is responsible for investigation and writing--original draft. WANG Na and HU Yexun are responsible for supervision and writing--review and editing. ZHANG Wei is responsible for conceptualization, supervision, writing--original draft, and writing--review and editing. All authors approved the final version to be published and agreed to take responsibility for all aspects of the work. All authors consented to the submission of the article to the Journal.
利益冲突 本文作者张伟是本刊编委会编委。该文在编辑评审过程中所有流程严格按照期刊政策进行,且未经其本人经手处理。除此之外,所有作者均声明不存在利益冲突。
Declaration of Conflicting Interests ZHANG Wei is a member of the Editorial Board of the journal. All processes involved in the editing and reviewing of this article were carried out in strict compliance with the journal's policies and there was no inappropriate personal involvement by the author. Other than this, all authors declare no competing interests.
-
[1] 邱英鹏, 吴迪, 肖月, 等. 我国人工智能医疗技术定义和分类思考. 医学信息学杂志, 2023(10): 11-15. doi: 10.3969/j.issn.1673-6036.2023.10.002. QIU Y P, WU D, XIAO Y, et al. Thoughts on the definition and classification of artificial intelligence medical technology in China. J Med Inform, 2023(10): 11-15. doi: 10.3969/j.issn.1673-6036.2023.10.002.
[2] 唐维红, 唐胜宏, 刘志华. 中国智能互联网发展报告(2024). 北京: 社会科学文献出版社, 2024: 4-6. TANG W H, TANG S H, LIU Z H. Annual report on China’s intelligent internet development (2024). Beijing: Social Sciences Academic Press, 2024: 4-6.
[3] 申少铁. 277个创新医疗器械获批上市. 人民日报, 2024-07-09(013). http://www.kpzg.people.com.cn/n1/2024/0709/c404214-40273919.html. SHEN S T. 277 Innovative medical devices approved for market. People's Daily, 2024-07-09(013). http://www.kpzg.people.com.cn/n1/2024/0709/c404214-40273919.html.
[4] 张大庆. 人工智能应用于医疗服务的历史变迁. 医学与哲学, 2023(1): 6-7. ZHANG D Q. The historical evolution of artificial intelligence in medical services. Med Philos, 2023(1): 6-7.
[5] 张旭东, 陈校云, 杨吉江, 等. 中国医疗人工智能发展报告(2023). 北京: 社会科学文献出版社, 2024: 36-37. ZHANG X D, CHEN X Y, YANG J J, et al. Annual report on medical artificial intelligence in China (2023). Beijing: Social Sciences Academic Press, 2024: 36-37.
[6] 中共中央关于进一步全面深化改革 推进中国式现代化的决定. 人民日报, 2024-07-22(1). http://www.cpc.people.com.cn/n1/2024/0722/c64387-40282390.html. The resolution of the Central Committee of the Communist Party of China on further deepening reform comprehensively to advance Chinese modernization. People's Daily, 2024-07-22(1). http://www.cpc.people.com.cn/n1/2024/0722/c64387-40282390.html.
[7] DUFFOURC M N, GERKE S. Health care AI and patient privacy—dinerstein v google. JAMA, 2024, 331(11): 909- 910. doi: 10.1001/jama.2024.1110
[8] 王海明. 风险标识及其整体迁变趋势. 浙江社会科学, 2021(1): 84-90. doi: 10.14167/j.zjss.2021.01.009. WANG H M. Risk identification and its overall evolutionary trends. Zhejiang Soc Sci, 2021(1): 84-90. doi: 10.14167/j.zjss.2021.01.009.
[9] 弗兰克·H. 奈特. 风险、不确定性与利润. 安佳, 译. 北京: 商务印书馆, 2010: 15-16. FRANK H K. Risk, uncertainty, and profit. Translated by AN J. Beijing: The Commercial Press, 2010: 15-16.
[10] 汪江桦, 汤建国. 算法设计基础. 北京: 人民邮电出版社, 2020: 2-6. WANG J H, TANG J G. Fundamentals of algorithm design. Beijing: Posts & Telecommunications Press, 2020: 2-6.
[11] LI Y H, LI Y L, WEI M Y, et al. Innovation and challenges of artificial intelligence technology in personalized healthcare. Sci Rep, 2024, 14(1): 18994. doi: 10.1038/s41598-024-70073-7.
[12] 敬力嘉. 个人信息保护合规的体系构建. 法学研究, 2022(4): 152-167. JING L J. The system construction of personal information protection compliance. Chin J Law, 2022(4): 152-167.
[13] 洪名勇, 张西凤. 数据赋能新质生产力发展的作用机理与实现路径研究. 经济问题, 2024(10): 32-40. doi: 10.16011/j.cnki.jjwt.2024.10.003. HONG M Y, ZHANG X F. The mechanism and path of data empowerment in the development of new quality productive forces. Econ Probl, 2024(10): 32-40. doi: 10.16011/j.cnki.jjwt.2024.10.003.
[14] 李爱君. 训练数据主体权益保护的新型数据财产权构建. 政法论丛, 2023(6): 73-85. doi: 10.3969/j.issn.1002-6274.2023.06.007. LI A J. The construction of a new type of data property rights for the protection of the rights and interests of the subjects of training data. J Polit Sci Law, 2023(6): 73-85. doi: 10.3969/j.issn.1002-6274.2023.06.007.
[15] 郑志峰. 诊疗人工智能的医疗损害责任. 中国法学, 2023(1): 203-221. doi: 10.14111/j.cnki.zgfx.2023.01.011. ZHENG Z F. Medical malpractice liabilities of artificial intelligence in medical diagnoses. Chin Legal Sci, 2023(1): 203-221. doi: 10.14111/j.cnki.zgfx.2023.01.011.
[16] 余少祥. 全周期管理的理念、特征与实践进路. 人民论坛, 2023(16): 87-89. doi: 10.3969/j.issn.1004-3381.2023.16.019. YU S X. The concept, characteristics and practical approaches of full-cycle management. People's Trib, 2023(16): 87-89. doi: 10.3969/j.issn.1004-3381.2023.16.019.
[17] 中共中央、国务院关于构建数据基础制度更好发挥数据要素作用的意见. 人民日报, 2022-12-20(1). http://politics.people.com.cn/n1/2022/1219/c1001-32589890.html. The opinions of the Central Committee of the Communist Party of China and the State Council on building the basic system of data and better exerting the role of data elements. People's Daily. 2022-12-20(1). http://politics.people.com.cn/n1/2022/1219/c1001-32589890.html.
[18] 申文君. 数据要素产权界定层次论—法理基础、规范设计与机制保障. 中国科技论坛, 2024(8): 74-82. doi: 10.13580/j.cnki.fstc.2024.08.006. SHEN W J. Hierarchy of property rights definition for data elements—legal basis, regulatory design, and mechanism safeguards. Forum Sci Technol China, 2024(8): 74-82. doi: 10.13580/j.cnki.fstc.2024.08.006.
-
期刊类型引用(0)
其他类型引用(1)

开放获取 本文遵循知识共享署名—非商业性使用4.0国际许可协议(CC BY-NC 4.0),允许第三方对本刊发表的论文自由共享(即在任何媒介以任何形式复制、发行原文)、演绎(即修改、转换或以原文为基础进行创作),必须给出适当的署名,提供指向本文许可协议的链接,同时标明是否对原文作了修改;不得将本文用于商业目的。CC BY-NC 4.0许可协议详情请访问 https://creativecommons.org/licenses/by-nc/4.0
计量
- 文章访问数: 189
- HTML全文浏览量: 40
- PDF下载量: 37
- 被引次数: 1