医疗人工智能临床应用的法律挑战及应对Word格式.docx
- 文档编号:20339268
- 上传时间:2023-01-22
- 格式:DOCX
- 页数:6
- 大小:22.30KB
医疗人工智能临床应用的法律挑战及应对Word格式.docx
《医疗人工智能临床应用的法律挑战及应对Word格式.docx》由会员分享,可在线阅读,更多相关《医疗人工智能临床应用的法律挑战及应对Word格式.docx(6页珍藏版)》请在冰豆网上搜索。
一、医疗AI临床应用的现状
(一)医疗AI诊断
目前,医疗AI在医学诊疗、治疗、护理以及健康管理等环节均已实现临床应用。
利用AI影像辅助诊断,可以帮助医生提高癌症或心脏疾病的诊断准确率。
日本的CAD(电脑辅助诊断)系统,通过胸部CT照片分析,能以较高的准确率检查出肺结核等疾病。
在日本2022年举办的一次转移性乳腺癌诊断比赛中发现,病理医生的误诊率为3.5%,但医生借助此系统可以将误诊率降低至0.5%。
〔1〕AI影像诊断的升级就是辅助诊断。
医疗AI通过学习海量的医学数据和专业知识,模拟医生的诊断方式,可在短时间内提供出高效、精准的诊断结果和个性化的治疗方案。
此领域最出名的为IBM的WatonforOncology(沃森肿瘤学)系统。
Waton通过对大量的癌症临床知识、基因组数据、癌症病例信息的“学习”后,可以为临床医师提供治疗方案,是AI辅助诊断的典范。
〔2〕只要输入患者的电子病历等信息,Waton能够快速挖掘医学知识和患者的个人记录,在不到3秒钟的时间内完成诊断,并根据病人的病历提出有针对性的个性化治疗。
现在Waton已经可以查出至少13种器官中的肿瘤。
在日本,Waton曾经只用10分钟就将病人的基因变化信息与2000万篇癌症科研论文的数据进行了比较,准确鉴定了罕见白血病类型,成功挽救了一位60岁妇女的生命。
〔3〕
(二)医疗AI治疗
医疗AI不仅可以进行诊断,还可参与手术等外科治疗。
当下,外科医生可以远离手术台操纵AI对心脏和前列腺实施外科手术。
手术AI的杰出代表是“达芬奇手术AI”。
“达芬奇”是目前世界上最先进的手术AI(内窥镜手术器械控制系统),可以在医生的操作下,利用手术器械模拟医生的手术过程,完成精细化的手术操作。
“达芬奇”具有辅助成像系统,能将手术的视觉放大10倍至15倍,使手术画面更清晰,操作精度更高。
此外,“达芬奇”的手臂能进行大角度自由旋转,达到医生手术刀达不到的位置,而且操作稳当,不会出现人工操作的颤抖等情况。
“达芬奇”曾经在一个玻璃瓶里给葡萄缝合葡萄皮,这是人手难以达到的境界。
总之,“达芬奇”为外科医生的手术精度提高了一个数量级,能减小伤口创伤面,减轻病人痛苦,加快术后恢复。
数据显示,“达芬奇”仅在2022年即完成11445例手术,〔4〕截至2022年3月,国内“达芬奇”已装62台,且全球机器人手术量以年均15%的速度增长。
〔5〕
(三)医疗AI护理
随着全球老龄化加速和慢性病患者的激增,AI护理存在巨大的市场需求。
国外在临床上已经出现护理机器人。
护理机器人是将传统的护理工作与先进的机器人技术相结合的体现,目前已有康复机器人和生活护理机器人。
康复机器人有外骨骼机器人和儿童上肢康复机器人。
康复机器人能有效提高需要康复训练患者的训练强度和效率,帮助残障人(包括老年人、残疾人、伤病人)提高生存质量和社会生活参与能力。
〔6〕日本研究机构Riken开发的机器人Robear,能将病人从床上抬起,帮助行动不便的病人行走、站立等,能为老年及瘫痪患者提供喂饭等服务。
还可以通过超声波,实时掌握老年人及瘫痪患者膀胱内的尿量变化,有效预测被护理者的排泄时间,即可保护这类人员的尊严,也可减轻看护者的负担。
〔7〕澳大利亚养老院用机器人做护工,通过给机器人输入程序,可以使其与老年人一对一交流,消减老年人的苦闷。
〔8〕
(四)医疗AI健康管理
二、医疗AI临床应用的法律挑战
(一)醫疗AI的法律地位问题
医疗AI在诊断、治疗、看护以及健康管理领域的应用呈逐渐扩大和深入之趋势,考虑其进步潜力及医学应用前景,法律应鼓励这种创新技术的发展。
随着医疗AI在临床上的不断应用,法律责任问题必然产生。
首先,医疗AI诊断必须达到一定的标准,才能进入临床应用环节。
问题是,医疗AI在诊断、治疗、护理环节中运用时,行为主体是医疗器械还是医生,这两者的准入标准并不相同,究竟达到何种标准才能进入临床使用?
其次,大数据与AI技术本身带有不确定性,技术自身的发展以及技术应用的结果都可能产生无法控制或预测的风险。
〔10〕医疗AI误诊或误操作等现象难以避免,当对病人造成损害的,显然需要追究法律责任。
但是,追责对象究竟是AI本身,还是医务人员和医疗机构,还是医疗AI的生产者(包括软件或硬件)?
换言之,医疗AI在法律上是人还是物?
这是探究医疗AI法律责任最基本也是最重要的问题。
只有在法律上界定了医疗AI诊断的法律身份,其他的相关问题才能迎刃而解。
(二)医疗损害的法律责任问题
实践证明,医疗AI误诊或误操作等现象难以避免。
由于Waton背后的“技术黑箱”和“自主学习”,它无法解释它的决策理由,即为什么会为特定的患者推荐特定的治疗方案,有时甚至是专科医生们也会疑惑Waton为何会提出他们不会提出的治疗方案。
〔11〕此时,医生对于究竟是否需要采纳Waton的方案将陷入两难的境地,如果因采纳Waton的方案而导致误诊的,或者明明可以使患者获得救助,却因未采纳Waton的方案而导致患者误诊受到损害的,是否需要承担法律责任?
再如,“达芬奇”这样的手术AI虽然出色,但也仍然存在安全风险。
在英国2022年首例“达芬奇”心瓣修复手术中,机械手臂乱动打到医生的手,还把病人心脏放错位置,戳穿了患者的大动脉。
〔12〕由于手术AI没有触觉反馈,医生无法感知到在手术过程中病人的身体反馈情况,难以根据临床现状及时调整手术方案,一旦碰上手术AI出现硬件故障或程序漏洞,很容易造成医疗事故。
医疗AI在护理和健康管理中同样存在因AI硬件故障或程序漏洞而导致患者遭受医疗损害的问题。
那么,这类手术AI的安全标准是什么,一旦发生医疗事故,责任主体是谁,此类问题亟须法学界给出答案。
(三)医疗数据的保护和利用问题
发展医疗AI,特别是发展医疗AI健康管理,需要利用大量医学数据。
医疗AI的服务质量取决于喂投给它的医疗数据的量,两者成正比关系。
为了更好地提供精准化、个性化的健康管理服务,往往需要采集使用者全时段、全方位、长周期、海量的生理和生活数据,其中绝大部分属于隐私数据,对这些数据进行简单地大数据分析就可得知使用者的敏感信息,一旦被有意或无意地泄露,会给使用者造成重大法益侵害。
而且,医疗AI不同于医生,系统收集到的患者信息保存于云端或存储器,就算人工删除也能被轻易恢复。
而且,AI的“保密性”不像人那样存在情感,任何人均可从中调取信息,加密措施也无法完全阻止黑客的信息调取。
完全摒弃保护隐私,全部数据均用于发展AI,或者追求隐私的绝对保护,全面禁止AI使用医疗大数据,显然均不可取。
需要在这两者之间寻找到平衡点。
此外,通过对大量医疗数据的加工可以形成新的有用数据,此时不仅需要保护被搜集人的个人信息权,还要保护数据开发者、合法利用者的数据权,迄今为止,如何对数据进行确权并且构建起权利内容和权利转移制度尚未解决。
〔13〕这为法律对医疗数据的保护和利用提出了较高的要求。
三、医疗AI临床应用的法律对策
(一)医疗AI的法律地位
我国尚无法律法规用于界定AI的法律地位。
但是,从外观而言,医疗AI是具有特定物理形态的医疗工具,与其他手术器械相比,并无颠覆性的改变。
从内在而言,医疗AI是一套能够按照内设程序进行操作的系统,该系统由人类设计,并受人类控制,并未做到完全独立自主地从事医疗行为。
而且,医疗AI无法像人类医生那样和病人进行情感交流,或许永远无法超越专业人员对疾病和病人人生观和价值观的理解。
从AI的发展阶段来看,当前医疗AI还缺乏自我意识,不会像人类一样思考,仍然处于弱AI阶段。
当下,最终做诊断结论和手术操作(或下达动作指令)的仍然是医生。
因此,此阶段的医疗AI不应具有法理主体地位,仍然属于医疗器械。
其不仅不具备产生民事法律关系的主体资格,更不能成为承担刑事责任的主体,难以独立承担法律责任。
当然,随着AI技术不断发展与进步,真正到达强AI阶段,人机界限模糊且人机共存状态成为新的社会特征,出现具有法律人格或类法律人格的智能机器人,以人际社会关系作为调整对象的法律制度将出现颠覆性的变革。
〔14〕在将来医疗AI确实达到能够独立诊断或独立手术的地步,通过立法赋予其一定的法律主体地位也未尝不可。
其实,早在2022年,欧盟委员会的法律事务委员就建议将最先进的AI人的身份定位为“电子人”。
如果医疗AI要作为独立主体进行诊断或治疗等活动,为了保证医疗水准以及医疗安全,就应当向人类医生一样,让其必须要获得相关的行医资格。
到那个阶段,法律就不能将其简单地定义为人或者物,而应是一定条件下的物或一定条件下的人,即应当以医疗AI的具体应用场景对其作出人或者物的定性。
医疗AI不仅要满足作为医疗设备的各项指标,更要达到作为主体“医生”的各项要求,在出现医疗损害时甚至成为承担法律责任的主体。
(二)医疗AI引发医疗损害时的法律责任
“没有责任就没有刑罚”是现代刑法的一个基本原理。
〔15〕责任的本质特征是非难可能性,只有在具有非难可能性的情况下,行为人才能对不法行为承担责任。
〔16〕由于我国目前尚未出台专门针对医疗AI的法律法规,有必要在既有的法律框架内探讨医疗AI在诊断和治疗过程中引发医疗事故时的法律责任。
如上述,医疗AI目前仍是辅助医疗工具,还不具有法律上的主体地位,因此,当下医疗AI造成医疗事故时,责任主体仍是研发者、生产者以及使用者。
法律责任通常包括民事责任和刑事责任。
〔17〕
1.医疗AI使用者的法律责任
根据《侵权责任法》第54条和57条的规定,患者在诊疗活动中受到损害,医疗机构及其医务人员有过错的,或者医务人员在诊疗活动中未尽到与当时的医疗水平相应的诊疗义务的,由医疗机构承担赔偿责任。
此外,根据《刑法》第335条规定,医务人员由于严重不负责任,造成就诊人死亡或者严重损害就诊人身体健康的,构成医疗事故罪,医务人员需要承担刑事责任。
总之,不管追究医疗事故的民事责任还是刑事责任,问题的核心都是相关人员是否存在过失。
相对于民事侵权,构成医疗事故罪则要求医务人员存在重大过失。
在治疗和护理领域,医疗AI均有可能引发医疗事故。
现阶段医疗手术环节的主要角色仍然是医生,因医疗AI引发医疗事故的,首先要追究医务人员的过失责任。
其过失的判断构成与上述出现误诊时的情形基本相同。
医务人员因未尽到注意义务而造成医疗事故的,需要承担过失责任。
当然,从医术正当性的角度而言,医务人员应当履行谨慎操作的义务。
为了实现这一目的,应在正确掌握操作技能的基础上才能使用医疗AI,在未能掌握操作技能的情况下鲁莽操作,或者未按照使用说明步骤误操作,给患者造成损害的,当然要承担侵权责任,如果情节严重,给患者造成了死亡或者严重损害就诊人身体健康的行为,甚至需要承担医疗事故罪的刑事责任。
2.医疗AI生产者的法律责任
AI系统很复杂,不可能不存在任何缺陷。
〔18〕因硬件故障或电气噪音、代码错误等都可造成产品缺陷。
此外,系统没有得到合理的维护和更新,也会直接产生错误的判断或命令执行。
医疗AI未经人的过失行为直接导致患者损害结果发生的,其自主决策能力带来的不可预测性将中断医疗机构与患者损害之间的因果关系,在医务人员根据相关手册正确操作智能医疗机器人后,难以认定医疗机构在诊疗活动中未尽到合理注意义务而存在过错。
因此,此情形之下可以考虑的追责对象只能是医疗AI仪器的生产者(包括程序的开发者)。
医疗AI的生产者需要履行告知使用者后再使用的义务,否则制造商存在过失。
如果因为机器本身的设计缺陷而导致损害结果发生,理应适用产品责任规定。
医疗AI属于医疗器械,依照《侵权责任法》第41条的规定,因产品缺陷而导致他人生命、身体和财产法益遭受损害的,即使无法证明生产者存在过失,仍然可以追究生产者的赔偿责任。
而且,依照《刑法》第145条的规定,生产不符合保障人体健康的国家标准、行业标准的医疗AI,或者销售明知是不符合保障人体健康的国家标准、行业标准的医疗AI,足以严重危害人体健康的,将构成“生产、销售不符合标准的卫生器材罪”,需要承担刑事责任。
为了明确责任,国家应当制定统一的医疗AI安全标准,以提供缺陷判断依据。
如果是确实已经过充足而严格的实验,通过权威机构的相关安全认证,仅仅因科技水平的限制,人的认识能力不足等原因而导致AI造成医疗事故的,可以认定为医疗意外,生产者无须承担责任。
但有必要引入责任保险制度。
这样可以在高效救济受害人的同时,减轻生产者的负担,分散事故风险,有利于医疗AI的创新和发展。
〔19〕
3.医疗数据的保护与利用
医疗大数据是医疗AI的应用基础。
医疗数据中几乎包含了公民的所有个人,除了姓名、年龄、身高、体重等基本外,还有现在及以前的健康状况,甚至是基于基因检测而获得的基因信息。
负面的医疗信息,特别是敏感度极高的负面基因信息,一旦被泄露,将使受害人在就学、就业、加入保险等方面受到歧视。
我国无论是宪法、民法还是行政法都规定医务人員具有守密义务,违反了这些规定,如果不存在正当化事由,会被追究民事责任、行政责任,情节严重的,还有可能构成“侵害公民个人信息罪”,受到刑事处罚。
但刑法不应成为社会管理法,法定犯不应成为社会治理中的利器,罪刑法定原则也不应成为社会治理失范的牺牲品;
法定犯时代坚守依法治国的罪刑法定原则具有更加特殊的意义。
〔20〕
医学的传承和发展离不开医学研究。
每一个人享受的医疗服务都是建立在前人贡献自己医学数据的基础上。
人是社会的人,从人类社会群体之间具有“连带性”的角度出发,为了维护和促进人类健康,患者有义务在自己不受伤害、或者受益与伤害成比例的情况下,配合医务人员开展医疗AI的开发与使用。
但这是道德义务而非义务,不能强求患者提供医疗数据。
现实可行的办法是,在使用医疗数据时,应当对其进行匿名化处理,实在难以进行充分匿名化处理的,则必须要获得患者本人的同意。
当然,也要坚决限制数据垄断,坚持AI决策透明化。
国务院《关于促进和规范健康医疗大数据应用发展的指导意见》(2022),已经把医疗大数据列为国家的基础战略资源。
因此,我国将来应当通过完善包括医疗信息在内的个人信息保护立法,在保护公民隐私的基础之上,充分利用医疗大数据,建设国家级医疗大数据资源库。
四、医疗AI的未来展望
AI在医疗保健领域的出现同时带来了希望和恐慌。
一方面,它带来了更准确的诊断、建议、更多的个性化治疗和更少的不必要诊断、治疗以及保健。
另一方面,为医学误诊以及医疗事故的责任分配提出了挑战。
不同的处理方式会造成不同的影响,因为它可以加速或阻碍新技术的引进。
目前,我国尚未出台法律法规对医疗AI进行有效监管,因未建立医疗AI适用的质量标准评估体系,无法对医疗AI按数据和算法进行有效验证和评价,且未完善对医疗数据的保护和利用的框架。
因此,我国应尽快补充完善相关法律法规,建立完善的技术标准和法律归责制度,平衡好患者、医务人员、医疗机构、医疗AI的设计者、生产者的利益与责任。
要在综合衡量医疗AI风险和利益的基础上,结合各方注意义务的关系去认定各方的过失责任。
〔21〕在数据保护上,出台专门的医疗信息保护法,在保护好患者隐私的基础上,充分实现医疗数据的价值,造福国民健康。
总之,对于医疗AI这一拥有重大应用前景的新技术,我们应当秉承包容的心态和审慎的态度,坚持以“前端预防”代替“末端惩治”,通过“法法衔接”,〔22〕以体系性的法律规制去应对其所带来的挑战。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 医疗 人工智能 临床 应用 法律 挑战 应对