浅谈医疗人工智能的伦理问题.doc

  1. 1、本文档共15页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
浅谈医疗人工智能的伦理问题 目录 TOC \o "1-9" \h \z \u 目录 1 正文 1 文1:浅谈医疗人工智能的伦理问题 1 1 当前医疗AI伦理的主要问题 2 2 医疗AI伦理原则 6 3 对医疗健康体系的影响 8 4 策略与期望 8 文2:人工智能的发展方向 10 参考文摘引言: 13 原创性声明(模板) 14 文章致谢(模板) 14 正文 浅谈医疗人工智能的伦理问题 文1:浅谈医疗人工智能的伦理问题 人工智能(artificial intelligence,AI)已经在医疗健康领域进行了广泛的探索性应用,部分已经形成商业化的使用。AI将产生广泛的影响,显着地影响医学实践,改变患者体验和医生的日常生活。与此同时,AI先进的技术也带来一系列新的伦理挑战。医疗伦理自古以来就贯彻整个医学发展的各个阶段,AI作为变革性的技术,对医疗健康体系势必产生重要的影响。本文就医疗AI伦理若干问题进行探讨。 1 当前医疗AI伦理的主要问题 算法偏见对患者安全造成潜在风险 涉及患者安全的风险主要表现为 AI 提供的辅助诊断、治疗建议以及操作可能误导医生进行错误的决策,直接或者间接对患者产生不同程度的机体伤害。这种危害从技术上看主要来自系统的算法偏见(algorithmic bias)与漏洞。算法偏见指的是AI系统中产生不公平结果的系统性和可重复性错误,偏差可能是由于许多因素造成的,包括但不限于算法本身的设计、数据编程、收集、选择或用于训练算法的方式相关的意外或非预期的使用或决策。 计算机产生的偏见几乎无处不在,偏见的原因往往不在准则中,而是在更广泛的社会过程中。使其结果存在无意识和制度偏差。算法偏见主要分为 “数据驱动造成的偏见”“人为造成的偏见”与“机器自我学习造成的偏见”三种类别[1] “数据驱动造成的偏见” 指由于原始训练数据存在偏见性,导致算法执行时将歧视带入决策过程。鉴于算法本身不会质疑其所接收到的数据,只是单纯地寻找、挖掘数据背后隐含的结构和模式,如果人类输入给算法的数据一开始就存在某种偏见或喜好,那么算法获得的输出结果也会与人类偏见相同。 例如,图像识别以及使用机器学习和建立学习算法的过程中,存在潜在的偏差。训练图像往往来源于某个具体合作医疗机构的数据,其图像标识过程中带有鲜明的该医疗机构的诊断特色和习惯。此外,算法概念化的框架本身包含了工作组的主观假设,这种基于“主观”上的数据结果成为所谓“客观”的数据输入。尽管国际影像厂商设备的图像质量趋同同质性,但更多的不同厂商影像设备也存在不同的设备型号、数字化成像质量的程度上的差异,同时模型可能造成或加剧按年龄、性别、种族、地区或其他受保护特征划分的医疗保健人群不公平现象。这些因素导致应用的范围存在偏差。 “人为造成的偏见”是指算法设计者为了获得某些利益,或者为了表达自己的一些主观观点而设计存在歧视性的算法。这里包括主观的偏见和客观的偏见,一方面由于人和技术本身问题造成的,另外一方面也有人刻意而为之。斯坦福大学有学者认为,用于医疗保健应用的AI开发者的价值观可能并不总是与临床医生的价值观一致。例如,可能会有诱惑,引导系统采取临床行动,提高质量指标,但不一定是为患者护理[2]。这些算法可能会在被潜在的医院监管机构审查时,扭曲为公众评估提供的数据。而也有人为的偏见是来自医学的本身特点,尤其在治疗方案上有着区域、学派的分歧,治疗方案选择上存在人为的偏见,尽管循证医学已经成为主导,但具有主观色彩的经验医学在临床实践上仍有效。很多时候,没有治疗唯一的“金标准”,这也就是为什么经常出现等级性质的方案推荐,有着专家共识、临床指南、临床规范的不等的标准。此外人为的偏见,也有可能来自系统开发机构工程师伦理知识的匮乏,缺乏专业知识。 “机器自我学习造成的偏见”是随着算法复杂程度的日益提高,通过机器学习过程形成的决策越来越难以解释AI内部的代码、算法存在 “黑箱”[3],导致无法控制和预测算法的结果,而在应用中产生某种不公平倾向。 患者隐私遭泄露的风险 进入信息化时代后,患者个人健康信息数据(peonal health information,PHI)一直被关注,亦有相应的行业规范和政策法规进行管理。随着数据搜集、机器学习、AI等技术的使用,个人信息泄露的情况频繁发生,个人隐私保护、个人健康信心重要性日益凸显。当前对于医疗AI应用涉及患者的隐私问题、自我保护策略和可接受性尚还没有清晰的策略。数据更多的泄露来源是在为AI进行训练的患者数据。其中,人体基因组数据的泄露潜在的生物危害和商业利益更为突出。公众对个人隐私泄露问题的顾虑占到调查人群的%[4] 医生对医疗 AI的接受性 从技术角度而言,医生不了解AI算法的局限性或范围,从而对这种不透

文档评论(0)

行业资料 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

认证主体朱**

1亿VIP精品文档

相关文档

相关课程推荐