“无论(lùn)至于(yú)何(hé)处,遇男或女,贵人及奴婢,我之唯一(yī)目的,为病家谋幸福……凡我所(suǒ)见(jiàn)所闻,无论有无业务关系,我愿(yuàn)保守秘密。”希波(bō)克(kè)拉底誓言是每(měi)一个医学生(shēng)入(rù)行时要立下(xià)的誓词(cí)。数千年以来(lái),这个宣言以一种(zhǒng)亘(gèn)古不变的(de)精神在医学技术(shù)的发(fā)展中传承。它明确了(le)医(yī)学的基本伦理规范,也赋予(yǔ)了医生“健康所系,性命相托”的责任感。
科学技(jì)术的飞(fēi)速发展,给人(rén)类社会带来了巨大的便利,也带来了新的伦理挑战。在医学领域,尤其是人类基因组测序(xù)、转基(jī)因技术(shù)、克(kè)隆技术、胚胎(tāi)干细胞、合成(chéng)生物学(xué)等前(qián)沿领域,科技进步(bù)引发的伦理、法律、社会问题已成(chéng)为学(xué)术界(jiè)和社会普遍关注的热点问(wèn)题。
专家预测,到(dào)2024年(nián),AI医疗将(jiāng)是(shì)一(yī)个近200亿美(měi)元的市场。人工智能(néng)有望成为医(yī)疗实践的福(fú)音,能够改善诊断效果、提供个性化(huà)治疗(liáo),并及时发现(xiàn)未来的公共医疗风险。即便如此,该技术仍然引发了一系(xì)列棘(jí)手(shǒu)的道(dào)德难题。当AI系统(tǒng)决策失误时会出现哪些问题?如果有问题的话,该(gāi)谁(shuí)负责(zé)?临床医生如何验证甚至了解AI“黑匣(xiá)子”的内容?他们又该如何避免AI系统的(de)偏见并保护患(huàn)者隐(yǐn)私?
虽然AMA在(zài)指(zhǐ)南中表示,人(rén)工智能应(yīng)该设计用于识别和(hé)解决偏见、保障弱(ruò)势群体需求、实(shí)现过程透明性并保护(hù)患者隐私,但在具体实施中,这些要求很难得到满足。以下是医学(xué)从业者、研究人(rén)员和(hé)医学伦理学家需(xū)要面对且最为(wéi)紧迫的道(dào)德挑战。
2017年(nián),芝加哥大(dà)学医学院(UCM)的(de)数据分析团队使(shǐ)用人工智(zhì)能来(lái)预测患(huàn)者可能的住(zhù)院(yuàn)时(shí)长。其目标是确(què)定可以提前出(chū)院的患者,从(cóng)而释(shì)放医院资源并为新的患(huàn)者提供救治。然后,医院还会指派一(yī)名案例管(guǎn)理(lǐ)人员(yuán)来帮助患(huàn)者处(chù)理(lǐ)保(bǎo)险事宜,确保患者及(jí)时回家,并为其早日出院(yuàn)铺平道路。
在测试系统时,研究小(xiǎo)组发(fā)现,预(yù)测患(huàn)者住院时间最准确的因(yīn)素是他们的邮政(zhèng)编码,这立刻给研究团队敲(qiāo)响了警钟。他们知道,邮编与患者的种族和社会经济地位(wèi)密切相关。依靠邮政编码做(zuò)预测,会对(duì)芝加哥最贫(pín)困社区(qū)的非裔美国人造成不良影响,这些人往往住院(yuàn)时间(jiān)更长。因此该(gāi)团队认为使用该算法分配案例(lì)管(guǎn)理员将是(shì)有偏见和(hé)不(bú)道德的(de)。
这个案例指(zhǐ)出了基于(yú)人工智能的(de)医疗保健工(gōng)具的弱点(diǎn):算(suàn)法通常(cháng)可以反(fǎn)映现有的种族(zú)或性别健(jiàn)康差异。这个问题如果没有得到解(jiě)决,就可能会导致长期性偏见并固化医疗保健领域现(xiàn)有的不平等现象(xiàng)。偏(piān)见还会影响罕见病或新疾病的治疗,这些疾(jí)病的治(zhì)疗(liáo)数据有限。人工智(zhì)能系统可(kě)能会(huì)直接(jiē)给(gěi)出一般治疗方案,而不考虑(lǜ)患者的个(gè)人情况。这时,人工智能拟(nǐ)议的治疗方(fāng)案是无效的。
第二个道(dào)德挑战是(shì),通(tōng)常情况下,研究人员并不了(le)解AI系统(tǒng)是如何(hé)计算出结果的(de),即所谓的黑匣子问题。先进的机器学习技术可以在没有明确指示的情况下吸收大量数据并识别统(tǒng)计模式,整个过程(chéng)人类尤(yóu)其难(nán)以验证(zhèng)。盲目遵循这(zhè)种系(xì)统的医生可能会在无(wú)意中伤害(hài)患者。
其中(zhōng)一个模(mó)型是“基于规则”的系统,其决(jué)策(cè)过程对研究人员来说是透明的,却预测出违反直(zhí)觉的结果(guǒ):患(huàn)有肺(fèi)炎和(hé)哮喘的患者比仅患有肺炎(yán)的(de)患者存活机会更(gèng)大,因此患有两种疾病(bìng)的患者(zhě)可以推迟治疗(liáo)。显而(ér)易见,医(yī)护人员能够清楚的判断患(huàn)有两种疾病的患者具有更高(gāo)的死亡风险(xiǎn),但算(suàn)法不(bú)能。所以仅仅依靠这种算法,意(yì)味着最(zuì)危急的病人将不(bú)能及(jí)时(shí)得到他们所需要的治疗。
另一(yī)种使用神(shén)经网络和机器学习算法的(de)模型产生了更(gèng)准(zhǔn)确(què)的结果,但其推理(lǐ)过程是不(bú)透(tòu)明的,因此(cǐ)研究人员(yuán)无(wú)法及时(shí)发现其(qí)中的问题。该研究的负责人、微软公(gōng)司研究员理查德卡鲁(lǔ)阿纳得出结论:神经网络(luò)模型风(fēng)险太大,无法(fǎ)进入临床试验,因为(wéi)没(méi)有办法(fǎ)判断(duàn)它是否犯(fàn)了类似的错误。根据AMA的医(yī)学伦理基本原则,医生必须完全对患者负责。但是,当人工智能进入等(děng)式时,责任又该(gāi)如何划分?这个问题的答案仍在由伦(lún)理(lǐ)学家、研究人员(yuán)和(hé)监管机(jī)构制定。
人工(gōng)智(zhì)能打破了提供医疗(liáo)服务的群体限制,一些传统上不受医学伦理约束的人,比(bǐ)如数据科学家,也(yě)可以为患者提供医疗服(fú)务。此外,正如黑(hēi)匣子(zǐ)问题所示(shì),人们并不总是能够确切地知道人工智能(néng)系统是如何做出诊断或(huò)开出治疗处方的(de)。有缺(quē)陷的算法(fǎ)可能对患者造(zào)成重大伤害,从而导致医疗事故。
但为了做出准确的预测,机器学习(xí)系统必须要访问(wèn)大量的患(huàn)者数据。如果没有个(gè)人的医疗(liáo)记(jì)录,人工智能将无(wú)法提供准确的诊断或有用的治疗方法,更无法(fǎ)实现更加个性化的(de)治(zhì)疗。更重(chóng)要的(de)是(shì),如果(guǒ)数以百万(wàn)计的病人隐(yǐn)瞒他们的(de)医疗(liáo)数据(jù),关(guān)键的公共卫(wèi)生趋势可能会被忽视,这将是每个人的损失。
一(yī)个(gè)潜在的(de)解决(jué)方案(àn)是从用医(yī)疗记(jì)录中单独删除个人(rén)识别信息来(lái)保护患者隐(yǐn)私。然而,最近由加利福尼(ní)亚大学牵头的一(yī)项研(yán)究表(biǎo)示,目前(qián)的匿名化(huà)技术还不够(gòu)成熟,并不能(néng)保证数(shù)据的有效清除。不过,未来可以开发更复杂的数据收集方法,以更(gèng)好地保护(hù)隐(yǐn)私。
不管技术能(néng)力如何,医学(xué)专家建议医学界重新考(kǎo)虑患者隐私的整个概念。随着医疗系统变得更加(jiā)复(fù)杂,将有(yǒu)更多(duō)的机(jī)构(gòu)有合法(fǎ)合理的(de)需求去访问敏感(gǎn)的患(huàn)者(zhě)信息。Char在论文中写道:“机器学(xué)习系统的实(shí)现,意味着(zhe)我们需(xū)要重新认识医(yī)疗数据隐私和(hé)其他职业道德(dé)核心原则。”在实践中,医院和机构需要赢(yíng)得患者的(de)信任。患者有权(quán)利了解他们(men)的(de)医疗隐私数据是如何被(bèi)使用的(de),以(yǐ)及数据(jù)是会使他们自身受益或只能让(ràng)未来的患者(zhě)受益(yì)。