新闻动态

这里有最新的公司动态,这里有最新的网站设计、移动端设计、网页相关内容与你分享!

ICU昏迷,AI做出生死抉择!得到你想要的平均值,?

新智慧报告编辑:庆庆【新智慧介绍】当医生按下回车键时,AI就可以决定一个人的生死!美国华盛顿大学一项名为“AI Agent”的研究试图利用算法来预测昏迷患者的生死偏好。支持者称这是医学的新时代,反对者担心这只是复制偏见的机器。当AI学会理解生活时,人类的同理心、关怀和责任会被一串数据所取代吗?在医生说话之前,AI已经替你做出了决定——根据模型的预测,患者很可能会放弃抢救。这不是电影剧本,而是美国华盛顿大学进行的真实研究。当患者陷入昏迷无法说话时,AI会代表他通知医生是否接受抢救。在实验中,研究人员将其称为“人工智能代理人”。这就像一项技术人体实验:在生与死的交叉点,让算法解释人类的偏好。但问题是,AI真的能理解吗?或者它只理解类似患者的数据?在这个系统下,算法不会“倾听灵魂”。它只是查看历史病历、人口特征和医疗选择模式,然后推断:像您这样的人通常如何做出决定。这样,人就被模型化了,个体生命的价值就被平均化了。当人工智能开始预测生死时,它所做的不再是技术判断,而是社会上普遍蔓延的偏见。医生按下回车键,他的生命由AI判断。在生死关头,患者失去语言和意识,往往不得不依靠家人、代理人甚至医生为他做出“继续复苏”的关键决定。但实际上,我们知道患者想要什么吗?这个问题还是p拖累了医疗保健系统。这时,Uwmedicine创伤科研究员Muhammad Aurangzeb Ahmad提出的“AI替代者”概念就应运而生了。艾哈迈德的创伤科团队正在尝试使用“过去的伤害、病史、过去的医疗选择和人口统计数据”作为关键数据,利用机器学习模型来预测患者在失去表达能力时如果有选择的话会做什么。这类研究的逻辑核心是通过算法作为参考,帮助医生、伦理委员会和家属判断“如果这个病人是醒着的,他会同意进行救生手术吗?”当患者无法自己说话时,研究团队的目标之一是达到约三分之二的预测准确率,并模拟运行模型的过程。首先,收集患者受伤严重程度、病史和人口特征。这些变量是然后将其输入机器学习模型,并回顾性观察该模型对历史案例的预测准确性。该团队对该模型的未来有长期规划:让患者一生都可以与系统进行交互,记录患者与患者的对话、短信和生活愿望等文本数据,并随着时间的推移不断更新患者的数字文件。然而,目前该系统仍然是一个概念,尚未用于实际的患者交互或决策过程中。正如W Medicine发言人所说:在推出之前需要完成多阶段审查。 “让算法帮你决定是否拯救”不再是科幻小说的话题,而是正在成为医学伦理与人工智能交叉的新实验领域。算法盲点:AI预测的不是同意,而是偏见。 “患者选择”听起来像是一种个人表达,但在机器学习中,它是简单的编辑为一串概率。在华盛顿大学的人工智能代理项目中,这个概率是由历史数据提供的:谁被救了,谁签署了放弃治疗的命令,以及谁在什么情况下“选择了死亡”。问题就在这里。在医疗数据的世界里,不存在真正的“中立样本”。现有数据显示,老年人、少数民族和低收入群体的治疗放弃率往往较高。算法从这些模式中学习到的“意志”实际上是社会结构的投影。 Emily Moin医生在接受采访时指出:这些决定是动态的、视情况而定的。如果你要求人工智能预测昏迷者的意愿,它只会依赖“方便的真理值”,而不是真正的真理。比纳赫预测,人工智能代理可能首先用于“没有家庭成员且无法沟通”的患者——这一人群的真实性永远无法得到证实。这意味着该模型无法校准或证明o 有偏见。更危险的是医院和医生在高压环境下可能过度信任模型输出。随着时间的推移,该算法不再只是一个参考,而是成为默认答案。这种“技术放弃”对于医疗系统来说是非常具有诱惑力的。人工智能代理看似减轻了医生的心理负担,但实际上使系统更有效地再现不平等。研究人员艾哈迈德本人也承认,为了让模型真正“公平”,不仅要看预测结果,还要记住还要考虑“患者的道德宇宙”:两个临床状况相似的患者,一个以宗教信仰为主,另一个以个人意愿为主。如果算法以同样的方式对待他们,这将是一种道德抹杀。从表面上看,这个技术实验是对如何更好地了解患者的探索,但从其底层逻辑来看,它真正提出了一个问题:谁是Eli?gible可以被保存,并且默认可以给谁。当人们依赖人工智能时,偏见就真的开始增长。 AI智能体并不直接进化出生死权,而是依赖于一种更加隐秘的力量——信任。医生、家属和伦理委员会都在试图回避最困难的问题:“我们应该拯救病人吗?”而人工智能填补了这种心理真空。在医院的日常节奏中,医生要与数十名重症患者打交道,每次沟通都消耗大量的情感和时间。 AI模型的出现让一切变得“美好”——它可以立即输出判断、结论、确定感。于是,“模型预测:患者倾向于放弃复苏”这句话开始成为道德盾牌。 Emily Moin 表示:如果家人拒绝谈话,医生又没有足够的时间,每个人都可以得到人工智能的结局。这次收购是传播偏见的起点。算法结论a他们显得客观且更具吸引力,因为他们冷静、敏捷且不情绪化。弱点受到鼓励。渐渐地,人们不再计算观点、怀疑或承担责任,人工智能成为最强大、最不负责任的决策者。研究学者罗伯特·特鲁格警告说:在现实世界中,心肺复苏不是一个二元问题——几乎每种情况的答案都取决于具体情况。但人工智能并不了解“情况”,它只知道“是”或“否”。当医院依赖这种二元逻辑时,灰色地带就会被挤压,模糊性会被视为错误,确定性会被误认为正义。这是第二代偏差:第一代发生在算法学习数据时;第二代发生在算法学习数据时。当人们决定信任该算法时,就会发生第二种情况。最终,医生减轻了心理负担,医院提高了效率,社会获得了虚假的理性感。价格是真正的“意志”悄悄隐藏在模型中。算法中人类价值的危险节奏代理不仅能预测错误的愿望,还能决定哪些生命更“值得”被拯救。艾哈迈德在即将发表的论文中写道:人工智能代理的公平性不仅是结果的平等,而且是世界观、宗教和家庭关系的诚实呈现。他举了一个极具争议性的例子:一位孕妇,她之前的记录显示她“不想戴呼吸机”;但如果他成为一个坚守“生命神圣”信仰的宗教信徒,旧数据可能会被AI误解说“他仍然想扩张”。人类特工可以保护他,但人工智能却不能。因为算法的世界,没有后悔或改变,只有一致性。艾哈迈德说,这种平等待遇是一种“道德抹杀”。两名临床情况相似的患者,一名以宗教信仰为主,另一名以个人意志为主。如果算法以同样的方式对待它们,这将是一种道德形式l 擦除。这意味着,即使人工智能看起来很公平,差异也可能会被悄悄消除。而差异就在于人们的出发点。更深层次的问题是:谁来决定算法的道德水平?是工程师写的吗?是基于统计吗?还是社会共识的默认?当AI开始为人类说话时,它实际上是在模仿某种文化的声音:可能是西方个体,也可能是医学干的上位逻辑。医学伦理学的系统回顾很早就指出,如果将人工智能用于临床伦理决策,包括自首决策,可以提高预测准确性,但也会重现现有的偏见和不平等。结果,无法数字化的价值观——与人际关系、家庭伦理和文化差异相关的信仰——被默默地排除在模型之外。 AI看似预测人的意志,但实际上它在不断重构“意志”的含义。艾哈迈德在论文的最后写了一段有趣的陈述:最偶然的人工智能代理并不是最确定的,而是犹豫并邀请人们重新参与的系统。也许这就是所有讨论的起点——当一个人开始学会为人类说人工智能时,我们需要再次学会倾听。在关于人工智能代理的讨论中,人们最常说的是:“我们只是想更科学地做出决策”。但科学永远不等于中立。当算法开始决定谁想活、谁想死时,它学到的从来不是人的意愿,而是社会的态度。也许真正应该问的是人工智能永远无法预测,但为什么我们不提供一个人来为我们做出这个决定,这是无法为人们收集的。数据输出的逃避责任、模糊性和不确定性

Copyright © 2024-2026 黑料爆料不打烊入口-黑料吃瓜爆料网站-吃瓜黑料爆料网站 版权所有

网站地图

沪ICP备32623652号-1