欢迎光临
中国顶尖人工智能与机器人行业新媒体平台

人工智能可预测自杀风险,且准确度惊人

人工智能可预测自杀风险,且准确度惊人
自杀是一个不容忽视的公众健康问题,因为每年全球自杀致死的人数高达 80 万。所以提前发现自杀倾向及时预防就显得特别重要。不幸的是,由于自杀是一种高度个人化的行为,而且人类普遍在辨识自杀倾向的能力都相对糟糕。不过好消息是研究人员已经利用机器学习找到预测自杀倾向的方法,且精确率出奇的高;但我们因此需要面对一些伦理方面的问题。
一个人自杀会给亲朋好友留下心碎和悲痛,以及如果他们换个心态会怎样的无解问题。Colin Walsh 是美国范德比大学医学中心的资料科学家,他在预测自杀风险方面做了一些出色的工作,他希望自己的工作能提出「我能做什么?」问题以及预防的机会。
Walsh 和同事建立一些机器学习演算法,这些演算法可以预测病人尝试自杀的可能性,精确度高得吓人。试验结果表明,演算法对某人在两年内是否有自杀倾向的预测精准度达 80%~90%,而预测下周是否会尝试自杀的准确度则高达 92%。
预测的资料基础来自各种入院资讯,包括年龄、性别、邮递区号、用药及先期诊断等。Walsh 和团队一共收集了范德比大学医学中心 5,167 名病人资料,这些病人均承认有过自残或自杀倾向。他们阅读每个病例,辨识出其中 3,250 个自杀企图案例。
这组超过 5 千个病例的资料随后用来训练机器,辨识那些有自杀倾向风险的人,并且区分有自残行为但无自杀企图的人。研究人员还开发演算法预测一组人的自杀倾向,这群人的数量达 12,695,都是随机选择、没有自杀企图历史的人。结果表明,在预测这群人的自杀倾向准确度方面,演算法甚至比医院的预测还准。
Walsh 的论文已在今年 4 月发表在《临床心理科学》杂志,这只是研究工作的第一阶段。他现在正致力于验证自己的演算法应用到另一家医院、完全不同的资料集时也一样有效。一旦该模型证明有效,Walsh 希望跟更大团队一起合作建立一套适当的预防方法。他预期在两年内有一套预防计划用于测试。他补充说:「我当然倾向于相当快,但在医疗保健方面相当快往往也意味着要几个月。」
自杀是一种极强烈的个人行为,以至于从人类角度来看,仅根据一组粗糙的资料集不可能做出精准预测。Walsh 说临床医生自然会问预测是怎么得出的,但演算法实在太复杂了(注:其实不是复杂,而是因为机器学习内部是黑箱),抽出单个风险因素不可能。他说:「是风险因素的组合让我们得出答案。」
话虽如此,Walsh 和团队仍惊讶地发现,服用褪黑激素(脑白金主要成分)似乎是计算风险的一个重要因素。Walsh 说:「我并不认为褪黑激素是导致产生自杀想法的原因。这一点没有生理学依据。但对自杀风险来说有一个东西十分重要,就是睡眠失调。」有可能开褪黑激素的处方捕捉到睡眠失调的风险──尽管这点仍是假设,尚有待验证。
这项研究还引起更广泛的伦理问题,也就是电脑在医疗保健中的角色是什么,以及真实的个人资讯应该如何使用。Walsh 说:「意外后果的风险一直都存在。我们的意图是好的,想建立一套系统来帮助大家,但有时候结果可能会事与愿违。」
研究人员还必须确定基于电脑的决策将如何确定对病人的护理。身为一名初级医疗的保健医生,Walsh 说意识到自己可以按照机器的指令行事这一点令人不安。他说:「如果机器告诉我高风险,但我的临床现象却没有证实这一点,会不会出问题?你会不会因为电脑告诉你而改变原来的护理方式?」
目前为止,机器学习算法基于入院资料。但 Walsh 意识到许多有自杀风险的人并没有住过院。他说:「我们大部分生活都在医疗保健设施以外的地方度过。如果我们只是依赖医院的资料来做这项工作,那么我们也只能取得一部分成果。」
但研究人员还可从哪里获得资料?网路是相对有希望的选项之一。Walsh 说,花了那么多时间在 Facebook 和 Twitter 面,这些社群媒体资料也许可以用来预测自杀风险。「但我们需要工作来证明这一点是正确的。」
Facebook 今稍早宣布使用自家人工智能审核有自残迹象的发文。结果据说已比 Facebook 从那些人的朋友标记为有风险的结果更准确。
训练机器辨识自杀的告警讯号远不是那么直截了当。要想成功预测和预防,Walsh 认为消除自杀污名化必不可少。他说:「如果我们对讨论这件事情感到不舒服,就永远没办法帮助那些人。」
不过,随着自杀导致全球每年 80 万人死亡,这已成为一个无法忽视的公众健康问题。鉴于大多数人类包括医生,辨识自杀风险的能力方面都相当糟糕,机器学习也许可以提供一个重要的解决方案。
赞(0) 关注公众号

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

公众号也精彩

微信扫一扫打赏