当你从搜索引擎而不是医疗提供者那里接受医疗建议时,有一个术语:谷歌医生。它经常给出最糟糕的诊断,吐出糟糕的建议,是真正的医生的祸根,他们不得不与病人争论它的优点。但是,现在有一个挑战Dr.谷歌的人即将出现,他可能会与医生合作,而不是对抗他们:AI博士。
人工智能聊天机器人最近获得了各种各样的新工作,现在它们可以协助医生——尽管美国人在很大程度上对信任医疗保健人工智能犹豫不决皮尤研究中心调查(在新窗口打开).医疗保健提供者所依赖的前景人工智能60%的受访者对诊断疾病并推荐治疗方案表示不满,他们说这样的情况会让他们感到不舒服。
只有38%的人说这会带来更好的健康结果,33%的人说会导致更糟糕的结果,27%的人说不会有太大区别。在这里,“快速行动”的技术格言与“首先不伤害”的医学精神相冲突,75%的人表示担心医疗保健提供商会在完全了解风险之前实施人工智能。
对于人工智能介入医疗保健的主要担忧之一是,57%的人认为它会侵蚀医患关系。这种关系在心理健康方面尤其重要。大多数受访者(79%)表示,如果他们需要心理健康支持,他们不会使用人工智能聊天机器人。(虽然有很多选择来获得在线治疗,人工智能是不是为提供此类服务而设计的(在新窗口打开).)
此外,人们表达了对隐私的不信任,37%的人担心医疗保健环境中的人工智能会危及健康记录安全。
一些受访者表示,他们期待积极的结果,比如医疗差错和偏见可能会减少。40%的人表示,他们认为人工智能的加入将减少医疗保健提供者的错误数量,特别是在皮肤癌筛查等方面。
大多数受访者(65%)表示,他们肯定或可能希望将人工智能用于自己的皮肤癌筛查。大约一半(55%)的人表示,他们认为这将使皮肤癌诊断更准确,13%的人表示,这将导致诊断不那么准确,30%的人表示不会有太大区别。然而,当更仔细地检查结果时,黑人成年人(57%)比白人成年人(65%)和西班牙裔成年人(69%)更不可能希望人工智能参与皮肤癌筛查。
这就把我们带到了非常现实和令人担忧的问题医学中的种族偏见(在新窗口打开).据报道,这是黑人(64%)、西班牙裔(42%)、亚裔英语使用者(39%)和白人(27%)在健康和医学方面的一个主要问题。果然,那用于训练人工智能的数据集(在新窗口打开)使它不太可能检测到基于皮肤癌的健康威胁的深色皮肤的病人。因此,尽管51%的人表示,使用人工智能将改善偏见和不公平待遇的问题,但我们仍然面临着人工智能正是如此的现实就像我们提供的信息一样有偏见.
在医疗保健领域,公众对人工智能的不信任是可以理解的,而且实际上已经得到了证实。几年前,IBM充分利用了其人工智能沃森(Watson)在该领域的潜力。尽管大张旗鼓,沃森的进军医学是失败的(在新窗口打开),它是现在从事客服工作(在新窗口打开).