新闻资讯

网站首页>新闻资讯>行业新闻

心理健康类别和诊断责任
发布时间:2024-06-07 09:00:24      点击次数:1513

迄今为止讨论的所有问题,在过去几年中都得到了广泛争论。人工智能的新发展,一方面可能会引起担忧和怀疑,但也让我们对使心理医疗保健更加有效和广泛普及的可能性充满希望。在这里,我们想讨论,在人工智能实施之前,需要考虑的两个伦理哲学因素(Giubilini 2021)——假设人工智能实现了它似乎有前途的目标——我们在这里不挑战这个假设,但对它保持怀疑态度是健康的辩证思维。首先要考虑的是,我们对精神健康障碍进行分类的方式。《精神诊断与统计手册》目前为第五版(DSM5),也是被使用非常广泛的诊断工具。

它对精神障碍进行分类所依据的症状和行为线索,是基于人类的检测和评估能力。这种能力,可以细粒度到一定程度。但如果,人工智能能够提供更细粒度的信息,从而达到预期,例如将言语模式纳入行为线索或症状中,则尚不清楚 DSM 类别是否仍适合其目的。

相反,如果我们认为当前的精神健康障碍类别值得保留,人们可能会得出这样的结论:人工智能不适合其目的。无论采取哪种方法,我们需要根据当前的事态发展,反思当下精神健康分类方法的效力。从这个方面来说,人工智能在精神病学中的,引入可能会给批评 DSM5 精神健康障碍分类方法的广泛文献带来新的视角(Hyman2010)。

第二个考虑因素是,与更广泛的医疗保健相比,人工智能在精神卫生保健领域的使用,赋予了精神卫生专业人员新的责任。也许,医疗保健人工智能文献中讨论非常广泛的问题,除了算法的潜在偏差之外,还有错误责任的潜在差距(Mishra et al. 2021;Kieren 2022;Grote and Berens 2020):如果算法犯了错误,人类治疗师有责任纠正它吗?如果没有,那谁才是应该去纠正人工智能的人?谁该是负责任的人?我们不会在这里详细讨论这个问题。相反,我们想指出一个关于责任的独立问题,该问题特别会出现于精神保健领域。

在大多数情况下,医疗保健中的人工智能与明确定义的疾病类别有关,例如肿瘤学或心脏病学。当明确且基本不受质疑的疾病分类方法,被应用于错误的情况时,才可能会出现问题。

然而,正如我们所指出的,人工智能可能会引发有关此类类别本身的适用性和意义的问题。错误地应用有效标准(或至少一项被相关专家界广泛承认有效的标准,如肿瘤学类别的情况)与使用可能无效(被承认为)有效的标准做出决策之间存在着巨大的差异。

如果人工智能造成一种情况,我们不能再依赖有效的诊断标准,因为旧标准不再适合目的,那么误诊心理健康状况意味着什么?凭什么可以追究从业者的责任?人工智能在正确诊断的标准方面,引入了一定程度的不确定性,这可能需要重新定义精神卫生保健的责任范围。

从业者在使用人工智能提供的新型数据时,可能需要修改或重新设计精神障碍的分类类别及分类方法。这可能意味着,他们不仅有责任做出正确的诊断,而且有责任在操作时正确修改诊断的标准。然而,现阶段尚不清楚,如何根据新型临床相关信息修改这些标准,因为专业人士不习惯将打字速度或大多数社交媒体内容等,视为与临床相关的事情。

您感兴趣的新闻
上一条:AI正在动摇心理健康行业,还是将由此开创文明变革新局?
下一条:我们应该在精神病学中使用人工智能吗?

返回列表