2019年11月14日 医疗

我们相信人工智能吗?

由大卫。里奇

人工智能是许多事情,就像人类智慧一样。

来自拉丁语“智能”的智力意味着我们“绑定”(Ligere)“在一起”(内部)的东西,这可能显然没有明显的关系。但是,通过太深,你失去了开发模式的一般适用性,并且通过过度宽泛失用,您会失去有意义的相关性。发展模式的行为,将事物带到一起,并学习所有有助于创造知识。如果你可以简单地解释(有效地)和优雅(有效地)到其他人,那么你真的已经学到了。解释的行为加强了我们的学习,股票知识和建立信任。

当机器学习时,它被称为机器学习(ML),一种人工智能。它从数据开始,从这些数据中,广泛而深入地发展出以前不知道的知识。因此,从本质上讲,ML增强了人类能够构建的知识,尤其是当数据集特别大、时间匮乏的时候。不同的ML算法存在,非常准确和广泛使用。然而,有太多的方法是通过蛮力操作(如果你是一台强大的现代计算机,不是吗?),并构建更好地表示为“黑盒子”的知识。从本质上讲,根据数据集分析,如果恰当地进行了训练,并给予相同的输入,那么总是会产生相同的输出,具有很高的准确性和可重复性。然而,人类不禁要问:为什么?如何?你能给我解释一下吗,电脑?

所以这就提出了一个问题:如果这种人工智能提取的知识无法被解释、共享和/或最终信任,那么它真的有用吗?

当然,在安全至关重要的市场上是没有的。例如,我们目前不会相信人工智能系统,因为它可以尽可能精确地操作从我们头顶飞过的无人机。我们当然不会相信一个监督医生做出医疗决定的人工智能系统。如果医生想知道,“为什么这些数据有某种关联,为什么人工智能系统会推荐一种治疗方法?”我们肯定不会相信一个人工智能系统,它本应该帮助我们在操作远程操作的手术机器人、透析机或输液泵时防止可能的伤害。

以IEC 62304和医疗市场为例。未知物品软件(汤)的想法被烘焙到标准中。通过汤或第三方软件,一个可能并且应该使用第三方算法和知识,但很明显这类第三方算法和知识做了什么,并且提供了这种算法的错误和失败的风险。

ML软件和开发的知识当然可以归入SOUP或第三方软件的范畴。然而,如果ML的行为就像一个黑盒,我们怎么知道这个黑盒是做什么的呢?我们如何减轻失败的影响,甚至防止这种失败的发生?

所以,总结一下:是的,我们信任人工智能。只要人工智能是可解释的,能够在我们的日常决策中支持我们。毕竟,是医生,而不是人工智能系统,负责拯救人类的生命。

有关风河技术如何帮助医疗部门的革命的更多信息点击这里

以前的Windows 7的终结:对医疗设备意味着什么
下一个ROSCon 2019: ROS 2 for VxWorks all the Rage