毕竟,不是每个人都能直接跳进冷水澡。科学中有一些所谓的自动化水平,可以从中找到灵感。但人们什么时候知道何时进行干预呢?要做到这一点,人工智能必须以某种方式让自己“引人注目”。因此,人工智能必须通过警报功能让自己引人注目。大家都知道,它发出警报声的次数越多,它就越有可能不再被认真对待,或者你不再愿意处理它,因为阈值设置得太敏感。在最坏的情况下,人们甚至会失去对应用程序的信任。这有点像小牧童和狼。
在研究和一些实际应用(例如天气预报)中,该方法是表示发生的概率 - 所谓的“似然警报系统”(LAS)。这种方法有望提高人工智能的接受度并降低人为错误的风险。当人们真的必须干预时会发生什么?经过一个漫 澳大利亚消费者电子邮件列表 长的、高度自动化的阶段后,情况非常糟糕。类似于当你多年没有进行任何运动时,突然间你必须在无人区的最后一条车道上冲刺。
对此的科学术语是“人类脱离循环”。因此,需要对用户进行持续培训,一方面是为了抵消过度信任并保持健康(例如,通过在培训过程中模拟各种类型的失败),或者与人工智能一起提高对自身表现的认识。众所周知,我们人类也容易高估自己。
对于第一次粗略的概述来说就这么多了。需要考虑的所有方面。在技术和组织层面上,出现的问题是是否可以通过类似的方式来完成。 VDE SPEC 90012 V1.0 代表了一种量化评估方法 VDE Spec 系统基于 VCIO 模型,代表价值、标准、指标和可观察值。这些值是根据可使用指标通过观察从 A(最高)到 G(最低)等级进行评估的标准浓缩而成。价值观方法几乎完全对应于信任的心身结构。
因此,adesso 可信赖人工智能框架的几乎所有方面都将接受测试,这一点也不奇怪。
每个值的最低要求有所不同,具体取决于哪个工业领域以及系统所使用的具体应用。这种“衡量标准”可以从风险领域中得出,如下面的四个示例所示(注意:说明性!)。在道德风险相对较高的应用中,例如在医疗领域,隐私和公平价值可能会有很高的门槛。
在具有高时间损失风险的应用程序中,隐私和公平性将发挥次要作用,可靠性将变得更加重要。 VDE 规范中的五个值映射到下图中的 adesso Trustworthy AI 框架。