最新公告:

网群:   北京市青年党建网   紫光阁青年党建频道

青年党建频道

研究会

Google创立了新的可解释AI计划以提高透明度和可调试性

2021-12-09 14:23:26| | 打印 | 字体:  

就在最近,谷歌宣布创建一个新的云平台,旨在使人们深入了解AI程序如何做出决策,简化程序调试并提高透明度。据The Register报道,该云平台被称为Explainable AI,它标志着Google进行投资于AI可解释性的重大尝试。

当今世界使用的许多主要AI系统中都采用了人工神经网络。运行主要AI应用程序的神经网络可能异常复杂和庞大,并且随着系统复杂性的增长,越来越难以理解系统为何做出特定决策。正如Google在其白皮书中解释的那样,随着AI系统变得越来越强大,它们也变得越来越复杂,因此更难以调试。当这种情况发生时,透明度也会丢失,这意味着有偏见的算法可能难以识别和解决。

驱使复杂系统行为的推理很难解释这一事实通常会带来严重的后果。除了难以克服AI偏见之外,它还使得从真正重要而有趣的关联中分辨出虚假关联变得异常困难。

许多公司和研究小组正在探索如何解决AI的“黑匣子”问题,并创建一个足以解释为什么AI做出某些决定的系统。Google的Explainable AI平台代表了自己应对这一挑战的出价。可解释的AI由三种不同的工具组成。第一个工具是一个系统,它描述了AI已经选择了哪些特征,并且还显示了表示特定特征对最终预测的影响程度的归因分数。Google关于该工具的报告提供了一个示例,该示例根据降雨,当前温度,星期几和开始时间等变量预测自行车骑行将持续多长时间。网络做出决定后,会反馈显示哪些功能对预测影响最大的反馈。

对于图像数据,此工具如何提供此类反馈?在这种情况下,该工具将生成一个叠加层,突出显示在渲染决策中权重最大的图像区域。

该工具箱中的另一个工具是“假??设分析”工具,该工具显示了当操纵各个属性时模型性能的潜在波动。最后,可以设置最后的工具启用功能,以一致的时间表将样本结果提供给人工审阅者。

Google的AI和机器学习首席科学家Andrew Moore博士描述了该项目的灵感。摩尔(Moore)解释说,大约在五年前,学术界开始关注AI使用的有害副产品,并且Google希望确保仅以符合道德的方式使用其系统。摩尔描述了该公司试图设计计算机视觉的事件该程序可以警告建筑工人是否有人没有戴头盔,但他们担心监视范围可能太远,变得不人道。摩尔说,出于类似的原因,谷歌决定不发布通用的人脸识别API,因为该公司希望更好地控制其技术的使用方式,并确保仅以道德的方式进行使用。