什么是可信人工智能?
问答
什么是可信人工智能?
回复
我来回复- Innovator 评论
可信人工智能
AI是具有颠覆性的技术,其改变世界的潜力是无限的。AI可以改善复杂的决策制订流程,这使其成为了各个行业转型的催化剂。除了可以更有效、更高效地完成繁重且费时的任务外,AI还可以赋予管理团队前所未有的深刻洞察。但与此同时,AI技术也会催生一系列道德、法律和技术风险,需要企业妥善处理。
33%的受访者认为员工信任是AI实施的最大障碍之一,即使受访者完全或一定程度上信任AI。除此之外,我们发现,技术、风险、人员能力和意识等都成为了人们信任AI实施的主要限制因素,尤其在技术方面,技术的可靠性和性能、技术的安全性和坚固性、技术治理与监督、AI应用相关的伦理道德问题都成为了关键因素。
现有的外部监管机构对AI的控制力度远远跟不上AI技术的发展速度。企业在没有强有力的治理下使用AI,会面临严重的风险。这些风险和威胁不仅复杂,还会随着AI技术的发展不断演变。为了确保AI的使用安全,我们提倡在最初的AI设计中就将信任原则嵌入。面对不断演变的威胁,越早将信任原则嵌入AI中,越能未雨绸缪,在确保AI隐私和安全的前提下收获最大的回报,使AI技术成为推动企业未来发展的强大动力。
对企业来说,AI既是管理风险的工具,也是产生新风险的来源,需要妥善管理。这些风险不仅会损害对这些系统的信任,还会损害对产品、品誉的信任。因此无论何时采用AI技术,企业都应该识别各项AI技术应用的风险。
安永的可信的人工智能框架,帮助企业了解新的和不断扩大的风险,企业可以根据他们在AI产业链中的角色和职责开展治理活动。安永的可信AI框架从性能、无偏、透明、韧性、可解释五个方面强调了维持信任所必备的属性。
要被用户接受,AI必须是可以被理解的,这意味着AI的决策框架需要可解释和验证。它还必须按预期运行,无偏见以及安全。
性能是指,AI的结果与利益相关者的期望一致,且其性能达到期望的精确度和一致性水平。
无偏是指,通过AI设计识别并解决由开发团队组成、数据和训练方法产生的固有偏见。AI系统的设计考虑所有受影响的利益相关者的需求,并对社会产生积极影响。
透明是指,给予与AI交互的最终用户适当的通知,以及选择交互程度的机会。根据采集和使用数据的要求,获取用户同意。
韧性是指,AI系统组件和算法本身使用的数据受到安全防护,避免未经授权的访问、损坏和/或对抗性攻击。
可解释是指,AI的训练方法和决策标准可以被理解和记录,并且可供人类操作者随时挑战和验证。
实际上,AI不是被实施,而是被应用,并且当AI应用在三步创新法中时,将可实现可信AI。所谓“三步创新法”为:有目的的设计、谨慎监督和敏捷治理。
有目的的设计是指,在设计和构建系统时有目的地整合并适当平衡自动的、智能的和自主的能力,以促进明确的定义业务目标的发展,并考虑环境、约束、准备程度和风险等。
谨慎监督是指,持续调整优化、关注和监控系统,以提高性能的可靠性,降低识别和纠正偏差,加强透明度和包容性。
敏捷治理是指,跟踪社会、监管、声誉和伦理领域暴露的问题,并报告给以下内容的流程负责人:系统完整性、系统使用、架构和内嵌组件、数据采购和管理、模型训练、监控。
2024-10-02 07:54:03