为什么人工智能领域格外强调安全性?

为什么人工智能领域格外强调安全性?

编者按:人工智能真的火了起来,人类在担心机器是否代会替人工的同时,也开始担心人工智能会不会伤害人类,本文作者大卫·莫尔纳为我们讲述其中的道理。

人工智能进化的下一个阶段是大众化。 也就是说让人工智能为各种企业提供服务,而不仅仅局限于微软、谷歌或苹果这样的科技公司。 对于身处不同行业、规模不一的企业而言,机遇是让人工智能来改变经营业务的手段。

当代人工智能技术在语音识别和图像标记等领域取得了魔法一样的进步,但还有很多工作尚待完成。考虑一下你的生意,还有你和你的团队要做的资源分配决策吧。你该如何改进决策、优化资源消耗?你会节约多少成本?人工智能的下一个阶段是为每个人提供这些问题的答案。

力量越大,责任越重

人工智能的大众化意味着公司的首席安全官(CSO)将负责管理一个高度可用的人工智能安全基础设施,确保能够在最后时刻终止人工智能。 高度可用的基础设施是必要的,因为如果人工智能可以被随意阻止、关闭,业务将受到损害。而同样重要的是安全性,因为如果人工智能接收了错误的数据(不管是意外故障还是入侵),都有可能做出糟糕的决定。

人工智能对企业的影响改变了人们的行事方法——最重要的是如何在CSO层面处理操作。 CSO现在负责保证业务使用的人工智能的基础架构完整性,就像著名电影《蜘蛛侠》中的那句台词:“力量越大,责任越重。”当然,网络和软件安全领域也会随着人工智能的改变而改头换面。最关键的是,人工智能的广泛应用意味着CSO将成为业务的核心角色。

模糊技术采用到云技术

云计算是人工智能大众化的推动因素,因为云服务将人工智能技术兴旺发展所需要的三个要素整合了起来:大计算、大数据和大人才。而在过去两年,我亲自完成了这些步骤。

在微软,我们开发了一项名为白盒模糊的技术,这项技术能够让机器测试软件的问题,并寻找价值百万美元的安全漏洞。我们的技术在Windows 7开发过程中发现了三分之一的关于安全关键的模糊错误——它需要大量的计算和专业知识,并且难以按照以往的模式进行扩展。 经验敦促我们构建起云服务,使每个人都能使用模糊技术。

现在,微软把这一项目命名为斯普林菲尔德计划。它使任何人都可以使用人工智能寻找严重的错误。这个项目是一个云服务支持人工智能的例子,它将网络安全所需的数据、人才和计算整合到了一起。

为人工智能支持的业务建立合法性

人工智能基础设施的维护需要网络安全保障,而且还必须保护我们理解不深的一些的方面。 我们都听说过“无用输入,无用输出”的说法,但你想过这句话同样适用于负责业务的人工智能吗? 你建立过污染数据安全策略(它能确保攻击者不会利用篡改过的数据欺骗人工智能并让它推荐错误的决策)吗? 如果你根据错误的数据做出了错误的决策,那么,你需要多长时间才能发现?

数据污染已经是网络安全世界中的一个关注点。 例如,反恶意软件根据多重来源提交的标记和样本进行工作,而反恶意软件供应商必须保持警惕,防止攻击者愚弄这一系统。

虽然我们的方法已经包含了对人工智能系统的保护,但战斗从未结束。 试想,你在经营打车服务,而所有的司机在某起事件后同时关闭了他们的手机。 接下来你就会认识到,负责匹配乘客与司机的人工智能系统可能会认为道路上缺乏单位,它们因此得出缺少车辆的结论。然后,人工智能系统就会采取行动,比如因为供应减少和需求增加而提高乘车价格。CSO面临的挑战是如何检测数据污染,及通过调整基于被污染的数据做出的决策来保护业务,并及时解决问题并且预防未来的并发症。

最后,客户需要理解并接受企业的决策。为了确保人工智能业务的合法性,CSO必须深刻理解人工智能是如何“思考”的,而不是仅仅是维护人工智能的基础设施。CSO的重要性将随着这些挑战而扩大到一个前所未有的程度。CSO将负责帮助业务领导者推广并向世人解释人工智能。 这不会是个容易的过程,但它会使得安全成为每一个行业的核心。

翻译来自:虫洞翻翻   译者ID:锎-252

原文  http://36kr.com/p/5059477.html
正文到此结束
Loading...