【下载】中国《人工智能标准化白皮书》发布,四大关键词暗示产业未来走向

云视角

2018-02-14

科技云报道原创。
在全球AI格局中,中国已发展成为一支不可忽视的力量。如今,人工智能的中国标准正式出炉。

近日,2018人工智能标准化论坛正式召开。会上,中国电子技术标准化研究院发布《人工智能标准化白皮书(2018版)》。

该白皮书将人工智能标准体系结构分为六个部分:基础标准、平台/支撑标准、关键技术标准、产品及服务标准、应用标准、安全/伦理标准。值得一提的是,白皮书对未来人工智能技术发展趋势进行了研判,并提出四个主要发展趋势。

开源、通用、认知、分布式AI   成为中国发展另一引擎

报告指出,人工智能作为新一轮产业变革的核心驱动力,将催生新的技术、产品、产业、业态、模式,从而引发经济结构的重大变革,实现社会生产力的整体提升。

到2025年,全球人工智能应用市场规模总值将达到1270亿美元,人工智能将是中国众多智能产业发展的着力突破点。

其中,技术平台开源化、专用智能向通用智能发展、智能感知向智能认知方向迈进、分布式计算框架成为未来发展趋势。 

技术平台开源化。开源可以说是人工智能发展的核心驱动力,越来越多组织松散、集中于社区的技术开发人员对于AI的贡献度,毫不逊于科技企业对AI的贡献。为此,全球科技产业巨头纷纷意识到,通过开源技术建立产业生态,是抢占产业制高点的重要手段。

Google开源了Tensorflow、在Nvdia和亚马逊的支持下,BVLC开源了caffe、David Lowe教授开创的视觉算法SIFT虽然有专利的保护,但目前依旧免费供所有开发者使用……丰富易用的开源工具面世,推动了人工智能的持续火爆。 

 从“专用智能”逐渐转向“通用智能”,是AI的另一趋势。目前的人工智能发展主要集中在专用智能方面,具有领域局限性。

随着科技的发展,需要一种范围广、集成度高、适应能力强的通用智能,提供从辅助性决策工具到专业性解决方案的升级。

通用人工智能具备执行一般智慧行为的能力,可以将人工智能与感知、知识、意识和直觉等人类的特征互相连接,减少对领域知识的依赖性、提高处理任务的普适性。未来的人工智能将广泛的涵盖各个领域,消除各领域之间的应用壁垒。

目前,以IBM的WATSON和中国的小i机器人为代表的智能机器人突破单个领域限制,正在多个行业进行前沿探索。

作为智能机器率先落地的应用,由上海智臻智能网络科技公司主导开发的小i机器人是VCA(虚拟客服助理)的典型案例,并多次被写入Gartner的研究报告之中。

随着AI技术在各个行业的落地,小i机器人正在从AI产品应用向产业平台转型,为企业和政府提供具有多元扩展能力的AI融合平台。


多年发展,小i机器人建立了包括知识表示、推理预测、机器学习(深度学习)、语义理解、分析决策以及Bots开发的完整架构,为工商银行、交通银行、中国电信、中国移动、华为、小米、三星等知名企业在内的超过几百家大中型企业和政府、几十万小企业及开发者提供服务,用户超过8亿。

第三,“智能感知”向“智能认知”方向迈进人工智能的主要发展阶段包括:运算智能、感知智能、认知智能。早期阶段的人工智能是运算智能,机器具有快速计算和记忆存储能力。

当前大数据时代的人工智能是感知智能,机器具有视觉、听觉、触觉等感知能力。随着类脑科技的发展,人工智能必然向认知智能时代迈进,即让机器能理解会思考。 

第四,分布式计算框架。面对人工智能海量的数据处理、复杂的知识推理,常规的单机计算模式已经不能支撑。因此,计算模式必须将巨大的计算任务分成小的单机可以承受的计算任务,即云计算、边缘计算、雾计算、大数据技术提供了基础的计算框架。

目前流行的分布式计算框架如OpenStack、Hadoop、Storm、Spark、Samza、Bigflow 等。各种开源深度学习框架也层出不穷,其中包括 TensorFlow、Caffe、Keras、CNTK、Torch7、MXNet、 Leaf、Theano、DeepLearning4、Lasagne、Neon等等。

人类智能的延伸   人工智能伦理与创新该如何平衡?

随着人工智能技术的发展,在某些领域应用的机器人也面临类似伦理困境:机器人能否成为伦理主体?

比如,自动驾驶汽车提升了生活的便捷性,更增强了安全性。然而,面对复杂的公路情况,我们真的可以将可能牵涉“生杀大权”的伦理选择交给机器人吗? 

值得一提的是,除了技术方面,《人工智能标准化白皮书》还将伦理作为一项重要议题,并提出了四项基本共识原则。

作为人类智能和价值系统的延伸,人工智能在发展过程中,应当包含对人类伦理价值的正确考量。设定人工智能技术的伦理要求,要依托于社会和公众对人工智能伦理的深入思考和广泛共识。 

首先是人类利益原则,即人工智能应以实现人类利益为终极目标。这一原则体现对人权的尊重、对人类和自然环境利益最大化以及降低技术风险和对社会的负面影响。

在此原则下,政策和法律应致力于人工智能发展的外部社会环境的构建,推动对社会个体的人工智能伦理和安全意识教育,让社会警惕人工智能技术被滥用的风险。 

此外,还应该警惕人工智能系统做出与伦理道德偏差的决策。

例如,大学利用机器学习算法来评估入学申请,假如用于训练算法的历史入学数据反映出之前的录取程序的某些偏差(如性别歧视),那么机器学习可能会在重复累计的运算过程中恶化这些偏差,造成恶性循环。如果没有纠正,偏差会以这种方式在社会中永久存在。 

二是责任原则,即在技术开发和应用两方面都建立明确的责任体系,以便在技术层面可以对人工智能技术开发人员或部门问责,在应用层面可以建立合理的责任和赔偿体系。

在责任原则下,在技术开发方面应遵循透明度原则;在技术应用方面则应当遵循权责一致原则。 

透明度原则要求了解系统的工作原理从而预测未来发展,即人类应当知道人工智能如何以及为何做出特定决定,这对于责任分配至关重要。

例如,在神经网络这个人工智能的重要议题中,人们需要知道为什么会产生特定的输出结果。

另外,数据来源透明度也同样非常重要。即便是在处理没有问题的数据集时,也有可能面临数据中隐含的偏见问题。透明度原则还要求开发技术时注意多个人工智能系统协作产生的危害。 

权责一致原则,指的是未来政策和法律应该做出明确规定:一方面必要的商业数据应被合理记录、相应算法应受到监督、商业应用应受到合理审查;另一方面,商业主体仍可利用合理的知识产权或者商业秘密来保护本企业的核心参数。 

然而,在人工智能的应用领域,权利和责任一致的原则尚未在商界、政府对伦理的实践中完全实现。

由于在人工智能产品和服务的开发和生产过程中,工程师和设计团队往往忽视伦理问题,此外人工智能的整个行业尚未习惯于综合考量各个利益相关者需求的工作流程,人工智能相关企业对商业秘密的保护也未与透明度相平衡。

随着人工智能的深入发展,各国或地区都已制定出相应标准。比如美国的《国家人工智能研究与发展策略规划》、欧盟的“人脑计划”、日本的“人工智能/大数据/物联网/网络安全综合项目”,均已落地实施。

而如今中国标准的制定和提出,不仅给全球的人工智能产业注入了更大动力,更让2018年成为中国人工智能标准全面部署的关键之年。

新技术的发明常常会令人振奋,一旦普及却可能造成许多恐慌。对商业价值的极度崇拜,对人类前景的深度隐忧,构成了两种截然不同的论调。其实,人工智能并不可怕,只要我们善用技术、敬畏技术,人工智能就会和人类和谐相处。正如凯文·凯利所说:“在机器人和计算机智能的协助下,我们得以完成150年前完全无法想象的事情,这是机器人介入人类生活后最令人赞叹的一点。”

【科技云报道原创】
微信公众账号:科技云报道

推荐文章