【采访/科工力量 程小康】
观察者网:人工智能的核心技术有哪些?目前的技术水平离“强人工智能”还有多远?
受访团队:当前人工智能的核心技术主要是机器学习和大数据。大数据是人工智能的基础,而使大数据转变为知识或生产力,离不开机器学习(Machine Learning),它是使机器具有类似人的智能的根本途径。从本质上来说,人工智能的发明是为了模仿人类思考问题的逻辑,从而能自主解决问题。弱人工智能把特征的决定权交给了人,由人类事先选择好特征,然后通过函数逼近来拟合特征曲线,从而找到输入和输出之间的映射函数。强人工智能则是摈弃人的因素试图自己搞定特征,由算法自己找出输入对应输出的特征,然后自行建立映射函数,从而诞生真正的自主智能。但是只要存在算法,必然就存在人的因素,除非算法符合智能诞生的原始状况,自行演进。简而言之,强人工智能是有知觉、有意识、能推理、能解决问题的智能机器。而现阶段人工智能,无论完成多复杂的任务,本质均是实现向量空间中的映射,并没有思维的能力。现有的创新多停留在算法模型框架层面的创新,都是人为创造和规定的,性能比较也停留在算得快、算得准,从未有关于AI创造力如何的评价。但是,不排除随着技术形式的变化和更替、脑科学等学科的深度发展,强人工智能会以怎样一种目前无法想象的状态出现,促使AI机器从“专用智能”走向“通用智能”。
由国务院发展研究中心技经所人工智能研究团队参与编制的《人工智能全球格局:未来趋势与中国位势》
观察者网:中国在人工智能基础算法上的投入和产出如何?
受访团队:一方面,我们需要肯定中国在人工智能算法研究上取得的优异成绩。2019年,中国人工智能论文数量、专利申请量都已经高居全球第一。以中科院、清华大学、中国科技大学和西安交通大学等为代表的科研院所,在机器学习和深度学习算法研究上贡献了大量高质量论文。以百度、阿里巴巴和腾讯为代表的科技巨头和以商汤、科大讯飞和深兰为代表的独角兽企业,在语音识别、自然语言处理、计算机视觉和智能驾驶等AI算法开发中取得了不俗成绩。毫无疑问,中国在人工智能算法上的进步速度十分显著,投入和产出效率非常高。但另一方面,我们也需要审视中国在核心算法、底层技术上的不足。2019年“徐匡迪之问”引发了业界的广泛共鸣,中国人工智能领域真正搞算法的科学家凤毛麟角,基础核心算法的缺失未来或将成为中国人工智能发展的“瓶颈”所在。比较来看,美、欧、日的数学基础更加扎实,在人工智能算法研究时更能从基础理论上实现“突破”。举个不太恰当的例子,谷歌公司软件有TensorFlow,硬件有TPU,算法有AlphaGo、AlphaZero,其对人工智能技术的理解、对人工智能基础算法的投入,是当前任意一家中国企业所不能比拟的。总体而言,中国人工智能强在数据规模、产业应用,而弱在核心算法、基础算力。
在此需要特别指出的是,人工智能的发展仍处在非常初期的阶段,正如万里长征只迈出了一小步。当前存在的优势或者劣势,在人工智能新理论出现后,很可能会变得无关紧要。在这一超长期的科技赛道上,我们必须高度关注脑科学、神经科学和数学等最底层的理论研究,人工智能竞争最激烈的时刻永远在未来。
观察者网:在推动人工智能发展的过程中,政府、科技巨头、风投机构和初创企业各扮演什么角色?
受访团队:政府主要承担“开路人”的作用。2020年1月,美国白宫就管理人工智能的发展及应用提出监管原则,要求政府尽量少干预。与美国不尽相同,我国除了“少干预”,也要做到“强引领”、“强调和”、“强救济”。“强引领”要求政府发挥好总领全局的抓手作用,在人工智能发展规划、法律法规制定和产业政策上进行总体引领。既要为产业发展创造机会,也要为产业发展保驾护航。“少干预”只是对技术细节和发展模式的不干预,对于发展方向和法律、道德建设上的引领,政府还是居于主导地位。“强调和”指的是要调和企业之间过于激烈的竞争,保护市场竞争有序、高质量进行。至于“强救济”,时下,外部势力欲打压我国AI产业发展势头,只有政府有能力站出来发挥保护、救济作用,保护我国AI产业发展能力储备。
科技巨头主要承担“风向标”的作用。头部企业有意愿、有实力、有能力长期创新,这些企业在技术、商业模式上都有极强的创造能力。作为市场的标杆,其对市场的带动作用不可小觑。因此,如果企业愿意通过开源或创建产业联盟的方式,孵化、推动技术创新,将形成对市场形成正向激励。如微软、谷歌、阿里巴巴、腾讯等公司已广泛开展并贯彻如此的理念,对企业本身来说也带来许多好处,如可以吸收优秀技术、建立广泛普及的生态,进一步加快生态建设、促进科技创新、提高盈利能力。
风投机构则主要发挥 “补给站”的作用。风投机构不能因技术炒作而过度聚焦某一技术,也不能因为利益对某些企业进行恶意做空。风投机构发挥好了自身作用,能刺激市场增长;若发挥不好,则可能影响整个产业发展进程中的资金流动,甚至导致马太效应,不利于技术创新。因此,投资也相当于“投票”,风投机构要把握好手里的“投票权”,不可利用资本和关系脉络强行操纵市场。而在这方面还尚有许多灰色地带,监管无法触及。
初创企业则要起到排头兵的作用,利用好中国创业成本低、政策宽松的优势,稳扎稳打进行技术创新,同时发挥体量小的优势,实现创新成果快速商业化。
总而言之,各界各方都要发挥好我国制度优势,集中力量办大事,才能共同推动人工智能产业又好又快发展。
观察者网:与美国科技巨头相比,中国科技公司在人工智能领域存在哪些优势和不足?
受访团队:我国AI领域的科技公司具有较强的应用创新能力,以应用程序为主的AI应用风靡全球,尤其是摄影摄像类的应用程序深受全球用户青睐。且我国AI初创公司发展势头良好,吸引了业界大量关注。根据美国CB Insights智库2019年发布的《AI 100》报告,全球100家最有前景的AI初创公司中,有11家“独角兽”公司,其中5家为中国公司。由此可见中国AI科技公司获得了广泛的认可和支持,未来这一趋势将继续扩大。
同时,中国AI科技公司赖以生存发展的政策环境更为宽容、开放。我国在2017年将发展人工智能定位为国家战略,而美国国家级的人工智能战略直到2019年才姗姗来迟。现有的政策环境和扶持力度是其他国家难以比拟的。拿深圳举例,深圳是AI创新的重要基地,当地政府对企业的支持力度很高,公司注册、审批等办事流程非常简洁,政府部门甚至开辟轮流进驻企业现场办公的工作模式;深圳政府在中小企业融资方面的保障能力也走在全国前列。
再者,中国作为世界上最大的单一市场,用户数量的优势对AI企业也是重大利好。庞大的用户数量每天将产生大量的数据,而人工智能的开发、训练很大程度上依赖大数据。从用户行为中总结出规律和需求,AI应用的效能可依此强化升级。
但是,我们也要认识到现存的差距。一方面,我国科技企业起步晚、基础研发能力差,美国的IT行业起步早、技术积淀深厚。全球开发者广泛使用的计算机、操作系统到开发平台,都是美国研发的,其中英特尔、英伟达和谷歌等公司处在垄断地位。这方面的差距不是短期内能够追赶的。另一方面,美国企业与高校联系紧密,企业的许多项目与高校合作进行,创新能力强。在这方面,我国企业与高校的合作尚没有形成遍地开花的局面。值得注意,美国的AI专利多来源于企业,而中国的AI专利多来源于高校。因此,高校的研发实力不容小觑,与高校合作从而加速创新,是企业需要考虑和把握的潜在机遇。再者,中国AI企业的应用面较为狭窄,多专注于单一垂直行业。而美国的谷歌、Facebook和微软等头部企业都拥有非常多的业务部门,业务覆盖面广。举例来说,微软的AI业务跨度之大,从机器作画到解决气候问题不一而足,学科的交叉产生大量的前沿性成果。对企业来说,拓展业务将扩大成果创新的可能性,也将提高企业生存的能力,若垂直行业不景气或者新兴行业崛起,企业将有能力进行业务的转型。
观察者网:中、美、欧、日、韩在制定人工智能发展政策方面有什么异同点?
受访团队:共同点来说的话,应该是大家都把人工智能纳入了顶层设计,都提升到了国家战略的高度,基本对人工智能技术的应用前景研判、技术的投入、人才的培养以及相关的制度保障等方面给予了关注,战略眼光和布局比较长远和宏大。
差异也是明显存在的,每个国家肯定会根据自己的发展状况与需求在政策上划出侧重点。
比如,我国17年颁布的《新一代人工智能发展规划》以及后续的系列规划文件中,都能体现出我们发展人工智能的重点是落在技术的应用上,更加注重技术的落地,要抢占科技制高点,推动整个产业的变革,来推动我们经济的发展。
而美国战略的目的就是维持其在全球人工智能的领导者地位,焦点在于如何面对人工智能全面发展的大趋势,着眼于对国家长期安全与社会稳定的影响与变革,在技术研发和完善保障体系之外,对人工智能可能伴随而来的风险给予了关注,更重视提高人工智能的可信赖度。
欧盟的战略除了大家都有的推动AI研发与应用以外,将重头戏放在了人工智能价值观上,强调人工智能伦理、道德、法律体系的研究,他们想要在这一方面制定人工智能伦理准则,树立全球标准,形成典范。确实在AI伦理与道德方面的建设上,欧盟是走在前面的。我国17年提出的《规划》里对这一块的关注度就不太够,不过后续也开始重视这方面的研究,伦理道德方面的影响也会随着AI的发展更加凸显出来,这是我们必须要直面,要解决的问题。
就日本和韩国而言,他们的人工智能战略有更加明确的目标与抓手,侧重于利用自己长期以来的优势产业打头阵,比如日本,从其强大的机械制造与机器人产业入手,充分发挥优势,以此来推动机器人革命和人工智能技术,想要在解决面临的人口老龄化,劳动力短缺问题的同时实现长足的发展。韩国也是如此,重点在努力把信息通信技术、半导体、电子原配件制造技术等优势发挥到最大,推动韩国从“IT强国”发展为“AI强国”。
观察者网:最近几十年应用物理发展很快,但基础理论并没有重大突破,人工智能是否能加速基础理论突破?
受访团队:人工智能将推动数据密集型科学研究的革命。我们知道,基础物理学中无论是研究宏观尺度的天体物理学,还是研究微观尺度的粒子物理学都十分依赖实验观测,实验过程中往往会产生海量的数据。大数据处理正是当前人工智能爆发式发展的基础,因此越来越多的物理学家正在借助人工智能探索物理学前沿。
例如:为了处理大型三维宇宙学数据集,美国劳伦斯伯克利国家实验室与英特尔、克雷公司合作,利用深度学习技术开发出物理科学应用程序CosmoFlow,并且在暗物质N体模拟实验中得以应用。又如:世界上最大的粒子加速器是欧洲核子研究中心(CERN)的大型强子对撞机(LHC),其每秒可产生百万GB的数据。研究人员通过机器学习技术来实时决定哪些数据需要保存,哪些数据可以丢弃。目前机器学习算法可以替代实验人员70%工作量,大大提高了数据处理效率。
物理前沿正在向着多体问题、复杂模式等方向探索,这一切的推进离不开海量的数据支撑,随着人工智能与科研数据处理深入结合,数据之下埋藏的新模式新规律将逐步揭示出来,基础物理学将会迎来新一轮的理论突破。
观察者网:在“变革生产力”与“调整生产关系”两个方面,人工智能各起到什么作用?
受访团队:生产关系的变革依托于生产力的跃进。人类在18世纪第一次工业革命机械化,到19世纪第二次工业革命实现电气化,再到20世纪第三次工业革命实现信息化。人类物质生产能力得到跨越式发展。21世纪的第四次工业革命正在孕育之中,人类也朝着智能化方向阔步向前,促进这次变革的核心力量正是人工智能。
在生产力变革方面,人工智能将完成体力和脑力劳动的逐步替代。历次工业革命的主题都是人类对机器操纵使用方式的变革,在第四次工业革命中,从事生产的机器大规模全自动化将成为此次革新的显著标志。尽管经济活动可能永远需要人类作为主导,但一个完全由机器运营的经济形态正在形成。人工智能的自主感知、自主学习、自主决策不仅可以驱动机器自主运行,而且可以将机器运行在最优状态。更重要的是,机器之间不再由人类调配协同,人工智能可以在各个层次合理配置资源,使整个物质生产过程以最优化方式进行。这意味着,机器不只是对体力劳动进行简单替代,也在逐渐对部分脑力劳动进行替代。这一过程将彻底改变人类的生产方式,大大扩展人类的物质生产边界。
在生产力关系调整方面,人工智能将促进生产资料和社会组织的平等化。由于人工智能促进了物质生产方式的革新,人类从事物质生产活动的时间将逐步降低,更多的时间可以从事创造性活动。人类会逐渐摆脱对机器的依附,成为更独立的人。很多人认为,未来生产关系将变成人和机器,甚至人和机器人的关系。归根结底,其实生产关系最终体现的还是人和人的关系。随着人类社会智能化水平的提高,生产资料将更加难以集中掌握在某个群体,物质生产和社会组织的民主化将会把原有的生产关系彻底改变。现在我们还只能探讨其中的趋势,相信在不远的将来,与智能化社会相适应的生产关系将会逐步产生。这一切需要我们一起参与,一起见证。
观察者网:有观点认为“人工智能实际上就是统计学+概率论”,对此您怎么看?
受访团队:当前人工智能的爆发,离不开大数据处理和机器学习技术的快速发展,而这两者的根基正是概率论和统计学,因此很多人认为人工智能就是统计学+概率论。
我认为这种观点是片面的。人工智能分为两个层级,分别是弱人工智能和强人工智能,两者具有本质的区别。前者是单一方面的智能,例如AlphaGo在棋类游戏中的表现,这是目前深度学习技术运用的经典范例,统计学方法确实这一层级智能的有效实现路径。然而,强人工智能或者称类脑智能,通俗来说就是拥有人造大脑、会思考、会学习的智能体。其本质上就是利用算法模拟神经元工作机制,像人脑一样处理信息、做出决策。基于统计学路径的深度学习方案目前来看是无法实现类脑智能的。究其根本,是因为统计学在复杂感知数据中只能找到某一个层面的模式,难以形成多种认知功能,也就难以达到模拟人脑的效果。
长远来看,人工智能的发展目标是实现强人工智能,也就是让智能体能像人类一样处理各种繁杂事务,且可以在多个场景中自由切换,这就离不开对人脑结构、认知模式的深入研究,以形成类脑信息处理模式。因此,人工智能的发展离不开统计学+概率论,但也绝不能将其简单归结为统计学+概率论。
观察者网:AI大规模应用必将裹挟诸多风险,如人工智能伦理、隐私数据保护等,中国AI治理观念与欧美有何不同之处?
受访团队:近年来,得益于算法、算力及数据的提升,人工智能技术迎来了前所未有的发展,并逐渐成为国际社会广泛关注的话题,与此同时,人工智能技术的研发和应用也带来一系列伦理挑战。
近期我们看到有机构回顾了2019年全球十大人工智能治理事件,包括自动驾驶安全事故频出、“监测头环”进校园惹争议、AI换脸应用引发隐私争议、AI编写假新闻足以乱真等内容。
目前,全球公开渠道可见的人工智能治理准则或指导方针方面的文件已超过80个,2019年4月8日,欧盟委员会以“建立对以人为本AI的信任”为题,发布欧洲版的AI伦理准则,期望建立“以人为本、值得信任”的AI伦理标准,不断促进社会公众接受AI技术、应用AI技术。2019年5月22日,OECD成员国批准了人工智能原则即《负责任地管理可信赖的AI的原则》,该伦理原则总共有五项,包括包容性增长、可持续发展和福祉,以人为本的价值和公平,透明性和可解释,稳健性和安全可靠,以及责任。2019年5月25日在北京发布的《人工智能北京共识》针对人工智能的研发、使用、治理三方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则,将关注“服务于人”,将“和谐与优化共生”这一中国哲学和文化中的特色理念,融入人工智能治理原则当中。2019年6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,强调和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理等八条原则。
经过梳理可以发现,围绕透明、公正和公平、不伤害、责任、隐私这五个方面的伦理原则呈现出全球趋同的局面。然而,细细分析,也可以看出中西方在应对人工智能伦理问题上的一些差别,即西方强调“以人为本”,而中国更关注“和谐包容”,治理理念区别的背后是中西方文化和价值观的不同。
人工智能的研发应用具有跨国界、国际分工等特点,人工智能治理问题也特别强调国际协作与协调。随着人工智能的进一步发展,人与机器的关系也将发生变革,那时西方“以人为本”的价值观未必能够适应新型人机关系,而传统中国智慧很可能成为破解人工智能治理难题的解药。
观察者网:关于“人工智能泡沫”“深度学习遭遇寒冬”等的学术讨论越来越多形成鲜明对比,对此如何解读?
受访团队:在《人工智能全球格局:未来趋势与中国位势》新书中,笔者结合2000年左右的互联网“泡沫”经历,总结了当下“人工智能泡沫论”的主要论点:
人们对于人工智能改变生活的预期与AI现实能力不匹配。以自动驾驶为例,汽车生产商对全自动驾驶(Level 4)的实现时间盲目乐观。Delphi和MobileEye承诺于2019年实现Level 4自动驾驶系统,Nutonomy公司计划于2019年在新加坡街头部署无人驾驶出租车,特斯拉CEO马斯克在2020年1月声称,特斯拉车型的“完全自动驾驶”功能即将到来。但加里·马库斯等专家认为,实现完全自动驾驶可能需要数年甚至数十年,届时才能实现可以避免事故的自动驾驶系统。
资本界和媒体对人工智能的理解与AI现实能力不匹配。部分资本界人士和媒体对人工智能的理解较为片面,对人工智能现阶段的能力认识不足。扭曲的信息在网络中多次传导,逐级放大,最终导致社会整体认知的缺陷。
以人类智能为基准,现有的人工智能技术或许连婴儿的水平都达不到。以深度学习为代表的机器学习技术,也仅仅是实现真正人工智能的一小步。在可以预见的未来,新型AI算法、算力和大数据技术或将不断取得新突破,人工智能也仍将持续保持高速发展态势。与前两次AI浪潮相比,第三次AI浪潮可以解决的问题已大大拓展,我们对人工智能未来的发展应该持有乐观的心态。但同时,资本的疯狂追逐、误导性的宣传也会持续下去,人们对AI改变生活的预期和AI现实能力的不匹配,必将导致“AI泡沫”的产生。未来一段时间,人工智能的发展或将呈现冰火两重天:有能力的公司加速扩张,没能力的公司迅速溃败。
历史上,很多研究领域都经历过萌芽期、发展期、泡沫期,最后回归正常。2000年互联网泡沫破灭后,互联网的发展重新回到正轨,此后更是孕育谷歌、亚马逊、Facebook等互联网巨头的崛起。一定程度的泡沫,对行业的发展是利好因素。泡沫的破灭,也只是去掉不合理、空虚的东西,而把合理地、有价值的事物给沉淀下来。在新一轮人工智能发展浪潮中,泡沫是一定存在的,但我们大可不必担心人工智能的前景。新型算法、先进算力、大数据技术的发展,必将引领人工智能更新一轮热潮的发展,泡沫也必将成为人工智能理性发展的垫脚石。
观察者网:近期《南华早报》报道“中国人工智能领域人才继续留美,上升空间几乎为零”。一直以来,华人在美国科技公司中担任高管的人数较少,是哪些原因导致的?
受访团队:当前在美国科技公司,尤其是硅谷,确实存在印度裔高管比比皆是,而华人则多偏向于工程师,但高管寥寥无几的情况。造成这个问题的原因是多层次的。
首先,语言差异在一定程度上对华人融入美国文化造成了限制。尽管在海外华人工程师通常具有良好的英语基础,可以熟练应付英语读写和编程操作,但与印度人将英语作为官方语言从小训练相比,我们在语言交流上还是存在一些障碍。而语言的障碍恰恰又会对华人融入美国文化形成一种无形的障碍,所以我们众多华人工程师为了避免这种冲突与隔阂,更倾向于埋头钻研技术问题,少有表达。但作为公司高管,文化上的融入与语言交流的积极主动是必不可少的。
其次是文化差异。中国文化中的“内敛、实干、低调、谦和”等特质是深深镌刻在每一位华人骨子里的。例如,面对业务问题时,中国人讲究“知者不言,言者不知”,偏向于先把自己所辖的业务领域吃透再去表达,而不乐于在研究过程中积极交流;面对工作安排时,中国人的思维方式强调“服从”,偏向于执行上级布置的任务;而硅谷科技公司往往鼓励自由讨论、主动提出想法、主动带领团队开展攻关,这本质上其实就是一种文化的差异。在这方面,印度人不论在表达沟通上,还是争取资源、争取利益的主动性上,都比华人具有更强的适应性。
再次是能力培养方面的偏好差异限制了华人的发展空间。在能力培养方面,华人更偏重于技术深造,而轻于商业能力和领导力方面的培养。与印度人相比,有一项调查显示,印度裔在硕士毕业之后读MBA的比例达28%,而华人读MBA的比例则不足8%,但读博士的比例则高达近30%。因此我们可以看出,华人往往信奉“技术才是硬实力”的原则,这条原则可以造就高级的工程师,但无法成就一名企业高管。因为管理者最重要的能力素质并不是技术,而是如何发挥团队的最大效力。
除了以上三大因素之外,影响华人高管比例的还有群体团结、种族认同,以及近年来尤其明显的出于政治考量的签证限制等。
观察者网:人工智能在疫情防控和公共安全方面可以发挥哪些作用?
受访团队:现有的人工智能技术虽然无法达到强人工智能的水平,无法进行自主思考,但凭借近年来的研究积淀,人工智能技术已能通过大量数据的训练习得许多技能,帮助人类完成许多复杂任务,提高工作效率、提高生产力水平。在此次抗疫工作中,人工智能发挥作用的场景主要集中在以下几个方面:
一是预测与分析类工作。人工智能可以帮助我们对疫情发展与传播的趋势进行预测,从而改进防控措施,主动应对疫情影响;也可以帮我们完成病毒基因测序、新药的开发工作。以上工作中都涉及大量数据及模糊数据,数据模型较为复杂,难以用经典计算模式完成。人工智能可以一定程度上缓解算力压力,同时寻找解决问题的捷径。
二是检测与监控类工作。依托于图像识别与热成像技术,AI检测设备可帮助工作人员对人流量、人员体温和口罩佩戴情况进行检测,对体温过高的人员和未按规定佩戴口罩的人员进行识别并发出警告。相关技术已经较为成熟,识别准确度高,可同时进行多人检测,且无需接触体表,为防疫管理提供了便捷。相关设备已在部分城市的车站、街道等人流相对密集的地点投入使用。图像识别技术同样可以帮助医疗工作者对患者医疗影像数据进行分析诊断,减轻医疗工作者的工作压力。
三是智能客户服务工作。近年来,自然语言处理技术的发展使得人工智能聊天机器人进步飞速,聊天机器人已能与用户进行沟通。聊天机器人不仅可以运用于客户服务和简单问诊工作,亦可为用户提供情感关怀。先进的聊天机器人更是可以识别语音、文字中的情感信息,并对用户进行疏导、劝解。此技术有望为长期奋战在一线的医护人员、隔离治疗的患者以及在家中隔离的人群在一定程度上给予情感上的关怀,缓解紧张心情。
需要注意的是,自动化工具并不等于AI,替代简单重复劳动是自动化工具要为我们完成的任务,而AI则帮助我们解决更加复杂问题。
本文系观察者网独家稿件,文章内容纯属作者个人观点,不代表平台观点,未经授权,不得转载,否则将追究法律责任。关注观察者网微信guanchacn,每日阅读趣味文章。