中央政治局集体学习人工智能,习总书记强调AI头雁效应
消息来源:新华网、人民日报
中国作为人工智能产业应用的中心,在政策方面一直不落俗套。2017年《新一代人工智能发展规划》的出台无疑奠定了将人工智能发展国家战略的地位。
学界,业界也一直响应中央号召,积极布局人工智能人才培养。今年一所人工智能学院——南京大学人工智能学院成立以来,各院校也纷纷成立自己的人工智能学院。
这一切都无疑表示,国家对人工智能发展的大力支持。
昨日,中共中央政治局下午就人工智能发展现状和趋势举行第九次集体学习。中共中央总书记习总书记在主持学习发表重要讲话。当晚新闻联播对这次会议进行了报道。
随后,人民日报评论员李辉在人民日报上刊文:发展人工智能,治理需跟上。
人工智能“头雁”效应
人工智能是引领这一轮科技革命和产业变革的战略性技术,具有溢出带动性很强的“头雁”效应。
习总书记强调,在移动互联网、大数据、超级计算、传感网、脑科学等新理论新技术的驱动下,人工智能加速发展,呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征,正在对经济发展、社会进步、国际政治经济格局等方面产生重大而深远的影响。
人工智能具有多学科综合、高度复杂的特征。必须加强研判,统筹谋划,协同创新,稳步推进,把增强原创能力作为重点,以关键核心技术为主攻方向,夯实新一代人工智能发展的基础。要加强基础理论研究,支持科学家勇闯人工智能科技前沿的“无人区”,努力在人工智能发展方向和理论、方法、工具、系统等方面取得变革性、颠覆性突破,确保我国在人工智能这个重要领域的理论研究走在前面、关键核心技术占领制高点。
要主攻关键核心技术,以问题为导向,全面增强人工智能科技创新能力,加快建立新一代人工智能关键共性技术体系,在短板上抓紧布局,确保人工智能关键核心技术牢牢掌握在自己手里。
要强化科技应用开发,紧紧围绕经济社会发展需求,充分发挥我国海量数据和巨大市场应用规模优势,坚持需求导向、市场倒逼的科技发展路径,积极培育人工智能创新产品和服务,推进人工智能技术产业化,形成科技创新和产业应用互相促进的良好发展局面。要加强人才队伍建设,以更大的决心、更有力的措施,打造多种形式的高层次人才培养平台,加强后备人才培养力度,为科技和产业发展提供更加充分的人才支撑。
深入把握新一代人工智能发展的特点,加强人工智能和产业发展融合,为高质量发展提供新动能。要围绕建设现代化经济体系,以供给侧结构性改革为主线,把握数字化、网络化、智能化融合发展契机,在质量变革、效率变革、动力变革中发挥人工智能作用,提高全要素生产率。
要培育具有重大引领带动作用的人工智能企业和产业,构建数据驱动、人机协同、跨界融合、共创分享的智能经济形态。要发挥人工智能在产业升级、产品开发、服务创新等方面的技术优势,促进人工智能同一、二、三产业深度融合,以人工智能技术推动各产业变革,在中高端消费、创新引领、绿色低碳、共享经济、现代供应链、人力资本服务等领域培育新增长点、形成新动能。要推动智能化信息基础设施建设,提升传统基础设施智能化水平,形成适应智能经济、智能社会需要的基础设施体系。
要加强人工智能同保障和改善民生的结合,从保障和改善民生、为人民创造美好生活的需要出发,推动人工智能在人们日常工作、学习、生活中的深度运用,创造更加智能的工作方式和生活方式。
要抓住民生领域的突出矛盾和难点,加强人工智能在教育、医疗卫生、体育、住房、交通、助残养老、家政服务等领域的深度应用,创新智能服务体系。要加强人工智能同社会治理的结合,开发适用于政府服务和决策的人工智能系统,加强政务信息资源整合和公共需求精准预测,推进智慧城市建设,促进人工智能在公共安全领域的深度应用,加强生态领域人工智能运用,运用人工智能提高公共服务和社会治理水平。要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。各级领导干部要努力学习科技前沿知识,把握人工智能发展规律和特点,加强统筹协调,加大政策支持,形成工作合力。
发展人工智能,治理需跟上。
人工智能不仅是一个技术问题,也是一道治理考题。以无人驾驶技术为例,在全球范围内已出现多起事故,甚至造成人员伤亡,然而,并没有法律对此作出明确规定。当人们向算法让渡了部分决策权,也会让归责成为难题。在这个意义上,技术进步是一柄“双刃剑”,一方面可以造福人类,另一方面在缺乏规范和制约的情况下,也有可能损害社会公共利益。处理好人工智能在法律、安全等方面提出的新课题,需要完善治理,让技术创新运行在制度的轨道上。
事实上,如何对人工智能进行规范,在世界范围内还未形成共识。在不少国家,无人驾驶领域的立法一直在讨论中,看法不一;在中国,无人驾驶的汽车能否上路、是否符合道路交通安全法,也引发了一系列讨论。欧盟最新发布的《通用数据保护条例》中,也没能对人工智能涉及的隐私风险、数据保护风险做出符合大众期待的回应。每当一种新技术出现,都会有关于旧的治理规则是否适用、是否需要升级,以及是否需要制定新的治理规则的讨论。面对日新月异的人工智能技术及其引发的问题,如何用法律条文探寻最佳应对方案、凝聚对未来的共识,是一项艰巨挑战。
完善与人工智能相关的法律法规,关键在于明确归责原则:一旦问题出现,哪些是人的责任,哪些是算法的责任?归责原则实际上就是对算法做出评价,而算法本身并不透明,如何对其进行评估?对此有三种解决方案:不用算法,使算法透明,审查算法输出。
完全避免算法不现实,除了算法,几乎没有其他工具可以处理大量的数据。而算法透明化则难以操作,这相当于要求普通人也能理解算法。因此,审查算法输出是目前的最佳方案。这一方案的要义在于,不管算法的内在工作机制,只根据其结果的公正性对其进行评价。在此方案下,监管成本更低,可操作性更强,归责原则的确定也更明确,具有立法实践的意义。
面对科技的迅速发展,我们始终在探索人工智能的法律解决方案和治理模式,致力于形成一套务实管用、行之有效的方法。比如,相关部门对人工智能领域的新应用、新尝试给予足够的创新空间,但必要的监管同样不可或缺;一旦发现安全问题、突出风险,监管力量会及时介入,甚至采取多部门联合调查处理的方式封堵隐患、解决问题。这样的模式,既呵护了创新,也有利于防范系统性风险,为人工智能健康发展提供了保障。
人工智能的治理问题是当前一项重大挑战,世界各国和国际组织都参与其中,这也让人工智能的治理成为全球治理的一部分。如果此时缺位,可能会在新一轮规则制定中陷入被动。如今,中国在人工智能领域的技术探索已处于世界前列,有些部分甚至进入了“无人区”。创新先行,治理必须跟上,如此才能充分享受创新带来的红利,撬动发展的未来。
相关报道:
http://opinion.people.com.cn/n1/2018/1101/c1003-30374851.html
http://politics.people.com.cn/n1/2018/1101/c1024-30374824.htm