640?wx_fmt=gif

640?wx_fmt=jpeg 640?wx_fmt=png 640?wx_fmt=png

赛迪大厦

19  March 2019

近年来,人工智能加快发展,迅速深入到各个行业和领域,为经济社会发展带来很多机遇和挑战,相关伦理问题引发广泛关注。为落实《新一代人工智能发展规划》和做好政府相关支撑工作,促进我国工业、信息化领域融合创新发展,中国电子信息产业发展研究院召开了“人工智能伦理”专家座谈会。


640?wx_fmt=gif

 点击放大思维导图,即可查看专家观点


首先,人工智能产业创新联盟副秘书长王沛霖介绍了联盟的相关情况和活动,政策法规所所长栾群介绍了国内外人工智能伦理相关研究和背景。来自学界、产业界的8位专家分别针对各自研究领域做了精彩发言。


段伟文教授

中国社会科学院

人工智能所带来的伦理影响和冲突主要包括隐私、自主、安全、尊严、公正、信任等多个方面,人工智能系统可为用户和社会带来重大利益,人工智能将在诸多领域出现重大进展,人工智能伦理规范与标准的探索已取得相当进展,我国应加强人工智能伦理方面的研究。


汪前进教授

中国科学院大学

应当更加注意设计与收集阶段的伦理问题,形成体系化的制度设计。伦理是一种价值观理念,是一种文化认同、理念认同,没有法律强制约束力,在制定人工智能伦理原则时,应充分考虑普世性、中国化、阶段性以及发展与保护的平衡。


刘永谋教授

中国人民大学

对人工智能治理客体应当分类认识,技术的应用和发展不能违背既有的主流伦理观,我国开始重视隐私权问题是在进入网络时代之后,研究人工智能伦理应当注重伦理主义与制度主义的结合,要更充分发挥技术手段在社会综合治理中的作用,形成“法治+德治+技治”的综合治理手段体系,发展“智能治理”。


陈永伟研究员

《比较》研究部主管

讨论人和人工智能时在同一个维度上才有意义,如可以把二者都放在算法的层面上讨论;考虑人工智能责任问题应当有取舍,既要考虑经济价值,也要考虑社会价值;人工智能责任应当采取结果主义,做到以事后处罚来保障事前的积极性,避免陷入“旧规制理论”的窠臼里去。


郑志峰老师

西南政法大学

在看到伦理有效性的同时我们也应该看到它的局限性;现有对人工智能主体地位的讨论是具有工具目的的;如果赋予人工智能主体地位则会对现有的法律设定形成挑战,原因在于现有的法律设定都是围绕着人的行为决策而展开的;人工智能对隐私的挑战是前所未有的,应当做系统性的规制。


刘伟教授

北京邮电大学

人工智能伦理不是务虚无用的,而是可以作为一种实实在在的、重要的贸易和安全的反制措施;现有的人工智能应该说是高级自动化,还非智能化;要搞清楚“什么是智能”这一基本问题,智能最基本的是要能明辨是非;智能技术应注重以人为本,现在的人工智能产品系统和体系如果不和人结合的话,是没有意义的;人机融合是人工智能未来发展的趋势。


桂宁研究员

百度公共政策研究院

百度提出了AI伦理四原则;人工智能伦理问题可分为四个层次,决策权问题、人机融合问题、技术规范问题、恶意利用问题等;下一步发展人工智能要明确人工智能的伦理原则,强化领军企业的担当,加强人工智能与人工智能伦理的国际交流,引领行业发展,凝聚全球共识。


何海锋研究员

京东数科研究院

人工智能伦理应注重多主体的利益,实际上个人数据与企业的生产资料以及密不可分来,而传统的公开伦理实际上是不符合数字时代的算法公开伦理,人工智能治理应该为“技治”留有一定的空间,现阶段讨论人工智能伦理的目的应当是提高发展的信心,而不是在技术未成熟之前就遏制,不发展才是最大的不安全。


640?wx_fmt=jpeg


本次会议成果丰富,将来,中国电子信息产业发展研究院将基于此次座谈会,开展更多人工智能伦理领域的研究,与更多专家开展务实合作,推动我国人工智能伦理的健康发展。



来源丨《人工智能》杂志社


640?wx_fmt=gif


640?wx_fmt=jpeg

Logo

CSDN联合极客时间,共同打造面向开发者的精品内容学习社区,助力成长!

更多推荐