学者声音

您当前的位置: 学者声音学者声音

学者声音

李传兵:保障人工智能健康发展

发布人:周可   发布日期:2020-07-14   浏览次数:472

来源:人民日报

作者:贵州大学马克思主义学院教授李传兵

人工智能作为一种具有代表性的颠覆性技术,正在释放科技革命和产业变革积蓄的巨大能量,深刻改变着人类生产生活方式和思维方式。习近平总书记强调:“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”保障人工智能健康发展,需要采取合理有效的举措,防范人工智能技术可能带来的伦理道德风险,让这一技术更好服务于经济社会发展。

人工智能发展存在伦理道德风险。在新一轮科技革命和产业变革中,人工智能是一项战略性技术,具有很强的“头雁效应”,在有力推动经济社会发展的同时,也带来一系列风险与挑战。其中,伦理道德风险是一个重要方面。实际上,伴随人工智能技术的发展,关于其可能诱发伦理道德风险的讨论从未停止。有人担忧,信息时代,人工智能创造物已不仅仅是技术化的工具,而是越来越具有类似于人类思维的能力,甚至在某些方面具有超越人类思维的能力。人工智能发展到一定程度,有可能威胁人类思维主体地位。也有观点认为,人工智能应用存在隐私泄露的伦理风险。人工智能应用需要以海量信息数据作支撑,正是由于大数据的使用、算力的提高和算法的突破,人工智能才得以快速发展、广泛应用,并呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等特征。人工智能越“智能”,就越需要获取、存储、分析更多的信息数据。在这一过程中,涉及个人隐私的信息,如个人身份信息数据、网络行为轨迹数据以及对数据处理分析形成的偏好信息、预测信息等,往往以数据的形式被存储、复制、传播。获取和处理海量信息数据,不可避免会涉及个人隐私保护这一伦理问题。如果缺乏伦理道德规范,就有可能诱发隐私泄露的伦理道德风险。此外,随着人工智能自主性的提高,人工智能侵权责任中的因果关系、过错等要件的判断日趋复杂,人工智能应用的权利责任归属问题也被广泛关注和讨论。

增强人工智能伦理道德风险防控意识。人工智能之所以存在伦理道德风险,究其主要原因,一方面是这一技术还不够完善;另一方面是目前人工智能健康发展的伦理道德保障机制仍然不够健全,同快速发展的人工智能技术相比,与之相关的伦理道德规章制度发展相对滞后。解决这些问题,一项基础性工作是增强人工智能伦理道德风险防控意识。目前,在一些地方和领域,公众对人工智能可能诱发的伦理道德风险重视程度还不够高。增强人工智能伦理道德风险防控意识是一项系统工程,涉及科技研发、应用各环节。在科技研发环节,重在完善人工智能从业机构与伦理道德研究、教育、监督机构之间的长期沟通交流机制,不断提高科技从业人员的伦理道德水平,引导研发人员增强风险防控意识,严守科技伦理底线,强化伦理责任。在研发初始环节,尤须增强道德风险防控意识,预测和评估人工智能产品可能引发的道德危害,从设计源头进行规范。进而将这种伦理意识贯穿于研发全过程,防止人工智能被非法利用进而危害社会,确保科技研发活动始终在伦理道德的轨道上平稳运行。在应用环节,同样需要绷紧伦理道德风险防控这根弦,在全社会加强涉及人工智能的伦理道德教育,普及与人工智能相关的法律法规知识,引导社会公众以正确的价值观念看待和运用人工智能技术,在享受其带来的便利的同时,对其中的伦理道德风险始终保持高度警惕,推动全社会共同参与科技伦理治理。

依靠制度确保人工智能安全可控可靠。将人工智能可能诱发的伦理道德风险降到最低,保障人工智能健康发展,必须根据人工智能发展实际,针对其可能带来的伦理道德风险,不断完善指导和规范人工智能发展的伦理道德原则。在此基础上,建立健全相关制度体系,从而及时发现、有效解决人工智能技术发展中的各类伦理道德问题,确保人工智能安全可控可靠。20196月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,对促进新一代人工智能健康发展,加强人工智能法律、伦理、社会问题研究提出明确要求。依靠制度建设,防范和化解人工智能可能带来的伦理道德风险,需要相关从业人员大力弘扬社会主义核心价值观,在技术开发和应用过程中,严格遵守标准、流程等方面的规定,充分尊重和保护个人隐私,保障个人的知情权和选择权。不断加强人工智能的伦理道德监管,在相关法律法规中,进一步强化隐私权保护,充分保障公民在人工智能应用中的知情权和选择权。严格规范人工智能应用中个人信息的收集、存储、处理、使用等程序,严禁窃取、篡改、泄露和其他非法收集利用个人信息的行为,确保人工智能朝着对全人类、全社会及自然生态有益的方向发展,更好为经济社会发展和人民美好生活服务。