【快评】国外多层面进行人工智能伦理道德研究

发布于: 雪球转发:0回复:0喜欢:0

国家层面

欧盟、英国、美国、日本、韩国等都在国家战略层面提出多项人工智能伦理原则、规范或指南。美国《国家人工智能研究和发展战略计划》将理解并解决人工智能的伦理、法律和社会影响作为七大战略之一。欧盟在发布的《欧盟人工智能》战略报告中将确立合适的伦理和法律框架作为三大战略重点之一。英国将伦理道德放在发展人工智能的核心位置,成立了数据伦理和创新中心,负责实现和确保数据的安全的创新性应用,并合乎伦理。日本起草人工智能伦理纲要,韩国以立法规定设立国家机器人政策、伦理委员会。

学术和国际组织层面

多个学术组织和国际组织倡导符合人类伦理道德的人工智能技术研发与应用,并建立专门机构研究人工智能的全球治理问题。加利福尼亚州阿西洛马举行的 Beneficial Al 会议,近千名人工智能相关领域的专家联合签署了著名的《阿西洛马人工智能23条原则》。麻省理工技术评论发布“亚洲人工智能议程”系列调查报告的第四份——《人工智能伦理》。美国国家标准与技术研究院发布制定人工智能技术和道德标准的指导意见,强调标准必须严格,确保安全,符合美国政策和原则。

英国标准行业协会发布业界首个关于机器人伦理设计的公开指标,即《机器人和机器系统的伦理设计和应用指南》,旨在保证人类生产出来的智能机器人能够融入人类社会的道德规范。2016 年和 2017 年,美国电气和电子工程师协会(IEEE)连续推出《人工智能设计的伦理准则》白皮书。美国计算机协会下属的美国公共政策委员会在发布的《算法透明性和可问责性声明》中提出七项基本原则。

联合国发布《人工智能政策报告》,呼吁世界各国加强在人工智能技术研究与开发领域的合作,共同应对智能机器人在就业、伦理道德以及法律层面带来的挑战。经济合作与发展组织通过首部人工智能的政府间政策指导方针,确保人工智能的系统设计符合公正、安全、公平和值得信赖的国际标准。

企业层面

微软IBM英特尔谷歌等企业相继发布人工智能伦理道德原则,并成立人工智能伦理委员会,共同致力于人工智能伦理道德的研究。微软发布《人工智能政策建议》,鼓励制定最佳实践伦理准则。IBM很早就成立了伦理审查委员会。英特尔发布《人工智能公共政策机会》,传达了英特尔负责任地促进数据获取,重新思考隐私、公平信息实践原则,符合伦理的设计以及可责性原则。谷歌DeepMind团队成立人工智能伦理部门,在加强人工智能技术研发和应用的同时,也将伦理等人工智能公共政策提上议程,负责任地研究和部署人工智能。亚马逊、微软、谷歌、IBM、 Facebook苹果联合建立了人工智能行业联盟,共同研究和制定人工智能技术的最佳实践。

赛迪智库系列专题文章,请在公众号后台回复以下关键词查看:转型升级:高质量发展|供给侧改革|工业强基|先进制造业集群|京津冀一体化 |一带一路  |长江经济带 |产能过剩 |产能合作 |新动能 |全要素生产率  |工匠精神|并购重组工业创新:双创| 制造业创新中心| 颠覆性创新 |协同创新| 知识产权|工业标准|公共服务平台新兴产业数字经济|互联网+|工业互联网|智能制造|服务型制造|增材制造|人工智能|虚拟现实|区块链|机器人|集成电路|光伏|新能源汽车|无人驾驶|大数据|分享经济|高端装备|  新材料信息化:5G|信息化|两化融合|物联网|智慧城市|信息消费|政府数据开放|网络安全|数据跨境流动节能环保:气候变化|污染治理|能源利用|节能环保|清洁生产|绿色发展|   用能权交易|循环经济传统产业:食品|医药|船舶|纺织|钢铁|电子信息制造|航空航天| 安全产业|危化品国际贸易:贸易壁垒|贸易协定更多精彩内容陆续更新,敬请期待!