到2030年,建成更加完善的人工智能法律法规、伦理规范和政策体系。
四、构建全过程的AI监管体系
我国应当建立健全公开透明的AI监管体系,重点在AI的设计问责和应用监督并重的双层监管结构上做充分的准备,实现对AI算法设计、产品开发和成果应用等的全过程监管。促进AI行业和企业自律,切实加强AI协同一体化的管理体系,加大对AI领域数据滥用、算法陷阱、侵犯个人隐私、违背道德伦理等行为的惩戒力度。
在AI技术研发的同时,要加强人工智能相关法律、伦理和社会问题的同步研究,尤其要关注AI模仿人类传播错误信息或将商业无人机转化为目标武器攻击人类,建立和优化保障AI健康发展的法律法规和伦理道德框架。法律研究领域要开展与AI应用相关的民事与刑事责任确认、隐私和产权保护、机器伦理与破坏力评价等伦理与法律问题的交叉研究,建立AI的可追溯和问责制度,明确人工智能的设计者、控制者、使用者等相关法律主体的权利、义务和责任。
关于AI监管的原则,科幻作家艾萨夫·阿西莫夫(Isaac Asimov)于1942年提出的“机器人学三律”仍具有参照价值,值得借鉴。第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。
笔者始终认为,AI的本质是服务人类社会(AI as a service,AIaas),而人类社会的核心价值就是“以人为本”。由此,AI健康发展的方向必须以造福于人类为宗旨。笔者建议,国家有关部门或行业组织应当制定AI产品研发设计人员的道德规范和行为守则,加强对AI潜在危害与收益的评估,构建AI复杂场景下突发事件的解决方案。同时,我国应当积极参与AI的全球治理,加强机器人异化和安全监管等AI重大国际共性问题的研究,深化在AI国际标准、国际规则等方面的合作,构建我国AI领域的国际制度性话语权。