bob手机登录网址体育:加快人工智能立法专家建议治理需具有前瞻性 发布时间:2022-07-22 19:29:39 来源:bob手机体育app 作者:BOB体育多特


  近年来,伴随全球数字化进程的加快,人工智能成为引领未来世界发展的关键技术,如何进一步完善人工智能治理,成为国际学界普遍关心的问题。

  2021年11月,世界经济论坛发布了《人工智能治理之旅:发展与机遇》。为此报告提出若干政策建议,呼吁多利益攸关方采取“灵活治理”的方式,共同参与人工智能治理。

  报告指出,人工智能技术取得飞速发展,但相关的治理能力和框架却没有及时跟进。近几年,各方对治理人工智能提出了很多伦理道德原则,但如何在不扼杀创新的前提下管控风险并推动人工智能治理由原则向实践转化才是最关键的。

  近期,英国将交出一份答卷。英国数字、文化、媒体和体育部(以下简称:DCMS)发布新的人工智能规则提议,以便人工智能在英国被迅速安全采用,促进生产力增长。英国通信管理局、竞争与市场管理局(CMA)等机构将应用6项原则来监管各种形式的人工智能。

  DCMS称,最新提交至议会的《数据保护和数字信息法案》将改变英国目前延续的欧盟数据法案。从发布的内容来看,监管原则的应用按照“最适合其部门使用人工智能的方式”来实施,例如在投入市场之前,为人工智能技术在安全性和可靠性方面的运用提供合适的试验环境。其目的在于使企业清楚认识自身开发和使用人工智能系统的方式,并使消费者信任人工智能企业及其运用,避免对人工智能企业施加不必要的障碍。

  在2021年4月21日,欧盟就提出了《人工智能法案》,并于2022年4月20日发布拟议的修正案。该修正案创建了高风险人工智能系统清单,并规定在高风险人工智能系统内的供应商需要为每个AI系统起草合规的证明,并交予欧洲主管机构管理。

  欧洲主管机构作为AI法案中肩负治理责任的中央监管机构,有权访问数据集,并在必要时可以访问供应商的源代码以确保其合规性;同时,该机构有权要求采取纠正措施以使系统符合AI法案要求,或要求系统从市场上退出。目前,该法案正在通过评论期和修订,预期可能于2023年初生效。

  从监管方面来看,欧盟的AI法案将治理责任交予中央监管机构,而英国则倾向于允许不同监管机构采用针对性的监管方法。

  记者介绍,与之相关的多是散见于法律及地方的规章条例及政策通知,如《电子商务法》、《数据安全法》、《网络安全法》等,但尚未形成体系完善的人工智能法律法规。

  “与人工智能相关的刑事责任、产权归属、信息安全、隐私保护等方面法律问题亟待进一步完善,人工智能法律相关的责任制度、主体权利、义务规范等方面还未进行规范。同时由于上位法尚未出台,人工智能场景化立法步伐也相对滞后。”朱宁表示。

  据悉,虽然我国尚未有一部专门规制人工智能的法律文件,但已知有关人工智能方面的规范制度包括:国家新一代人工智能治理专业委员会在2021年9月25日发布的《新一代人工智能伦理规范》(以下简称《伦理规范》),2019年6月17日发布的《新一代人工智能治理原则——发展负责任的人工智能》、2017年07月国务院发布的《关于印发新一代人工智能发展规划的通知》等,上述文件都不同程度体现了以人为本、可控发展、分类监管的理念。

  其中,《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求,同时提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。

  关于法律管制如何促进人工智能的发展,上海市江华律师事务所江天麟律师对21记者表示,法律难以直接对人们应该在哪些领域增加、减少投入做出强制规定,但是法律可以对各个领域中的发展给予必要的指引,比如对人工智能基础数据的使用做出规定,在增强数据的透明度的同时,加强对个人隐私的保护。同时,针对已有管制的不足之处,法律至少可以允诺未来进行合理调整。

  欧盟、英国两部重磅AI法案进度条接近“加载完成”。对于未来我国AI法案的落地,以及将会采用什么样的监管方法,朱宁认为,人工智能的监管程度或监管方法在不同地域下应当有所差异,这种差异主要是不同地区的人文、经济、政治、科技发展程度等因素所决定的,监管机构是采用大一统建制还是分门别类的建制,都取决于各个法律地域下自己本国的特点。

  朱宁进一步补充道,我国人工智能产业尚处于发展中阶段,建议应当具有前瞻性与开放性,同时应当确立可控监管的原则,尽快出台一部纲领性的上位法律规定以明确人工智能规范的基本原则,进一步由不同机构或部门根据各自的产业或行业等特点,有针对性地出台相应的监管措施,并建立一个较为权威的行业自治或监管的组织,尽快根据不同的行业出台具体的行业自律公约或具有约束力的行为规则。

  此外,欧盟最新AI监管草案对人工智能技术进行了风险评定,将全面禁止大规模利用AI技术的社会信用体系,并对特定领域的“高风险”应用进行严格限制。我国的AI法案是否会使用此类风险评定模式,两位律师都给予一致的观点。

  朱宁介绍,欧盟地区的相关草案中将人工智能系统分为四个等级:不可接受的风险、高风险、有限风险和低风险,并针对不同级别风险实施不同程度的规范,对“高风险”等级的人工智能系统施加最严格的监管。欧盟针对高风险等级的监管措施作出了更为细化的规定,还将高风险等级AI系统分为八类,与之对应,高风险等级人工智能系统需要遵守更高的技术和审计要求。“这类做法值得我们结合自己特点来作出更加细致和有针对性的规定”。

  江天麟表示,针对“高风险的人工智能系统进行监督,包括那些对安全构成直接威胁的系统,如自动驾驶汽车,以及那些很有可能影响人们生活的系统,如用于工作招聘、司法裁决和信用评分的系统,应当在投入使用前对其进行评估,包括确保这些系统可以向监督人员解释,并确保这些系统是在经过测试的高质量数据集上进行训练的,以防止出现偏差。

上一篇:打造医疗人工智能产业集聚区!温江这个项目预计12月交付 下一篇:高乐股份:公司前期的服务机器人研发项目已没有进一步开展