制定规章制度,保护人工智能产业。

数据显示,到2025年,我国人工智能企业数量预计将超过6000家,基础产业规模将超过1.2万亿元。目前,人工智能应用覆盖钢铁、有色、能源、通信等主要行业,并逐步渗透到产品研发、质量检测、客户服务等重要环节。人工智能作为引领新一轮科技革命的技术,正在显着重塑经济形态和社会治理模式。加快构建相适应的法律体系,是确保经济稳定长远发展的重要手段。从全球角度来看,思考人工智能治理的方式有很多不同。欧盟批准的《人工智能法》建立了基于风险分类的监管模式,建立了四级监管体系:禁止、高风险、有限风险和最低风险类别。美国采取了创新导向的监管策略。人工智能行政命令的重点是通过标准化和行业自律促进创新。我国治理路径的特点体现在“发展与安全并重、创新与监管合力”的理念上。创新研究数据权利的分配和使用机制,既保证了数据安全,又畅通了数据项的市场周期,为全球人工智能治理提供有益的参考资料。而且我们必须清醒地认识到,我国人工智能的法律框架还面临诸多挑战。在立法层面,尚无专门立法,网络安全法、数据安全法与其他法律之间尚无协调和支持完全的。在监管实施中,仍存在部门职责不清、重复建设、标准不一致等问题,算法透明要求与商业秘密保护之间的关系有待更好平衡。在技​​术治理层面,数据质量参差不齐、算法去偏困难、责任界定模糊等问题亟待解决。此外,知识产权保护和跨境数据流动等领域的监管滞后仍然存在。结合“十五五”规划,多角度落实政治伦理,发展人工智能产业。我们需要建立法规和制度来保护它们。在立法过程中,构建以分级分类监管体系为核心、技术标准体系为辅助的监管体系。在监管创新方面,我们将建立信用监管体系。建立行业协同监管平台,统一执法标准,在自动驾驶等具体领域引入“监管沙盒”机制,打造创新试验区,在促进创新的同时确保安全。在数据治理方面,通过克服产权界定问题,可以构建包括数据所有权、处理使用权、数据产品经营权的综合体系。建立覆盖数据采集、使用、处置全生命周期的管理机制。特别是,我们为训练数据质量评估和数据标注规范建立了统一的标准。在算法责任方面,建立覆盖整个设计、开发和实施过程的问责机制,并建立强制性评估要求,特别是在高风险领域。引入算法影响评估系统,需要开发要求用户在引入系统前进行公平性、透明度和安全性评估,并赋予用户寻求解释和提出异议的权利。此外,必须加强企业责任,将道德审查纳入研发过程,并鼓励成立算法治理委员会。引导行业协会制定行业指南试验和高水平技术规范,建立人工智能伦理认证体系。为了确保公共技术的整个发展符合公共利益,我们利用公众参与机制,通过听证会、专家评审、舆情调查等方式凝聚社会共识。我们将积极参与全球规则制定,推动建立公平、包容、可持续的全球人工智能治理秩序。 (本文来源:经济日报 作者:朱宝丽)
(编辑:吴晓娟)

推荐文章

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注