2026年1月1日,修订后的《中华人民共和国网络安全法》(以下简称《网络安全法》)。这部法律有极具象征意义的变化,包括增加了促进人工智能发展的相关条款。这是日本首次在法律层面制定促进人工智能发展的专门规定。这一举措不仅是一个热门新词,而且将人工智能治理从部门监管或专项监管层面“提升”为基础法律框架。 1.成为法律的IA第一条款写了什么?目前,我国并没有像欧盟那样有统一的法律来规范人工智能。相反,它将使人工智能处于更可持续的法律地位。人工智能不仅是新生产力的强大驱动力,也是治理安全必须纳入的对象。我国大体走的是这条路。基本法明确原则责任和限制、行业法规/特殊法规涵盖特定的应用场景,技术标准和规范提供操作起点。虽然修订后的网络安全法还不是人工智能领域的基础法,但其新规定体现了我国人工智能治理的基本思路。国家将支持人工智能基础理论、算法等关键技术研发,推动数据资源、算力训练等基础设施建设,完善人工智能伦理道德,加强监测、风险评估和安全监管,促进人工智能健康应用和发展。虽然这几个字不多,但可以理解为强调发展和治理的框架性规定。其内在逻辑大致是“能力发展”供给侧的边界设置→风险侧的闭环治理→应用侧的扩散实施。”该法首先通过“支持基础理论研究和关键技术研发”为源头创新指明方向,然后通过“促进训练数据资源、算力等基础设施建设”将创新从实验室引向产业化所需的要素和基础,完成支撑算法体系、算力和数据的人工智能“铁三角”。法律条文进而成为转向规范和治理,通过“提高道德标准”比例提高价值极限和社会接受度,然后通过“加强风险监测评估和安全监管”构建可行的闭环治理,最后通过“促进”关注产业扩散和长期可持续性。上述法律之所以具有基础性作用,是因为它为未来多部门监管、标准体系、评估机制、产业政策和执法自由裁量权建立了共同的坐标系,采用四步公式:要素(算法、算力、数据)——规则(道德)——机制(监测评估/监督)——目标(实施/健康发展)。细节可以重复,技术可以更新,但支撑政策和预期连续性的制度框架是市场2.我国的法律体系如何规范人工智能?虽然这是第一次明确将人工智能纳入法律,但很多情况下并没有必要在法律文本中明确纳入“人工智能”一词,因为法律真正关心的不是采用什么技术路线,而是如何收集数据、如何计算数据。计算后对个人权利和市场秩序的影响。因此,“个人信息处理”、“自动决策”、“分析”、“个性化助推”等概念更常用来实现对人工智能的实质性监管。第一级:数据的合法性和最低需求。回答“数据从哪里来以及如何使用?”的问题。以《民法典》、《个人数据保护法》、《安全法》、《电子商务法》等为代表的一系列法律首先明确了数据如何获取、如何处理、留下哪些痕迹以及出现问题的责任方。数据收集和使用必须有明确的目的、合理的限度和必要性。必须对机密信息、敏感数据和高风险处理活动进行更严格的监控和评估。整个过程特别注重安全和风险管理,防止数据外泄培训、共享和传输过程中的控制。也就是说,首先要确立原材料的合法性和可控性。第二级Le:自动化决策中的透明度、公平性、否认性和可解释性。回答“算法如何得出结论?”的问题相关法律的重点则从“数据录入”转向“决策过程”、“决策”。主要要求可以用四句话来概括。算法/模型的决策不应完全是黑箱。结果必须公平,必须避免歧视性待遇。个人应该有退出的选择。当个人权益受到重大影响时,个人应该能够获得必要的赔偿。这一层的本质是人工智能不仅需要既要“计算准确”,又要“计算合理”,使“可解释、可选择、可修正”成为公司的产品特色。必须通过设计来实现目标,而不是道德上的努力。第三级:个性化建议和差异化治疗必须具有可比性和可退出性,并且必须回答“研究结果如何影响您的选择和您的钱包?”在平台、电商、信息分发场景中,人工智能最明显的外在表现形式就是推荐、排名和定价。相关法律的总体逻辑是允许定制,但不能成为“唯一选择”。我们不能让算法成为歧视性待遇的遮羞布。必须向用户提供等效机制,以便他们可以查看另一个“非自定义”结果或路线。这一层的价值在于将算法的影响力从“不可见的背景变量”转向“用户可感知的初始选择”,削弱信息不对称带来的不公平优势。这种监管方式的优点是,无论技术如何变化,法律仍然聚焦分析→决策→对个人权利和市场秩序的影响的结构性风险。换句话说,人工智能已经千百次地改变了它的面貌,只要法律法规知道谁拿走了你的信息,统计了它,以及他们告诉后如何处理它,就没有办法逃脱。 3、这部法律将如何促进人工智能新生产力的发展?企业界一个常见的误解是,合规性被视为“成本要素”。但在人工智能时代,合规性就像汽车的底盘。合规性并不能直接决定你开多快,但它确实决定你是否能上路,是否敢于加大马力,发生事故时是否有安全气囊。换句话说,这个规律为新生产力的发展提供了必要的“稳定预期”。修订后的《网络安全法》将人工智能纳入基本法律支撑和治理框架,覆盖相关领域数据、算法、自动化决策等方面的法律等系统性规定,并至少在四个方面提供“促进发展”的好处,值得我国人工智能企业认真考虑。 1、将“不可用的数据”转化为“已证明可用的数据”,降低要素配置的交易成本。在作者研究人工智能公司时,一位企业家表示:“清晰的数据合规线始终是悬在我们头上的一把利剑。”人工智能的第一生产要素是数据,但数据分配不是技术问题,而是权利和责任问题。该法律将“我如何敢使用数据”更改为“我如何使用数据以及如何证明我正在正确使用数据?”这促进了数据元素的大规模流动,为模型训练、行业知识库和智能应用提供源源不断的动力。企业更容易协商数据链接和“财务”身份实体化数据资产。 2、发力“隐私保护工程”,打造完整的AI合规技术与服务产业链。该法律对自动化决策、个性化驾驶、差异化待遇等提出了要求。企业要满足这些要求,仅仅“建一个系统”是不够的;他们必须设计它。因此,合规性为供应方带来了新的机遇。模型和算法治理工具成为标准技术,增强隐私和安全(PET)将变得更加普遍,合规咨询和第三方评估将变得更加工业化。这相当于将“合规要求”转化为“行业需求”,而行业需求反过来又会增加人工智能在整个社会的可靠性。这是新生产力的经典逻辑。规则不是刹车,它们让道路更顺畅。 3、变“黑匣子红利”为“可解释红利”:推动商业化从短期套利到长期复利交易的商业模型。在平台和消费场景中,人工智能最常见的收益来源通常是“信息不对称”。法律的相关规定实质上压缩了“黑箱审判空间”。这对行业产生的积极影响是鼓励企业将能力从“更好地对待”转向“更好地服务”。这也是推荐的算法。一些公司使用它来最大化点击率,而另一些公司则使用它来减少信息噪音并提高匹配质量。第一种在短期内有很大的好处,但很快就会失去你的信誉。另一方面,后者变化缓慢,但可能变得更糟。该法律将鼓励企业利用透明度、经验和品牌进行竞争,从而提高行业的平均质量标准,减少“劣币驱逐良币”的情况。 4.将“AI安全”融入对于网络安全系统来说:“安全功能”本身就是生产力。修订后的《网络安全法》提出运用人工智能提升网络安全防护水平。对于企业来说重要的是,人工智能不仅是业务增长工具,也是安全防护工具,并将逐渐成为“必要的合规功能”的一部分。这需要两个新的发展。一是让安全运营更加智慧,二是加快“可信人工智能”在重点行业的落地。随着法律框架和安全治理路径变得更加清晰,行业将更愿意投资、测试和规模化。换句话说,安全不仅仅是“防止损失”,而是“提高效率”。标准化安全功能以创建基于表单的平台可以提高生产系统的弹性和效率。换句话说,引入AI并不是提高技术,而是引入一个底盘。行业。对于公司来说,这不仅仅是“加强监督”的口号,而且是关于数据从何而来、如何将其输入模型、如何提出建议和价格以及如何解释数据的日益清晰的路线图。我们留下痕迹和评估风险的方式越来越可预测。而可预测性是投资、创新和大规模应用的先决条件。法律并不管辖公司标准,但它们确实决定了公司制定的标准是在软沙上建造帐篷还是在坚实的地基上建造摩天大楼。 (作者王翔为复旦大学数字移动治理实验室研究员)来源:王翔
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)已上传并发布受到网易号用户的称赞,网易号是一个仅提供信息存储服务的社交媒体平台。
参与每日大赛,获取最新暗黑爆发料,精彩内容不容错过!