欧盟开发、运用生成式人工智能系统中的数据保护体系概览
在生成式人工智能系统开发、运用过程中,对于数据的处理主要集中在准备阶段、训练阶段和输出阶段,包括输入、存储、运算、输出等不同程序。这些程序对于数据的处理都存在风险,具体表现在以下方面:
第一,数据收集方面,存在侵权的风险。生成式人工智能系统是利用算法、模型和规则,从大规模数据中集中学习,以创造新内容的人工智能技术,其开发、训练都需要大量数据做支撑。
第三,数据运算方面,存在算法歧视的风险。生成式人工智能系统的开发遵循以下路径,即开发者首先需要选取样本数据,在对样本数据进行标注分类的基础上,利用评分结果训练反馈模型,最终形成生成式人工智能系统模型。
第一,数据保护原则包括数据最小化原则、准确性原则和透明性原则。
第二,数据保护基本实现了从输入端到输出端的全过程保护与监管。
生成式人工智能开发前期,开发者必须保障信息搜集的合法性和信息存储的安全性。
生成式人工智能系统开发过程中,开发者需要保障训练数据的恰当性。
一方面,开发者需要准确标注数据。开发者需要审查数据标注可能存在的偏差,尤其关注可能影响个人健康、安全、基本权利和欧盟法律禁止的歧视等方面的数据偏差。
市场准入方面,欧盟将人工智能划分最低风险、低风险、高风险、不可接受风险等四个等级,明确不同等级人工智能系统市场准入规制,以保障数据安全。
欧盟通过一系列法案和指南规范,为生成式人工智能系统开发、运用过程中的数据保护形成了全方位、多层次、重实效的数据安全体系,为数据保护提供了依据。 (作者单位:中南财经政法大学法学院)
2024年10月15日
ꁖ0
- 2021-12-22
- 2021-06-26
- 2020-01-30
- 2020-02-25
- 2020-03-22
- 2021-07-28
- 2020-04-07
- 2020-01-02
- 2019-12-29
- 2021-09-30