欧盟正式发布《人工智能法案》 保障用户权益和数据安全
近日,欧盟正式发布了《人工智能法案》(Artificial Intelligence Act),旨在规范人工智能领域的发展,保护用户隐私和权益,提高数据安全性。该法案将于发布后20天,即当地时间8月1日生效,并在未来两年内逐步实施相关条款。
法案生效后的6个月,将对部分AI应用实施禁令。例如,禁止在收集和汇编人脸识别信息时用于数据库,以及在校园和工作场所使用实时情绪识别系统等。同时,对于开发AI的公司和团队,将实行“行为准则”。虽然欧盟计划与具有“系统性风险”的一般用途模型公司合作,但此举引发了业界的担忧,认为这些公司可能会制定限制自身行为的规则。
一年后,《人工智能法案》将要求OpenAI等公司遵守新的“透明度”要求,并采取措施证明其系统对用户安全且易解释。此外,对于利用深度伪造、生成式AI等技术产生的图像、视频等内容,应明确标记,以确保用户了解其来源。训练AI大模型的公司还需遵守《版权法》,除非其模型仅用于研究和开发,否则需经权利持有人授权方可进行文本和数据挖掘。
总之,《人工智能法案》的出台对于规范人工智能领域的发展具有重要意义。在未来两年内,欧盟将继续推进法案的落实,以更好地保护用户的合法权益和数据安全。