微软公布AI透明度报告:2023年推出30款负责任工具
微软发布负责任的人工智能透明度报告:加强内容审核与安全风险管理
近日,微软公布了其2023年负责任的人工智能透明度报告。报告显示,微软在安全部署人工智能产品方面取得了显著成果,积极履行在2023年7月签署的自愿协议,每年定期公布人工智能透明度报告,以确保人工智能的健康、安全发展。
报告中提到,微软已创建了30个负责任的人工智能工具,进一步扩充了负责任的人工智能团队。同时,微软要求开发生成式人工智能应用的团队在开发周期中持续衡量和绘制风险。此外,微软还在其图像生成平台上增加了内容凭证功能,通过添加水印为人工智能生成的图片打上标注,以提高用户对内容真实性的判断。
微软表示,Azure AI客户可以利用相关工具检测到涉及仇恨言论、性内容和自残等问题的内容。同时,微软也在加强其安全性管理,例如通过引入红队(渗透测试团队)来评估安全风险,包括故意尝试绕过其人工智能模型中的安全功能。
总之,微软正努力打造负责任的人工智能系统,通过不断改进和完善相关技术和工具,确保人工智能的安全和合规性。