很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于谷歌公布TensorFlow隐私测试模块的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对谷歌公布TensorFlow隐私测试模块这篇文章感兴趣的小伙伴可以一起来看看
谷歌本周公布了一个工具集附件,同意 开辟人员使用机器学习模型更好地操纵私有数据的泄漏。
TensorFlow隐私模块采纳了一种更新的方法来测试海量数据集中的漏洞,该数据集中包含用于医疗,面部识别和监视等目的的信息。
Google于一年前建立了TensorFlow隐私库,以帮助开辟人员在机器学习项目中实现更高的准确性,同时降低伤害数据库中所包含主题的个人数据的风险。谷歌当时表示:“现代机器学习正越来越多地用于创建令人惊叹的新技术和用户体验,其中许多涉及培训机器,以负责任地从敏感数据(例如个人照片或电子邮件)中学习。我们打算将TensorFlow Privacy开辟为同类最佳的技术中心,用于训练具有强大隐私保护功能的机器学习模型。”
在2019年公布时,TensorFlow Privacy依靠一种称为差异隐私的概念,在该概念中,数据集内的组模式在公共范围内共享,而屏蔽了构成数据集的个人的链接。在深度学习应用程序中,开辟人员通常旨在对通用模式进行编码,而不是帮助识别参与者并威胁匿名的特定细节。
实现此目的的一种方法是引入有限的“噪声”,以帮助保护用户的身份。然而,这种噪声具有降低精度的风险。
Google在本周宣布的TensorFlow模块中采纳了一种新方法。TensorFlow Privacy应用名为“成员判断攻击”的测试,可以建立一个分数,揭示模型对泄露信息的脆弱程度。
谷歌在其TensorFlow博客上表示:“具有成本效益的成员判断攻击可以预测在培训期间是否使用了特定的数据。”“如果攻击者能够进行高精度的预测,那么他们很可能会成功地弄清晰训练集中是否使用了数据。成员判断攻击的最大优点是易于执行且不会需要任何再培训。”
谷歌说:“这些测试最终可以帮助开辟者社区确定更多结合了隐私设计原则和数据处理选择的架构。”
Google认为这是“茁壮的隐私测试套件”的起点,由于其易用性,各种技能水平的机器学习开辟人员都可以使用它。
随着越来越多的机构依赖于需要大量数据的机器学习项目,对隐私的关注也越来越高。去年,由于在出版之前未征得受试者的许可,微软被迫从其全球分布的MS Celeb面部识别培训计划中删除了超过1000万张图像。越来越多的人担心胸部X光片可能会暴露个人信息,因此Google匆匆放弃了与Ascension的健康数据共享项目。
苹果和谷歌对环绕数以百万计的AI代理(例如Siri和Google Assistant)的用户使用弱保护隐私的行为提出了批判,据报道,人们在未经授权的情况下存储和访问了来自人手机及其房屋的录音。