很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于Google新工具教AI处理结构化和对抗性数据的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对Google新工具教AI处理结构化和对抗性数据这篇文章感兴趣的小伙伴可以一起来看看
Google LLC今天开放了神经结构化学习的源代码,这是其流行的TensorFlow人工智能开辟工具包的框架,开辟人员可以使用它来训练具有结构化和“对抗性”数据的模型。
AI模型用来处理的大多数文件,例如视频和图像,在技术上都是非结构化数据。但是其他类型的文件仍然在机器学习项目中占有一席之地。以图形形式组织的结构化信息 有助于培训新建的AI模型如何有效识别模式。
Google工程师Da-Cheng Juan和Sujith Ravi 今天在博客文章《神经结构化学习》中解释说:“在训练过程中利用结构化信号可使开辟人员获得更高的模型准确性,尤其是在标记数据量相对较小的情况下。”
除了作为一种实用的训练方法外,处理结构化数据对于某些类型的机器学习软件而言也是一项必不可少的任务。科学家在基因组学和分子研究中使用的AI模型通常将结构化图数据作为输入。某些类型的自然语言处理算法也是如此。
神经结构化学习使开辟人员只需几行代码即可将结构化数据合并到项目中。他们只需要准备好AI模型,提供培训记录并指定应根据其组织记录的结构即可。
该框架还同意 开辟人员指定“隐式”结构来创建所谓的对抗性示例。对抗性示例是恶意文件,例如带有可控制像素的照片,这些文件看起来与人类没有什么不同,但会触发AI并破坏处理结果。在开辟过程中将这样的记录扔到机器学习模型上可以教该软件如何抵御攻击。
Google的Da-Cheng Juan和Sujith Ravi写道:“从经验上讲,在没有恶意示例的情况下训练出的模型,在输入中添加了恶意的却不是人类可察觉的扰动时,准确性会遭受严峻损失(例如降低30%)。” 结果,神经结构化学习对于从事敏感或面向公众的服务的AI团队可能特殊方便,这些AI必须解决控制尝试的可能性。