轮盘宝典点击下图进入官网:
轮盘宝典点击下图进入活动:
轮盘宝典点击下图进入领取彩金:
武松娱乐平台|http://wsylptcwpo.weebly.com
威尼斯人娱乐网|http://wnsrylwlanb.weebly.com
太子娱乐|http://tzylfkua.weebly.com
乐虎国际|http://lhgjwhje.weebly.com
http://xbylwzgfwzedoo.weebly.com
http://uedbethtfgfwzdwmx.weebly.com
http://jwzzylchpgfwzgvqc.weebly.com
http://amxpjylcgfwzuwqr.weebly.com
http://zqxjwlyxhstn.weebly.com
http://hgzqtzkhiqev.weebly.com
http://ptyxzcscjtzyx.weebly.com
http://iwrvalvjxofhk.weebly.com
根据雷锋网络:最近,OpenAI发表的最新研究,论述了人工智能领域的一个大问题安全:“样品”,它很容易使机器学习系统产生,它将影响人工智能的应用实践。在这篇文章中,“甘斯之父”伊恩·格拉汉姆·古德费勒为首的写文章,OpenAI计数器样本的防御策略的实验中,有两种方法效果是显著的,但不能解决根本问题。OpenAI说,自适应设计抵抗强大的攻击的防御策略,是一个非常重要的研究领域。本文的原始OpenAI博客,雷锋编制的网络。
“计数器样本”是攻击者故意设计,用于输入到机器学习模型,模型误差值,它就像一个机器视觉幻觉。在本文中,我们将展示如何通过不同的媒体“计数器样本”工作,并将讨论为什么安全防御很难“计数器样本”。
OpenAI,我们相信“计数器样本”是一个非常好的安全问题,因为它代表了人工智能领域的一个特定的安全问题,我们可以关注和解决在短期内,和足够的困难问题,需要做一些重要的工作(尽管我们需要探索机器学习的许多方面安全,为了实现我们的目标构建安全、广泛应用的AI)。
本文解释和利用对手的例子是一个例子:这是一只熊猫的照片,攻击者加入一个小信号来计算,导致系统被误认为是长臂猿的照片。
覆盖一个计数器输入值,一个典型的图像,分类器将是一个“熊猫”错误地归类为“长臂猿”
这种方法非常有效,最近的一项研究(论文“敌对的例子在现实世界”),根据“计数器样本与标准”纸打印出来,然后由普通照相手机的图片,还可以影响到系统。
“反对示例可以在普通纸张印刷,与标准分辨率智能手机摄影,还可以导致分类器错误。在上面的示例中,系统故障“洗衣机”标签的“安全”。
“样本”很可能成为危险。例如,攻击者可以使用贴纸或一幅画做了一个“停止”签署“计数器样本”,为了袭击汽车,汽车会让原本“停止”标志的错误理解“通行权”或其他迹象,像纸“实用黑框攻击深学习系统使用敌对的例子”的讨论。
加强学习聪明的身体还可以“计数器样本”操作,根据加州大学伯克利分校,OpenAI和宾夕法尼亚大学最近的一项研究(论文“敌对攻击神经网络政策”),和内华达大学(纸“深强化学习政策的漏洞感应攻击”),根据广泛用于提高学习算法的研究,如DQN TRPO A3C,非常脆弱的“反样本”。甚至难以观察细微的人类干扰因素,也会导致系统性能。如引发剂的乒乓球应该上升而不是下降,或干扰敌人的锁定能力。
如果你想做一个溃败的模型实验中,可以使用cleverhans,它是一个由伊恩·格拉汉姆·古德费勒和尼古拉斯Papernot联合开发的开源库,它可以用来测试你的模型在面对“计数器样本”的弱点。
当我们想到AI安全问题,往往总是思考最困难的问题:如何确保成熟的增强剂可以根据设计者的意图,甚至比人类更聪明?
“现代算法对样本显示,即使是简单的,监督学习和提高学习,它没有设计师的愿望,并以令人惊讶的方式。
让机器学习模型是更稳定的传统技术,如体重衰变(重量衰变)和辍学,通常不会引起实际国防“计数器样本”。到目前为止,只有两个方法有明显的防御效果。
这是一个暴力的解决方案,我们生成自己的许多“计数器样本”,然后用这些样本来训练我们的模型,让它不再是一个傻瓜。Cleverhans图书馆公开对抗训练机制,(https://github。Com/openai/cleverhans/blob/master/tutorials/mnist_tutorial_tf。Md)使用,舍入。
这个策略,是使培训模型输出分类概率,而不是直接输出的类别。早期模型和培训提供的概率是相同的任务,使用硬分类标签。这个方法创建方向平滑模型,攻击者很难找到“计数器样本的关键点。(“净化”来自蒸馏在神经网络的知识,本文为了节省计算,“净化”模型的压缩方法,训练小模型来模拟大型模型)。
然而,如果攻击者获得更多的计算能力,即使是特定的算法,也可以很容易克服。
“隐藏”梯度未能抵制的方法,让我们思考,怎样一种简单的方式来抵制失败。
术语“隐藏”梯度首次出现在“实用、黑-框攻击深度学习系统使用敌对的例子”,用来描述类型的失败辩护,这种方法拒绝攻击者变成一个有用的梯度。
大多数的“反样本”使用梯度模型构建技术攻击。例如,他们看着一架飞机的照片,重复测试图像空间的哪一个方向,可以增加“猫”的概率,然后他们将“推动这个方向(换句话说,他们扰乱输入值)。这新形象将被修改错误标识为“猫”。
但是没有梯度的照片——如果一个微小的变化对模型输出不造成任何影响?似乎一些防御,因为在这种情况下,攻击者可以知道哪个方向应在“推”的照片。
我们可以很容易地把一些小方法来摆脱梯度。例如,大多数的图像分类模型基于两种模式:一是直接输出“最可能的类别”;。另一种模式下,输出是“概率”。如果模型的输出是99。飞机,0 9%。1%的猫”,然后输入值的微小的变化,也将是一个小影响产出的价值。
但是如果我们直接应用到模型的第一操作模式,直接输出“飞机”,然后输入值的微小变化,会不会影响最终的输出的结果,和梯度不会透露任何信息。如果我们用“最可能的类别”模式,而不是“概率”的模式,让我们想想,这种方法来抵抗性能的“样本”。在“最可能的类别”模式中,攻击者不知道去哪里看可分为“猫”输入值,所以我们可以有一些防卫力量。不幸的是,在每个图片之前,被归类为“猫”仍是归类为“猫”。然而,如果攻击者可以猜出防守弱点,从而使计数器样本”,那么这张照片仍然会被误诊。
目前我们并没有使模型更稳定,我们让攻击者找出模型导致的弱点防御变化小。更不幸的是,攻击者可以有一个很好的策略,猜防守的弱点。攻击者可以训练一个模型,一个梯度平滑模型,使“计数器样本”,那么“计数器样本”防御的平滑模型。但是我们的防御模型,往往对这些“计数器样本”错误进行分类。
最后,结果揭示了思维,隐藏梯度不能解决这个问题。执行梯度隐藏的防御策略,可能会导致在一个特定的方向和培训非常平滑模型,这可能会让攻击者更难找到梯度建议模型的弱点。
然而,攻击者可以训练另一个模型:攻击者将建立一个副本的一个防御模型,方法是观察防御模型输入值,并小心选择输入的值。这样一个模型来提取攻击(模型提取攻击)的过程,在黑盒攻击最早介绍。攻击者可以使用替代模型的梯度,找到“计数器样本”,为了使错误防御模型。上面的“安全和隐私的科学机器学习“隐藏发现本文梯度,这个例子中,我们将这种攻击策略作为一维机器学习问题。
梯度现象的脸隐藏在更高的维度,将变得更加严重,但更难以描述它们。我们发现培训和防御净化将创建一个梯度隐藏的偶然。这两个算法显然不是专门设计用于执行梯度隐藏,但是当机器学习算法训练来保护自己,而不是给出具体的指导方法,梯度显然是隐藏算法本身是相对容易生成一个防御方法。如果“计数器样本模型”转移到第二个模型,即使第二个模型与净化训练对培训或防御,攻击倾向于胜利,尽管“计数器样本”直接攻击第二个模型将会失败。
这表明这两个培训和防御净化技术可以使模型更加平坦,梯度,并不能保证做出更正确的分类。“计数器样本”,因为它是难以抗拒,很难“计数器样本”的制作过程来构建一个理论模型“样本”是很多机器学习模型的非线性和非凸优化问题的解决方案,包括。神经网络。
因为我们没有好的理论工具来描述复杂的优化问题,很难有理论参数表明,一定的防御方法可以防止“计数器样本”的系列。“计数器样本”难以抗拒,但也因为他们需要机器学习模型为每个可能的输入值产生良好的输出。
在大多数情况下,以满足所有可能的输入值,机器学习模型能更好地只有少量的运行。到目前为止,我们测试每一个防御策略失败,因为战略不适应:一个策略可以承受攻击,但熟悉其攻击者暴露了弱点。
设计、自适应抵抗强大的攻击者的防御战略,是一个非常重要的研究领域。“反对样本显示,许多现代机器学习算法可以被打败,出人意料的方式。这些机器学习的失败证明,即使是一个简单的算法,也会与它的设计者的意图。机器学习的研究人员参与和鼓励的方式停止“计数器样本”,之间的桥梁设计者意图和算法运行。
如果你有兴趣的工作”“计数器样本,可以考虑加入我们的OpenAI更多的雷锋网(公众号:雷锋网)
相关文章:
深度卷积网络漏洞的例子:腾讯AI“奇妙”是人类玩家最近发现一个有趣的缺陷
谷歌AI问你合奏钢琴作品。雷锋网络版权,禁止擅自复制看到。