![](https://img-blog.csdnimg.cn/20190918140213434.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
机器学习文献翻译文章
文章平均质量分 94
机器学习文献翻译文章
白菜苗
菜菜
展开
-
【全文翻译】Composite Adversarial Attacks
Abstract对抗性攻击是一种欺骗机器学习模型的技术,它提供了一种评估对抗性鲁棒性的方法。在实践中,攻击算法是由人类专家人工选择和调整的,以破坏ML系统。然而,手动选择攻击者往往是次优的,导致对模型安全性的错误评估。本文提出了一种新的过程,称为复合对抗攻击(CAA),用于从32个基本攻击者的候选池中自动搜索攻击算法及其超参数的最佳组合。我们设计了一个搜索空间,将攻击策略表示为一个攻击序列,即前一个攻击者的输出作为后继攻击者的初始化输入。采用多目标NSGA-II遗传算法,以最小的复杂度寻找最强的攻击策略。原创 2021-07-09 22:33:37 · 1164 阅读 · 5 评论 -
【全文翻译】REMIXMATCH: SEMI-SUPERVISED LEARNING WITH DISTRIBUTION ALIGNMENT AND AUGMENTATION ANCHORING
REMIXMATCH:具有分布对齐和增广锚定的半监督学习ABSTRACT1 INTRODUCTION2 BACKGROUND(背景)2.1 MIXMATCHABSTRACT我们改进了最近提出的“MixMatch”半监督学习算法,引入了两种新的技术:分布对齐和增强锚定。分布对齐鼓励对未标记数据的预测的边际分布接近真实标签的边际分布。增强锚定将输入的多个强增强版本输入到模型中,并鼓励每个输出都接近相同输入的弱增强版本的预测。为了产生强增强,我们提出AutoAugment的一个变体,它在模型被训练时学习增强策原创 2021-06-18 14:33:49 · 1327 阅读 · 4 评论 -
【全文翻译】MixMatch: A Holistic Approach to Semi-Supervised Learning
MixMatch:半监督学习的整体方法Abstract1 Introduction2 Related WorkAbstract半监督学习已被证明是一个强大的范例,利用未标记的数据,以减轻对大型标记数据集的依赖。在这项工作中,我们统一了目前半监督学习的主流方法,提出了一种新的算法MixMatch,该算法为数据增强的未标记样本猜测低熵标签,并使用MixUp混合标记和未标记的数据。MixMatch通过大量的数据集和标记的数据量获得最先进的结果。例如,在具有250个标签的CIFAR-10上,我们将错误率降低了4原创 2021-06-09 15:12:17 · 1026 阅读 · 0 评论 -
【全文翻译】DIVIDEMIX: LEARNING WITH NOISY LABELS AS SEMI-SUPERVISED LEARNING
DIVIDEMIX:带噪声标签的半监督学习ABSTRACT深度神经网络是众所周知的注释饥渴。在使用深度网络进行学习时,许多人致力于降低注释成本。两个突出的方向包括带噪标签的学习和利用未标记数据的半监督学习。在这项工作中,我们提出了DivideMix,这是一个利用半监督学习技术进行带噪标签学习的新框架。特别地,DivideMix使用混合模型对每个样本的损失分布进行建模,将训练数据动态划分为干净样本的标记集和噪声样本的非标记集,并以半监督的方式对标记和非标记数据进行训练。为了避免确认偏差,我们同时训练两个分原创 2021-06-05 15:30:55 · 1544 阅读 · 0 评论 -
【全文翻译】Boosting Adversarial Attacks with Momentum
深度神经网络容易受到对抗性样本的攻击,由于潜在的严重后果,这对这些算法带来了安全问题。在部署深度学习模型之前,对抗性策略可以作为一个重要的替代工具来评估深度学习模型的可行性。然而,现有的大多数对抗性攻击只能愚弄一个成功率较低的黑盒模型。为了解决这个问题,我们提出了一大类基于动量的迭代算法来增强对抗性攻击。通过在迭代过程中引入动量项,我们的方法可以在迭代过程中稳定更新方向,避免局部极值,从而产生更多可转移的对抗性例子。为了进一步提高黑箱攻击的成功率,我们将动量迭代算法应用到一个模型集合中,并原创 2021-04-19 14:38:26 · 1112 阅读 · 0 评论 -
【全文翻译】Machine Learning with Membership Privacy using Adversarial Regularization
摘要--机器学习模型会泄露训练它们的数据集的信息。对手可以构建一个算法来跟踪模型训练数据集的各个成员。作为一种基本的推理攻击,他旨在区分作为模型训练集一部分的数据点和来自同一分布的任何其他数据点。这就是所谓的跟踪(也是成员推理)攻击。在本文中,我们主要研究针对黑盒模型的攻击,其中对手只能观察模型的输出,而不能观察模型的参数。这是机器学习作为互联网服务的当前设置。我们引入了一种隐私机制来训练机器学习模型,该模型能够实现成员隐私:模型对其训练数据的预测与对来自同一分布的其他数据点的预测无法区分。我们设计了一原创 2020-12-13 16:41:16 · 825 阅读 · 4 评论 -
【全文翻译】ML-Leaks: Model and Data Independent Membership Inference Attacks and Defenses on Machine.....
摘要--机器学习(ML)已成为许多实际应用的核心组成部分,而训练数据是推动当前进展的关键因素。这一巨大的成功促使互联网公司部署机器学习即服务(MLaaS)。最近,第一次成员推理攻击表明,在这种MLaaS设置中提取训练集上的信息是可能的,这具有严重的安全性和隐私性。然而,这种攻击的可行性的早期证明对对手有许多假设,例如使用多个所谓的影子模型、了解目标模型结构、拥有与目标模型训练数据相同分布的数据集。我们放宽了所有这些关键假设,从而表明此类攻击以较低的成本非常广泛地适用,因此构成了比先前认为的更严重的风险。原创 2020-12-06 16:22:53 · 1116 阅读 · 1 评论 -
【全文翻译】Membership Inference Attacks Against Machine Learning Models
摘要—我们定量研究了机器学习模型如何泄漏有关对其进行训练的单个数据记录的信息。 我们专注于基本的成员推理攻击:给定数据记录和对模型的黑匣子访问,确定记录是否在模型的训练数据集中。 为了针对目标模型执行成员推理,我们在对抗中使用了机器学习,并训练了自己的推理模型,以识别目标模型在训练后的输入与未训练在输入上的预测之间的差异。我们对由商业“机器学习即服务”提供商(例如Google和Amazon)训练的分类模型进行经验评估,以评估我们的推理技术。 使用现实的数据集和分类任务,包括其出入会受到隐私角度影响的医院原创 2020-12-03 14:46:50 · 5457 阅读 · 19 评论 -
【全文翻译】EXPLAINABLE ARTIFICIAL INTELLIGENCE: UNDERSTANDING, VISUALIZING AND INTERPRETING DEEP LEARNING
随着大型数据库的可用性以及深度学习方法的最新改进,在越来越多的复杂任务上,人工智能系统的性能已经达到甚至超过了人类的水平。 这种发展的令人印象深刻的例子可以在诸如图像分类,情感分析,语音理解或战略游戏等领域中找到。 但是,由于它们嵌套的非线性结构,这些非常成功的机器学习和人工智能模型通常以黑匣子的方式应用,即,没有提供有关使它们准确达到其预测的信息。 由于缺乏透明度可能是主要的缺点,例如在医学应用中,用于可视化,解释和解释深度学习模型的方法的开发最近引起了越来越多的关注。 本文概述了该领域的最新发展,并呼吁原创 2020-11-25 17:01:21 · 1502 阅读 · 2 评论 -
【全文翻译】ImageNet Classifification with Deep Convolutional Neural Networks
摘要--我们训练了一个大型的深度卷积神经网络,将ImageNet LSVRC-2010竞赛中的120万张高分辨率图像分类为1000种不同的类别。 在测试数据上,我们实现了前1个和前5个错误率分别为37.5%和17.0%,这比以前的最新技术要好得多。 该神经网络具有6000万个参数和65万个神经元,它由五个卷积层组成,其中一些跟在最大卷积层之后,还有三个完全连接的层,最后是1000路softmax。 为了使训练更快,我们使用了非饱和神经元和卷积运算的非常高效的GPU实现。 为了减少全连接层的过度拟合,我们采用原创 2020-11-15 20:13:27 · 1143 阅读 · 0 评论 -
【全文翻译】Edge Intelligence: Paving the Last Mile of Artificial Intelligence With Edge Computing
摘要随着深度学习的突破,近年来见证了人工智慧(AI)应用程序和服务的蓬勃发展,从个人助理到推荐系统再到视频/音频监视者。 最近,随着移动计算和物联网(IoT)的普及,数十亿个移动和IoT设备连接到Internet,从而在网络边缘生成了数十亿字节的数据。 在这种趋势的推动下,迫切需要将AI前沿推向网络边缘,以充分释放边缘大数据的潜力。 为了满足这种需求,边缘计算是一种新兴的范例,它将计算任务和服务从网络核心推向网络边缘,已被广泛认为是一种有前途的解决方案。 由此产生的新的交叉学科,边缘人工智能或边缘智能(E原创 2020-11-09 12:57:50 · 2299 阅读 · 2 评论 -
【全文翻译】Can You Really Backdoor Federated Learning?
联邦学习的分散性质使检测和防御对抗攻击成为一项艰巨的任务。 本文重点介绍了联邦学习环境中的后门攻击,在这种情况下,对手的目标是降低模型在目标任务上的性能,同时在主要任务上保持良好的性能。与现有作品不同,我们允许非恶意客户从目标任务中正确标记样品。 我们对EMNIST数据集(真实的,用户分区的和非idid数据集)的后门攻击和防御进行了全面研究。 我们观察到,在没有防御的情况下,攻击的执行很大程度上取决于现有对手的比例和目标任务的“复杂性”。 此外,我们证明了规范限制和“弱”的差异性隐私可以减轻攻击而不会损害整原创 2020-10-22 20:16:37 · 1581 阅读 · 0 评论 -
【全文翻译】Preserving Data Privacy via Federated Learning: Challenges and Solutions
数据一直是各种规模企业的主要优先事项。 随着数据本身随着技术的发展而激增,企业倾向于增强其在数据上下文中的能力并从中汲取新的见解。 联合学习是保护隐私的机器学习技术的一种特殊形式,可以将数据关联起来。 这是一种分散式培训方法,用于私下收集和培训位于不同地理位置的移动设备提供的数据。 此外,用户可以从获得训练有素的机器学习模型中受益,而无需将其隐私敏感的个人数据发送到云中。 本文重点介绍与通过联合学习保护数据隐私相关的最重大挑战。 讨论了有价值的攻击机制,并针对相应的攻击突出了相关的解决方案。 此外,还讨论了原创 2020-10-16 13:53:53 · 889 阅读 · 2 评论 -
【全文翻译】How to Backdoor Federated Learning
【英文全文翻译】How to Backdoor Federated Learning补充:本文是基于翻译的文章,文中有些字符由于时间关系,就没怎么改了,大家参照自己的论文公式即可,嘿嘿。摘要:抽象的联合学习使成千上万的参与者能够构建一个深度学习模型,而无需分享他们的相互提供私人培训数据。例如,多个智能手机可以联合训练键盘的下一个单词预测器,而不必透露每个用户的类型。我们证明,联合学习的任何参与者都可以引入在联合全球模型中隐藏后门功能,例如确保图像分类器将攻击者选择的标签分配给具有特定功能的图像,或单词原创 2020-10-14 17:08:23 · 1282 阅读 · 7 评论