chaser&upper
西电CS硕士在读,热爱Coding,喜欢分享,欢迎您与我交流~
展开
-
一文搞定机器学习中的“模型可解释性”
机器学习是最近许多科技进步的核心。随着计算机在围棋等游戏中击败专业人士,许多人开始询问,机器是否也能成为更好的司机,甚至更好的医生。如果⼀个机器学习模型运⾏良好,为什么我们仅仅信任该模型⽽忽略为什么做出特定的决策呢?诸如分类准确性之类的单⼀指标⽆法完整地描述⼤多数实际任务。当涉及到预测模型时,需要作出权衡:**你是只想知道预测是什么?**例如,客户流失的概率或某种药物对病⼈的疗效。**还是想知道为什么做出这样的预测?**这种情况下可能为了可解释性付出预测性能下降的代价。原创 2024-04-25 17:14:17 · 25 阅读 · 0 评论 -
机器学习/深度学习模型可解释性研究
论文提出了原型的概念,把对图像的判断机制拆解为人类思维方式中的各种原子能力,根据人判断的机理来分类图像。一个真实的例子,有一个 Benchmark Corpus,叫做 PASCAL VOC 2007,裡面有各式各样的物件,机器要学习做影像的分类,机器看到这张图片,它知道是马的图片,但如果你画 Saliency Map 的话,发现左下角对马是最重要,因為左下角有一串英文,这个图库裡面马的图片很多都是来自於某一个网站,左下角都有一样的英文,所以机器看到左下角这一行英文就知道是马,根本不需要学习马是长什么样子。原创 2024-04-23 17:11:20 · 35 阅读 · 3 评论 -
【论文笔记】CADE_ Detecting and Explaining Concept Drift Samples for Security Applications
因此,我们的。原创 2024-04-17 15:46:46 · 116 阅读 · 2 评论 -
【论文笔记】Neurosymbolic AI for Reasoning over Knowledge Graphs_ A Survey
以便进行更直接的比较。最后,我们讨论这些方法的。原创 2024-04-08 14:32:03 · 42 阅读 · 0 评论 -
【论文笔记】FeCo_ Boosting Intrusion Detection Capability in IoT Networks via Contrastive Learning
(IoT)广泛地应用渗透到我们的日常生活中。:物联网设备缺乏足够的安全功能,使物联网生态系统容易受到各种网络入侵攻击,可能造成严重破坏。:已经探索了使用机器学习来构建异常检测模型来防御此类攻击。:提出了一个联邦对比学习框架FeCo,用于协调网络内物联网设备共同学习入侵检测模型。FeCo利用来减轻用户对隐私的担忧,因为参与的设备只提交它们的,而不是本地数据。我们开发了一种新的基于对比学习的方法,能够为良性类学习更准确的模型。与以往的工作相比,。原创 2024-04-07 10:31:43 · 44 阅读 · 1 评论 -
【DomiKnowS笔记】DomiKnowS_ A Library for Integration of Symbolic Domain Knowledge in Deep Learning
提高了模型的可解释性,提高了模型在低数据状态下的性能和泛化能力。介绍了几种。原创 2024-04-01 14:44:00 · 123 阅读 · 1 评论 -
【论文笔记】SoK_ Modeling Explainability in Security Monitoring for Trust, Privacy, and Interpretability
DomiKnowS: A Library for Integration of Symbolic Domain Knowledgein Deep Learning原创 2024-03-30 17:23:44 · 44 阅读 · 0 评论 -
【论文笔记】Semantic Loss: A New Neuro-Symbolic Approach for Context-Aware Human Activity Recognition
论文速递:Semantic Loss: A New Neuro-Symbolic Approach for Context-AwareHuman Activity Recognition原创 2024-03-25 14:50:32 · 188 阅读 · 0 评论 -
【论文笔记】POISONPROMPT_ BACKDOOR ATTACK ON PROMPT-BASED LARGE LANGUAGE MODELS
Prompts显着提高了预训练大型语言模型(LLM)在各种下游任务上的性能,使其对于各种 LLM 应用场景越来越不可或缺。进行了广泛的实验,评估了的有效性、保真度和鲁棒性。:我们的研究结果强调了对,并强调了在这一领域进一步研究的必要性。原创 2024-03-20 15:49:35 · 137 阅读 · 1 评论 -
【论文笔记】Can Knowledge Graphs Reduce Hallucinations in LLMs_ _ A Survey
LLM很容易产生幻觉,这主要源于模型中的知识差距。:通过整合外部知识来增强llm,旨在减少幻觉并提高推理准确性。原创 2024-03-20 15:48:45 · 45 阅读 · 0 评论 -
【论文笔记】“Alexa, Stop Spying on Me!”_ Speech Privacy Protection Against Voice Assistants
我们提出了MicShield,这是一种配套设备,它首次可以防止 VA 录制私人语音而不影响 VA 的正常功能。假设 VA 不可信,MicShield 会不断发出干扰信号以使 VA 震耳欲聋。与此同时,它会继续监听,并在感知到唤醒词出现时立即停止干扰。MicShield 离线工作,保留所有本地处理并立即粉碎语音数据。因此,它不会受到始终监听、云操作的虚拟助理带来的隐私风险的影响。存在问题挑战首先,连续干扰的直接方式不仅会抑制私人言论,还会抑制唤醒词。为了克服这个困境,原创 2024-03-20 15:48:09 · 47 阅读 · 0 评论 -
论文笔记-Rethinking Learning Rate Tuning in the Era of Large Language Models
大语言模型在类人类预测性能取得显著的成功。但由于训练代价昂贵,利用微调使LLM适应各种实际应用已经成为一种主流策略。是直接影响到和。原创 2024-03-15 11:10:19 · 65 阅读 · 0 评论 -
论文笔记-Who is Real Bob? Adversarial Attacks on Speaker Recognition Systems
*Speaker recognition (SR)**作为一种生物特征认证或识别机制广泛应用于我们的日常生活中。本篇论文全面了解SR系统在实际黑盒环境中的安全弱点。生成对抗样本是一个优化问题,结合对抗性样本的置信度和最大失真来平衡对抗性声音的强度和不可感知性。FAKEBOB用来制作对抗性样本的算法,其中的一个关键贡献是提出了一种新的算法来估计分数阈值(SRS 中的一个特征),并将其用于优化问题来解决优化问题,取得了标杆的效果。原创 2024-03-06 19:46:35 · 81 阅读 · 2 评论 -
论文笔记-A survey on deep multimodal learning for computer vision: advances, trends, applications
多模态数据流和深度学习算法的潜力不断增长,促进了深度多模态学习的日益普及。这涉及开发能够统一处理和分析多模态信息的模型。多模态数据表示、多模态融合(即传统和基于深度学习的方案)、多任务学习、多模态对齐、多模态迁移学习和零采样学习。原创 2024-03-04 16:40:04 · 65 阅读 · 3 评论 -
多模态机器学习教程(Tutorial on Multimodal Machine Learning)
对来自多个异构和相互关联的数据源的信息进行和。这是一个具有挑战性但又至关重要的领域,在多媒体、情感计算、机器人、金融、HCI和医疗保健等领域有许多实际应用。是一个多学科研究领域,它通过集成和建模多种交流模式(包括语言、声学和视觉信息)来解决人工智能的一些原始目标。原创 2024-03-03 16:07:13 · 69 阅读 · 3 评论 -
多模态深度学习:定义、示例和应用
多模态机器学习是对通过使用多模态数据集来学习和提高性能的计算机算法的研究。多模态深度学习是机器学习的一个子领域,旨在训练人工智能模型处理不同类型的数据(模态)–通常是图像、视频、音频和文本–并发现它们之间的关系。通过结合不同的模态,深度学习模型可以更全面地理解环境,因为有些线索只存在于某些模态中。想象一下情绪识别任务。这不仅仅是看一张人脸(视觉模式)那么简单。一个人声音的音调和音高(音频模式)编码了有关其情绪状态的大量信息,这些信息可能无法通过面部表情看到,即使他们经常同步。原创 2024-03-03 11:37:42 · 154 阅读 · 0 评论 -
什么是“多模态”?为什么说多模态是下一个风口
多模式深度学习是一个机器学习子领域,旨在训练人工智能模型来处理和发现不同类型数据(模式)之间的关系——通常是图像、视频、音频和文本。通过结合不同的模态,深度学习模型可以更普遍地理解其环境,因为某些线索仅存在于某些模态中。想象一下情绪识别的任务。它不仅仅是看一张人脸(视觉模态)。一个人的声音**(音频模态)的音调和音高编码了大量关于他们情绪状态的信息**,这些信息可能无法通过他们的面部表情看到,即使他们经常是同步的。在多模态深度学习中,最典型的模态是视觉(图像、视频)、文本和听觉(语音、声音、音乐。原创 2024-03-02 20:25:39 · 173 阅读 · 0 评论 -
AI研究方向:对抗攻击研究前景怎么样?
此研究方向可参考文章。原创 2023-09-28 16:27:28 · 388 阅读 · 4 评论 -
【简易的黑盒对抗攻击】Simple Black-box Adversarial Attacks
在计算机视觉领域,对抗攻击(adversarial attack)旨在通过向图片中添加人眼无法感知的噪音以欺骗诸如图像分类、目标识别等机器学习模型。如下图所示,输入原图像,图像分类器给出的结果为“是熊猫的概率为57.7%”,而在给原图像加上一段噪音后,结果变成了“是长臂猿的概率为99.3%”,但对于人类来说,这两张图片几乎是一模一样的。经噪音干扰后的图像被称为对抗样本对抗攻击的主要研究内容之一就是如何获得这种噪音来生成对抗样本。原创 2023-09-26 13:22:25 · 353 阅读 · 0 评论 -
ML安全|Pytorch对抗示例生成
如果您正在阅读本文,希望您能体会到某些机器学习模型的有效性。 研究不断推动 ML 模型更快,更准确和更高效。 但是,设计和训练模型的一个经常被忽略的方面是安全性和鲁棒性,尤其是在面对想要欺骗模型的对手的情况下。本教程将提高您对 ML 模型的安全漏洞的认识,并深入了解对抗性机器学习的热门话题。 您可能会惊讶地发现,在图像上添加无法察觉的扰动会导致完全不同的模型表现。 鉴于这是一个教程,我们将通过图像分类器上的示例来探讨该主题。 具体而言,我们将使用最流行的一种攻击方法,即快速梯度符号攻击(FGSM)来欺骗原创 2023-09-23 19:06:43 · 79 阅读 · 0 评论