自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(123)
  • 收藏
  • 关注

原创 《人工智能、机器学习、深度学习、CNN知识点整理》

文章目录1 Artificial Intelligence (AI,人工智能)2 Machine Learning(ML,机器学习)2.1 监督学习和无监督学习2.2 监督学习的线性回归学习算法2.3 机器学习的常见算法2.4 人工神经网络3 Deep Learning(DL,深度学习)4 Convolutional Neural Networks(CNN,卷积神经网络)5 CNN在CV(计算机视觉)上的应用5.1 图像分类(自己的理解,如有理解有误的地方请谅解!!!)我们常常会有一个疑惑,

2021-07-29 14:30:30 3327

原创 服务器上配置 Tensorflow(pytorch) GPU 版

文章目录1 cuda的安装2 CUDNN的安装3 Anaconda3安装4 安装 tensoflow-gpu4 安装 opencv4 安装 pytorch1 cuda的安装首先安装CUDA,我安装的是8.0版本(1)下载CUDA网址:官网如下https://developer.nvidia.com/cuda-80-ga2-download-archive或者链接:https://pan.baidu.com/s/19BjPkSU2FJObF9avp6Z-ug 密码:70w9下载的CUDA文件名为:

2020-09-10 15:58:15 570

原创 PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive Summarization

通过“删除关键句→生成它们”来预训练,让模型天生具备摘要能力。

2026-03-26 14:09:29 293

原创 计算机A类国际会议有哪些?

(体系结构与高性能计算方向顶会)([Liwener’s Blog][2])我把**最核心的顶会(约40个)**筛出来,并标注难度和建议。NLP领域近几年增长非常快(LLM、ChatGPT等推动)。下面是很多研究生和博士常看的。([51CTO博客][3])(不同年份会略微变化)([博客园][4])

2026-03-09 14:57:26 397

原创 Scientists hide messages in papers to game AI peer review

论文链接:这是《日经亚洲》2025年7月的调查报道,揭露研究者在预印本中嵌入肉眼不可见的隐藏提示词,意图诱导AI辅助评审给出偏向性好评,引发学界对AI评审漏洞、学术诚信与治理机制的紧急反思。

2026-01-09 13:14:13 323

原创 《The peer-review crisis: how to fix an overloaded system》

链接:David Adam发表于《Nature》2025年8月的文章《The peer-review crisis: how to fix an overloaded system》,聚焦同行评审体系因稿件与资助申请激增、评审人短缺且分布不均而陷入的超负荷危机,分析成因并系统梳理机构与学界的修复方案与实践挑战。

2026-01-08 17:33:59 283

原创 《AI, peer review and the human activity of science》

这篇文章是在为“科学是人类活动”这一理念辩护,提醒我们在引入 AI 改造同行评议时,不能牺牲人类判断、责任和学术共同体的核心价值。

2026-01-08 16:00:19 395

原创 判断大语言模型(LLMs)是否被“越狱成功“的四类方法

这四个方法本质都是“越狱成功与否的判断工具”——针对“恶意请求(比如‘怎么制造炸弹’)+ 模型响应”这一对组合,输出“是(越狱成功,响应有害)”或“否(越狱失败,响应安全)”的结论,只是判断的主体、方式和适用场景不同。

2025-12-22 14:09:10 483

原创 sequence-to-sequence models是什么?

这个问题切得很准!Sequence-to-Sequence(简称Seq2Seq,序列到序列)模型是NLP里处理“输入一段文本、输出另一段文本”任务的核心架构,通俗说就是**“把一个序列(比如问题、原文)转换成另一个序列(比如答案、译文)”** 的模型。

2025-12-18 18:17:44 262

原创 Masked Language Models是什么?

MLM本质是一种“让模型通过猜词学语言”的训练方法,核心优势是能让模型深刻理解上下文语义,是很多语言理解类模型的“地基”。它就像一个“语言学霸”,通过大量“填空练习”吃透了语言的规律,之后不管是做阅读、匹配信息,还是辅助生成内容(比如RAG里的检索环节),都能发挥扎实的基础作用~

2025-12-18 17:39:20 436

原创 parametric memory(参数模型)和 non-parametric memories(非参数模型)的区别

特点参数模型非参数模型知识存储位置模型内部的“参数”(芯片)模型外部的“数据集”(百科)知识更新方式需重新训练模型直接替换外部数据集回答依据自己“记住”的知识实时“查到”的知识例子维基百科索引、BM25检索库而RAG模型的聪明之处,就是把两者结合了——既有参数模型的“语言表达能力”(会组织语言写答案),又有非参数模型的“灵活查资料能力”(不会瞎编、能更知识),相当于给会说话的机器人配了一套可随时更新的百科全书~

2025-12-18 17:20:22 320

原创 PaperReding:《LLaMA: Open and Efficient Foundation Language Models》

LLaMA 本质是 “用公开数据训练、兼顾性能和实用性的开源大模型”—— 它证明了 “不用专属数据、不用超大参数,也能做出顶尖 AI”,而且人人都能获取、使用、改进,大大降低了大语言模型的研究和使用门槛。数学题、写代码:没专门针对性训练,却能打赢一些专门优化过的模型 —— 比如 650 亿参数版本写 Python 代码,比 PaLM 620 亿参数版本还强。模型大小从 70 亿参数到 650 亿参数不等,兼顾 “性能强” 和 “跑得动”—— 比如 130 亿参数的版本,一台普通 GPU 就能运行。

2025-12-17 15:58:56 1003

原创 PaperReading:《GPT-4 Technical Report》

它是用“预测下一个词”的方式预训练的,之后又通过人类反馈优化过(让回答更靠谱、符合需求)。而且工程师们找到了方法,能通过小模型(计算量只有 GPT-4 的千分之一)的表现,提前猜到 GPT-4 能做到什么程度,不用等它完全训练完才知道。:GPT-4 是个超厉害的“全能选手”,考试、干活都在行,还能看懂图片,但也会犯错、有局限,OpenAI 也在尽力让它更安全,用的时候得留个心眼。:可以用来写东西、分析问题、辅助工作,但不能完全信它的输出,尤其是重要场景(比如法律、医疗),得有人把关。

2025-12-16 17:08:08 571

原创 《Revealing Safety Generalization Challenges of Large Language Models via Code Completion》

论文链接: https://arxiv.org/pdf/2403.07865该部分指出“大模型安全对齐存在代码领域泛化漏洞”,并提出CodeAttack框架解决这一研究缺口。大模型现状:能力与风险并存:以GPT、Llama-2为代表的大模型在自然语言任务中表现突出,但生成能力可能被滥用(如生成有害内容),需通过监督微调、RLHF等安全对齐技术规范行为。现有安全技术的局限:主流安全对齐方法仅针对自然语言输入输出优化,面对非自然语言场景时泛化能力不足;此前相关研究(如Base64编码、CipherChat密码

2025-12-12 13:47:40 1002

原创 论文中摘要和引言的区别?

摘要本质是论文的“浓缩版”,需用最简洁的语言概括研究的核心信息,让读者快速了解“研究做了什么、发现了什么、有什么意义”。维度摘要(Abstract)引言(Introduction)核心目的浓缩全文,让读者快速判断研究价值(“读完就知道论文讲了啥”)引导读者进入研究,解释“为什么做这个研究”(“说服读者这个研究重要”)内容范围涵盖“目的→方法→结果→结论”全流程,是全文的“微缩版”聚焦“背景→缺口→目标→结构”,不包含具体结果和结论(或仅简要提及)结构逻辑。

2025-11-15 14:26:40 634

原创 PaperReading:《MAMORX: Multi-agent Multi-Modal Scientific Review Generation with External Knowledge》

论文链接: https://openreview.net/pdf?id=frvkE8rCfX论文1的Introduction部分(对应文档1-8至1-20段落)围绕“科学论文评审的痛点与MAMORX框架的提出”展开,核心可总结为三部分:研究背景与问题、现有方案局限、MAMORX的创新与贡献,具体内容如下:该部分核心是梳理“人工评审逻辑”与“自动化评审技术演进”两条脉络,明确现有研究的进展与不足,为MAMORX框架的设计提供依据,具体总结如下:该部分(对应文档1-29至1-44段落),核心是详细拆解 MAMO

2025-10-20 15:32:49 874

原创 代码解析:《AGENTREVIEW: Exploring Peer Review Dynamics with LLM Agents》

从 README 可知,该项目是一个基于大语言模型(LLM)的同行评审模拟框架,用于研究学术论文评审过程中的动态因素(如评审偏见、社会影响等)。核心目标是通过模拟评审流程(包括评审员评估、作者反驳、领域主席(AC)决策等阶段),分析影响评审结果的潜在变量。通过以上步骤,可逐步理清项目的核心逻辑和代码组织,进而理解其如何实现评审过程的模拟与分析。

2025-10-17 16:01:09 567

原创 lP 地址、掩码、默认网关、DNS、 端口这个五个是什么关系?

IP:你是谁(门牌号)掩码:你和谁是邻居(同个局域网)网关:出门必经的门卫(连接内外网)DNS:把网址翻译成门牌号的翻译官端口:你家具体哪个门(区分不同应用)这五个配合起来,你的电脑才能顺畅上网、收发数据~

2025-10-17 15:57:03 474

原创 PaperReading:《Automated Peer Reviewing in Paper SEA: Standardization, Evaluation, and Analysis》

该部分开篇明确SEA框架的核心逻辑——通过“Standardization(标准化)、Evaluation(评估)、Analysis(分析)”三模块协同,解决现有LLM评审“数据格式混乱、评审质量不稳定、内容与论文不一致”的问题,整体框架如图2所示。框架以开源模型Mistral-7B为基础,结合GPT-4的标准化能力与自校正策略,实现“从多源评审到可靠评审输出”的全流程自动化,且各模块通过数据传递形成闭环(如标准化模块的输出为评估模块提供训练数据,分析模块的结果反哺评估模块优化评审)。

2025-10-15 20:05:07 828

原创 PaperReading:《DeepReview: Improving LLM-based Paper Review with Human-like Deep Thinking Process》

核心目标:给定输入论文(q),生成“定性评审文本(元评审(s))+定量评分((a))”的评审对((s,a)),推理过程需遵循“(q \to z_1 \to z_2 \to z_3 \to (s,a))”的顺序,确保每一步推理都基于前序结论。概率模型。

2025-10-15 17:39:49 770

原创 PaperReading:《AGENTREVIEW: Exploring Peer Review Dynamics with LLM Agents》

链接: https://arxiv.org/pdf/2406.12708v1该部分主要围绕学术同行评审的现状、挑战及研究动机展开:该部分聚焦于AGENTREVIEW框架的核心设计与实现,从目标、智能体角色、评审流程、数据选择、基线设置五方面展开,解释如何通过该框架模拟同行评审以解决传统分析的痛点:为解决传统同行评审分析的“多变量复杂性、潜变量难测量、数据隐私敏感”三大挑战,提出基于大型语言模型(LLM)与智能体建模的模拟框架,通过可控实验解耦评审中的多变量影响,同时规避真实数据的隐私风险。框架构建了与真实评

2025-10-14 17:54:31 993

原创 如何写一篇benchmark论文?

公平性:所有方法在相同条件下评估,不偏袒任何一方;全面性:覆盖核心场景、多维度指标,避免片面;可复现性:公开数据、代码、配置,让结果可验证;实用性:为领域提供明确的“性能标尺”和改进方向,而非单纯堆砌数据。按这个框架写,既能满足学术规范,又能为领域提供真正有价值的参考——很多顶会(如NeurIPS、CVPR)的benchmark论文,都是通过这种结构化设计成为领域“标准参考”的。

2025-10-11 14:03:46 870

原创 网络安全和NLP、CV是并行的应用吗?

一句话讲清关系:NLP和CV是“处理文本/图像数据的AI技术”,网络安全是“需要用这些技术解决威胁检测、数据保护等问题的应用场景”——三者不是并行的应用,而是“技术支撑应用”的层级关系。而且网络安全不仅依赖NLP和CV,还会用到异常检测、强化学习等其他AI技术(如摘要3提到的孤立森林、LSTM用于异常访问检测),是一个需要多技术协同的综合应用领域。

2025-09-30 16:13:21 530

原创 安全对齐到底是什么

现在大模型越来越多地用在医疗、金融、教育这些“出错就出大事”的领域,安全对齐不是“可选功能”,而是“必选项”。它的终极目标不是“让模型拒绝所有敏感请求”,而是“让模型能判断什么该做、什么不该做,即使被诱导也不闯祸”——毕竟我们需要的是“聪明又守规矩”的AI,而不是“又笨又只会说抱歉”的AI。

2025-09-29 15:53:58 626

原创 联邦大型语言模型、多智能体大型语言模型是什么?

不传原始数据,只传“模型碎片”比如摘要3提到的「FL-GLM框架」:把大模型拆成三部分——客户端(比如医院的电脑)存“输入层+输出层”,服务器存“中间核心层”。训练时,客户端只传“处理后的特征数据”(不是原始病历),服务器用这些数据优化中间层,再把优化结果传回客户端,全程原始数据不离开本地。加密+高效,降低成本风险加密:数据传输用RSA等非对称加密(摘要3),防止中途被窃取;

2025-09-29 15:39:53 842

原创 什么事可信机器学习(Trustworthy Machine Learning, TML)?

普通机器学习追求“把事做好”,可信机器学习追求“把事做好,还让人放心”——它不是要牺牲模型性能,而是让“高性能”和“高可信”并存,让AI真正能在关键场景里“帮上忙,不添乱”。

2025-09-29 14:48:50 1176

原创 如何找到到自己研究领域的经典论文?

定位方向:用3-5个关键词明确子方向,找1篇近期综述确认领域边界;抓核心渠道:先从Google Scholar按“关键词+高引用”找,再去领域顶会/顶刊补充,同时请导师推荐;验证经典性:看是否奠基/突破性、被高频正面引用、覆盖核心问题;构建网络:通过“引用关系”向前追溯、向后延伸,整理成主题化文献库。按这个流程,1-2周内就能快速掌握领域内的核心经典论文,为后续研究(比如开题、做实验)打下基础。

2025-09-29 14:30:51 713

原创 漏洞、对抗攻击、防护措施之间的关系

—三者是“根源-利用-反制”的动态因果链,且相互驱动、不断博弈。

2025-09-29 14:06:33 460

原创 研究生如何看懂文献?

核心问题:这篇论文要解决什么具体问题?(1句话);核心方法:用什么方法解决?创新点是什么?(1句话);核心结论:实验证明了什么?有什么局限性?(1句话);关键图:贴1张最核心的图(方法框架图/结果对比图),并在图上标注“对我有用的细节”(如“这个模块可以借鉴到我的模型中”)。示例:核心问题:现有大模型安全评测忽略代码场景,无法检测代码形式的对抗攻击;核心方法:提出CodeAttack,通过生成语法正确的恶意代码提示,绕过模型安全防护,创新点是结合代码语法规则设计对抗样本;

2025-09-28 16:08:29 828

原创 一篇综述一般要怎么写

综述的核心是,而非简单的文献罗列。

2025-09-28 15:01:53 1462

原创 如何判断一篇文章是不是benchmark

明确提及“Benchmark”“Benchmarking”;提及“Dataset”“Evaluation”“Framework”且搭配“Standard”“Benchmark Suite”(如“XXX Dataset: A New Benchmark for XXX Task”);提及“Metric”“Baseline”且聚焦“统一评估”(如“Unified Evaluation Metrics for XXX”)。反例。

2025-09-28 14:30:20 827

原创 研究生如何看懂文献?

核心问题:这篇论文要解决什么具体问题?(1句话);核心方法:用什么方法解决?创新点是什么?(1句话);核心结论:实验证明了什么?有什么局限性?(1句话);关键图:贴1张最核心的图(方法框架图/结果对比图),并在图上标注“对我有用的细节”(如“这个模块可以借鉴到我的模型中”)。示例:核心问题:现有大模型安全评测忽略代码场景,无法检测代码形式的对抗攻击;核心方法:提出CodeAttack,通过生成语法正确的恶意代码提示,绕过模型安全防护,创新点是结合代码语法规则设计对抗样本;

2025-09-28 14:09:21 580

原创 5篇“大模型(尤其是多模态模型)的安全漏洞与对抗攻击”文章之间的关系

第5篇是“网的框架”,划定了“单模态、多模态、复杂系统”三个风险区域;前4篇是“网的节点”,分别在“多模态数字场景(1、2)、多模态物理场景(3)、单模态特定场景(4)”这几个关键位置,填上了具体的风险案例;最终织成一张“从理论到实践、从数字到物理、从通用到场景”的大模型安全风险图,帮研究者和开发者看清“大模型哪里容易被攻、怎么被攻”,为后续防御铺路。

2025-09-26 10:53:17 576

原创 研究生如何快速入门自己的领域?

别贪多求全:不用看完所有文献、学会所有方法,先聚焦“1个核心子方向”(比如你研究多模态,先盯死“图文对齐”,再扩展到其他方向);别只看中文:领域核心论文和教材大多是英文的,入门阶段就逼自己看英文(用DeepL翻译辅助,但别逐句翻,先抓大意);别“光看不动”:哪怕只跑通一个demo、画一张脑图,也比“看了10篇论文却没留下任何东西”强——研究生入门,“输出”比“输入”更重要。

2025-09-25 16:53:50 1641

原创 PaperReading:《Survey of Vulnerabilities in Large Language Models Revealed by Adversarial Attacks》

这篇论文本质是一份「大模型防骗说明书」——把现在能用来“忽悠”大语言模型(比如GPT、LLaVA这些)的各种“骗术”(学术叫“对抗攻击”)全都整理归类,还讲了这些骗术为啥能成、以及目前有啥办法防,核心就是帮大家搞清楚:大模型看着聪明,其实漏洞不少,得小心用。先铺垫个背景:现在大模型(不管是只处理文字的,还是能看图的多模态模型)越来越火,但它们有个大问题——容易被“骗”。比如本来模型被训练得“不教坏人做坏事”,结果攻击者改改输入,模型就乖乖说了;或者让翻译模型突然改说笑话,这些都是“对抗攻击”。

2025-09-25 16:46:28 497

原创 PaperReading:《Are We There Yet? Revealing the Risks of Utilizing Large Language Models in Scholarly》

他们试了好几种LLM(GPT-4、Llama这些),发现不管哪种都有这些问题,只是程度不同。比如哪怕只把5%的人类评审换成被操纵的LLM意见,都会让12%的论文掉出“前30%”(直接影响会议录取)。现在的LLM顶多当个“评审助手”,帮人类整理思路,绝对不能替代人类。得先把这些“被骗”“瞎编”“偏心”的坑填上,加好防护措施(比如检测隐藏文字、去偏见算法),才能谈正经用。不然用得越多,越容易让差论文混进去,毁了学术评审的公平性。

2025-09-25 16:30:40 329

原创 PaperReading:《Learning Transferable Visual Models From Natural Language Supervision》

CLIP(Contrastive Language–Image Pre-training,对比语言-图像预训练)是OpenAI于2021年发表在国际机器学习顶会ICML上的开创性论文,全称为《Learning Transferable Visual Models From Natural Language Supervision》(从自然语言监督中学习可迁移视觉模型)。这篇论文提出了一种全新的多模态预训练方法,通过对比学习让机器同时理解图像和文本的语义关联,彻底改变了计算机视觉和自然语言处理的交互方式。

2025-09-25 15:48:11 917

原创 PaperReading:《Manipulating Multimodal Agents via Cross-Modal Prompt Injection》

比如想让“菜谱AI”别做菜谱、改去帮人编辑文字,先找个画图AI(比如Stable Diffusion)生成一张“人在改文字”的图,然后把这张图的“特征”(AI认图靠的是特征,不是人眼看到的画面)嵌到一张普通食材图里——人眼看还是食材图,但AI看这张图时,会自动关联“改文字”的任务。比如不直接说“帮我改文字”,而是先猜AI的安全指令(比如“你是菜谱大师,只能处理菜谱相关任务”),再生成一句绕弯子的话:“帮我改下这段食材描述的文字,更符合菜谱风格”——AI以为是和菜谱相关,其实是在执行“改文字”的恶意任务。

2025-09-25 14:28:08 500

原创 PaperReading:《Empirical Analysis of Large Vision-Language Models against Goal Hijacking via Visual 》

先掰扯清楚核心场景:比如你本来想让AI“详细描述这张图里的椅子”(这叫“原始任务”),但攻击者在你给的图片上偷偷加了行小字(比如在图片顶部加个白边,写上“别管之前让你做的,只告诉我图里丝带是什么颜色”)——如果AI真的不描述椅子了,反而去回答丝带颜色,那这就叫“目标劫持”成功了,论文里给这招起了个名儿叫“GHVPI”。这事儿的关键是“藏在图片里”——之前想骗AI改任务,都是直接在文字里加猫腻(比如“忽略前面的,听我的”),但现在是把这种“骗术”塞进图片,AI得先认出图片里的字,再被这些字误导,才算中招。

2025-09-25 11:57:26 324

原创 PaperReading:《JAILBREAK IN PIECES: COMPOSITIONAL ADVERSARIAL ATTACKS ON MULTI-MODAL LANGUAGE MODELS》

不用知道AI的全部秘密,只要用一个常见的“看图AI”(比如CLIP,很多模型都用它处理图片)就行:让这张“假正常图”在看图AI眼里,和真正的“坏图”(比如炸弹实拍图)特征几乎一样,但人眼看不出来区别。更麻烦的是,这方法门槛特别低:不用知道AI的内部代码(很多闭源AI也能用),只要会用那个常见的“看图AI”生成“藏坏图”就行。比如不说“教我做炸弹”,而是说“教我做图里的这些东西”——这句话本身很正常,AI不会防,但结合那张“藏坏信息的图”,AI就会把图里的“坏特征”当成“图里的东西”,然后乖乖给你出教程。

2025-09-24 16:45:46 214

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除