9.13会议总结

这篇博客探讨了快速进入人工智能研究的方法,包括阅读综述性文献和理解代码。近期任务涉及选择横向课题、理解上线研究、撰写综述以及分享大佬论文的理解和改进建议。同门想法涵盖了恶意代码检测、防御APT攻击、模型安全等多个方向,提出了检测和防御策略,如使用人工智能模型进行异常检测和攻击隔离。
摘要由CSDN通过智能技术生成

一.快速进入研究的方式

1.条件

  • 需要有相关的数据
  • 文献最好有相应的代码,结合代码可以更好理解论文思路

2.途径

  • 法一:读一些综述性的文献,了解本方向的局势,再自己动手写一篇综述
  • 法二:读一篇文献,弄懂它,就掌握了大约80%的东西,产生一些问题,根据解决办法在原文献的基础上修改,若效果好,就可以成为下一篇论文

二.近期任务

1.任务列表

  • 从三个横向课题中选择一个,横向课题可以变化,但纵向课题最好一直不变
  • 运行上线的代码,结合论文与代码,了解上线的研究内容与思路,帮助上线修改其论文
  • 根据张钹教授的论文,了解跟踪他的成果,并写一个简单的综述,综述的排版方式可根据国内外的人工智能安全团队来排版
  • 讲述你所读的大佬的文献,并给出自己有哪些修改论文的想法

2.提交时间

  • 在9.18之前

三.同门想法

1.蒋*

  • 恶意代码检测
  • 防御APT攻击
  • 建立人工智能模型,检测攻击并隔离

2.陈*

  • 对于线上的数据如何攻击(根据梁师兄的回答:在本地实行恶意的制造数据,把本地的模型上传到服务器,这样使得服务器的模型有损)
  • 制造恶意样本(如:刷差评/好评;给分高,但评论差等)去攻击推荐系统,
  • 相应的,可以设计一个算法去识别恶意样本

3.彭*

  • 垃圾邮件检测
  • 恶意pdf检测
  • 微博平台的异常账号(如僵尸号)

4.秋*

  • 将被攻击的图片运用类似maxpooling的方式形成两组照片分别经过分类器判别,观察结果是否一致,若一致则可能不存在被攻击,若不一致有可能存在被攻击的嫌疑(待尝试)
  • universal adversarial attack:制作一个杂讯,使得贴上此杂讯的图片可以被错误分类
  • 同时此技术能否运用在NLP上(答案是可以的,同时此运用可攻击语音合成检测方面)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值