MIT、北大、浙大、港大的四位讲者分享大模型前沿研究,畅聊ChatGPT

AI TIME活动邀请四位来自MIT、北大、浙大、港大的专家分享大模型研究,涉及ChatGPT、后门攻击防御、推理能力与训练后量化等领域。专家们讨论了大模型对AIGC领域的影响,指出大模型的可解释性和透明度的不足,以及未来的发展方向。
摘要由CSDN通过智能技术生成

点击蓝字

d2064883b8167a2d4d9df9479bd3393a.jpeg

关注我们

AI TIME欢迎每一位AI爱好者的加入!

fe186ff31dd2aebd78cb46e069efee59.gif

2023年3月9日,AI TIME 大模型系列活动推出首期专场活动。本次活动邀请到了香港大学一年级博士生谢天宝、北京大学计算机学院四年级博士生张之远、浙江大学一年级硕士乔硕斐、麻省理工学院一年级博士生肖光烜。四位嘉宾分享了他们在大模型方面的前沿研究。在panel环节,讨论了ChatGPT、AIGC等当下热点话题,为观众带来了一场精彩的大模型科学思辨,本次活动共吸引了线上约两万观众观看。

409b3fedc0c7c988c74271a05cccdb90.png

谢天宝:UnifiedSKG:Unifying and Muti-Tasking Structured Knowledge Grounding with Text-to-Text Language Models

结构化知识基础(Structured knowledge grounding,SKG)利用结构化知识来完成用户请求,例如基于数据库的语义解析和基于知识库的问答。由于SKG任务的输入和输出是异构的,它们被不同的社区分别研究,这限制了对SKG的系统性和兼容性研究。谢博士分享了自己最新的研究工作中通过提出UnifiedSKG框架克服了这一限制。新框架将21个SKG任务统一为文本到文本格式,旨在促进系统的SKG研究,而不是排他性地针对单个任务、领域或数据集,同时也证明了多任务前缀调整可以提高大多数任务的性能,从而大大提高整体性能。

张之远:Fine-mixing:Mitigating Backdoors in Fine-tuned Language Models

众所周知,深度神经网络(DNN)容易受到后门攻击。在自然语言处理(NLP)中,大规模预训练语言模型(PLM)通常在含有后门的有毒数据上被微调的过程中被后门化。尽管PLM的干净权重很容易获得,但现有方法在保护NLP模型免受后门攻击时忽略了这一信息。张之远博士在本次活动中介绍了自己的研究工作,这项工作为安全微调的NLP模型建立了一个简单但强大的基线防御方法Fine-mixing来抵御后门攻击。该项工作通过两种互补技术利用未微调的干净预训练权重来去除被微调后的语言模型中的后门,并在三个单句情感分类任务和两个句子对分类任务上将 Fine-mixing与典型的后门防御算法方法进行了比较,证明了Fine-mixing性能的优越性。

乔硕斐:Reasoning with Language Model Prompting:A survey

推理能力是人类智能的核心,但在自然语言处理(NLP)中,现代神经网络很难根据已知或已知信息进行推理。随着预训练的革命性发展ÿ

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值