直播预告 | KDD-6 ——中国科学院、北卡州立大学、美国Kitware公司

点击蓝字

51c2be4df9edff25b834f5fb73099f4a.png

关注我们

AI TIME欢迎每一位AI爱好者的加入!

4d634ac04f9dfd20cd1b10c62eb84c79.png

11月17日 19:30~21:00

AI TIME特别邀请了中国科学院计算技术研究所、北卡州立大学的博士们以及美国Kitware公司高级研发工程师为大家带来KDD专场六!

4a9013422c54faebcb8c6fd9d4350f31.png

哔哩哔哩直播通道

扫码关注AITIME哔哩哔哩官方账号

观看直播

链接:https://live.bilibili.com/21813994

★ 嘉宾介绍 ★

5392df3cc6547e075daee76e3e5b9eaf.png

朱勇椿

中国科学院计算技术研究所四年级在读博士生,导师为曹娟研究员和庄福振教授。主要研究方向为迁移学习、推荐系统等。在包括KDD,WWW,SIGIR等会议与期刊发表多篇论文。

报告题目:

8276ff0e94a3e9361d6e9c321ad27736.gif

看一看基于元学习的内容定向推广

内容简介:

在推荐系统和广告平台上,内容定向推广模块需要尽可能将商品、内容或者广告传递到潜在的对内容感兴趣的用户面前。扩充候选集技术(Look-alike建模)需要基于一个受众种子集合识别出更多的相似潜在用户,从而进行更有针对性的内容投放。然而,look-alike建模通常面临两个挑战:(1)一个系统每天可能需要处理成百上千个不同种类的内容定向推广实例(例如体育、政治、社会等不同领域的内容定向推广)。因此,我们很难构建一个泛化的方法,同时在所有内容领域中扩充高质量的受众候选集。(2)一个内容定向推广任务的受众种子集合可能非常小,而一个基于有限种子用户的定制化模型往往会产生严重的过拟合。为了解决以上的挑战,我们提出了一种新的两阶段框架Meta Hybrid Experts and Critics (MetaHeac)。在离线阶段,我们在不同种类的内容定向推广任务的历史行为数据上,采用元学习的方法训练一个泛化初始化模型。这个模型可以同时抓取不同任务之间的关系,从而能够快速适应新类别内容推广任务。在线上阶段,针对一个新的内容推广实例,模型能够基于给定的种子集合和离线训练得到的泛化初始化模型,快速训练出这个实例的定制化推广模型。我们通过离线实验和线上实验验证了MetaHeac的有效性。目前,该框架已部署到微信中,用于部分内容定向推广场景。

567cd536c7a52f439275e6eabfcd5781.png

万润哲

万润哲是北卡州立大学统计学博士,导师为宋瑞教授。研究方向主要是强化学习,在线学习,以及最优决策等。在包括 NeurIPS,ICML,KDD 等会议与期刊一作发表多篇论文。获 ASA Norman Breslow Young Investigator 等奖项。

报告题目:

1adf2969879555ce4d8f71a68c3a27cf.gif

基于模型的多目标强化学习及

其在传染病控制中的应用

内容简介:

新型冠状病毒 (COVID-19) 等严重传染病对公众健康构成巨大威胁。停课、居家令等严厉管控措施,在效果显着的同时,也带来经济损失。面对新出现的传染病,政策制定者面临的一个关键问题是,在巨大的不确定性下,如何权衡利弊并及时实施适当的干预措施。在这项工作中,我们提出了一个基于多目标模型的强化学习框架,以促进数据驱动的决策并最大限度地降低整体长期成本。具体来说,在每个决策点,首先学习一个贝叶斯流行病学模型作为环境模型,然后应用所提出的基于模型的多目标规划算法来寻找一组帕累托最优策略。该框架与每项政策的预测区间相结合,为政策制定者提供了实时决策支持工具。该方法的有效性被基于真实数据的仿真得到了证明。

17e2a97fb754106507ff7adcf6ff630f.png

赵辰

美国Kitware公司高级研发工程师,博士2021年毕业于美国德州大学达拉斯分校计算机专业。博士期间的研究方向主要是公平性学习在数据挖掘,机器学习,深度学习上的研究和应用等。在包括KDD, ICDM, WWW等会议与期刊上发表过多篇论文,并多次受邀担任 KDD, ICDM, AISTATS, WSDM, SDM, NeurIPS, BigData, JBDR等人工智能领域顶级国际会议程序委员/审稿人。

个人主页:https://sites.google.com/view/chen-zhao/home

报告题目:

8767611d3691f9bcdc0ba99e6e424057.gif

社交媒体假新闻传播的因果理解

内容简介:

与线下学习不同,在线学习主要分为两种研究模式:(1)在线元学习。该方法在一个连续的场景种学习模型参数的先验(也被称做学习如何学习),该场景默认每个学习任务是在连续时间点依次出现。尽管在线元学习提供了一个次线性的遗憾上限,但是它忽略了公平学习的重要性,而公平学习是人工智能是一个非常重要的标志。(2)第二种方法是在线公平性学习。尽管这种方法适应于许多涉及公平性的分类问题, 但这种方法主要集中于在没有任何特定任务适应性的情况下实现零概率泛化,这也因此限制了模型适应新数据的能力。为了克服上面的问题,本文首次提出了一种新的在线元学习算法FFML,该算法是在不公平预防背景下进行的。FFML的关键部分是学习在线公平分类模型的原始参数和对偶参数的良好先验,它们分别与模型的准确性和公平性有关,并且该原始和对偶参数对的优化问题是采用一个双层次的凸-凹优化方法。该算法的理论分析同时为遗憾损失和累积公平性限制提供了次线性上限。此外,该算法的有效性被基于真实数据的实验得到了证明。

# 今日视推荐 #

直播结束后我们会邀请讲者在微信群中与大家答疑交流,请添加“AI TIME小助手(微信号:AITIME_HY)”,回复“KDD”,将拉您进“KDD 会议交流群”!

09ce520984eddebb668190ba48b2c21b.gif

AI TIME微信小助手

dbab308b22178dd76ccac39ab133b08e.png

主       办:AI TIME 

合作媒体:学术头条、AI 数据派

合作伙伴:智谱·AI、中国工程院知领直播、学堂在线、蔻享学术、Ever链动

AI TIME欢迎AI领域学者投稿,期待大家剖析学科历史发展和前沿技术。针对热门话题,我们将邀请专家一起论道。同时,我们也长期招募优质的撰稿人,顶级的平台需要顶级的你,

请将简历等信息发至yun.he@aminer.cn!

微信联系:AITIME_HY

AI TIME是清华大学计算机系一群关注人工智能发展,并有思想情怀的青年学者们创办的圈子,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法、场景、应用的本质问题进行探索,加强思想碰撞,打造一个知识分享的聚集地。

1cb083f6cb397ddcf8cc64eee1aa38e9.png

更多资讯请扫码关注

d1573ec33efb7a7db9672a4ebf920f5a.png

我知道你“在看”哟~

2be81d15ba081e5a7016a79eda727578.gif

点击 阅读原文 预约直播

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值