11月22日,在上海,第 10 届 DevFest如约而至。我们与万名线上观众、1500+ 线下开发者、工程师,以及行业重磅嘉宾一起,尽享了一场技术盛宴!
在整场活动中,除了穿插70-80-90-00四代技术开发者圆桌会话的主会场,还有AI专场、Android 专场分享技术干货,更有WTM 专场细数职场话题,鼓励女性发声。
在 DevFest 2020 有没有留下你的脚印呢?错过的小伙伴别担心,本期小编带领大家回顾第二位嘉宾的精彩分享!
王冠
Machine LearningGDE
/联想智能实验室 ML 专家
讲师个人介绍:北京大学学士,香港科技大学硕士,先后于香港应用科技研究院、联想机器智能实验室及瑞士再保险数据科学团队从事机器学习、计算机图像与自然语言处理的研发工作,发表过数篇相关国际期刊论文和专利。当前研究方向为人工智能在金融领域的应用。
在AI专场,王冠老师带来了主题为《谷歌ResponsibleAI的探索与实》的内容分享。
王冠老师从人工智能会给我们带来的挑战切入主题,对于这些挑战我们有哪些原则可以应对,以及实际工程中我们使用的流程工具和实践方法,最后介绍了在保险模式以及 ResponsibleAI的情景之下会产生哪些变革。
人工智能所能完成的任务日趋复杂化,为人们的生活带来许多便利,同时,也产生了一些意想不到的问题。比如计算机视觉任务中的政治正确问题,比如NLP 技术用于 Twitter数据集时体现的言语不当问题,以及即使是传统机器学习方法也会遇到的种族歧视问题。人工智能的挑战不仅是数据的问题,同样还有数据安全等等,从数据的训练、建模、系统等整个环节都需要小心的处理。为了应对这些挑战,Responsible AI 会针对不同的系统,使用不同的原则,比如新加坡金管局所采用的FEAT–Fairness、Ethics、Accountablility、Transparency。
这些原则如何用于构建的机器学习系统里呢?王冠老师从流程、工具、实践方面一一阐述:
1.定义问题
首先考虑机器学习系统的目标群体是什么?其次定义问题时,预测、推荐、决策是和用户体验息息相关的,这也就要求研发初期需要广泛和多样的用户需求调研。
2.构建和准备数据
需要考虑数据是否有广泛代表性?数据是否包含真实世界中的人为偏见?并对数据进行合适的处理。
3.构建和训练模型
如何训练我的模型,使其公平、可解释,而且安全和保护隐私,从 TF Privacy、TFFederated、TFConstrained Optimaization、TFLattice 等等工具,王冠老师分别进行了介绍。
4.评测模型
指标包括不同用户、场景、使用方法中模型的使用体验,包括可解释性、公平性,以及生产环境中的持续更新,在这方面王冠老师带领我们了解了Fairness Indicators、TF Model Analysis、What-If Tool、Explainable AI、TFPrivacyTests、 Fair Learn等的使用。
5.模型部署和监测
模式是否有复杂的数据模型反馈环?老师围绕 ModelCard Toolkit介绍了方法。
最后介绍了保险模式的变革,从18世纪、18世纪至今(精算师)、未来(机器学习)三个阶段来介绍保险行业存在的风险以及人工智能为保险能带来的更精准更根本的公平性!
感谢王冠老师的精彩分享!想了解其他嘉宾在 DevFest 2020 当天分享内容?请持续关注微信公众号【GDG】和B 站 up 主【上海 GDG】,获取最新录播或内容总结信息。
本期嘉宾 B 站录播请戳👇
上海 DevFest 2020 往期嘉宾实录总结👇:
【DevFest 2020】嘉宾实录总结:《如何透过TensorFlow建构负责任的AI系统》by Jerry Wu|AI专场
上海 DevFest 2020 往期活动总结👇:
1.【DevFest 2020】Flutter & Web 专场之夜总结来啦!
2.【DevFest 2020】一文回顾精彩瞬间!在上海 DevFest 2020,留下你的脚印了吗?
DevFest 意犹未尽?想学更多 AI 相关的技能?大把机会!12月5日星期六下午14:00 - 16:25,三位 AI 工程师将带领大家学习 AI工程化的相关知识。更有精美大礼等你拿!
详情阅读👇: