2022年薪百万赛道:高性能神经网络与AI芯片应用

e1a462d50353fddc819d5c06e675811d.png

随着大数据的发展,计算机芯片算力的提升,人工智能近两年迎来了新一轮的爆发。而人工智能实现超级算力的核心就是AI芯片。AI芯片也被称为人工智能加速器,即专门用于处理人工智能应用中的大量计算任务的模块。

2020年我国人工智能芯片市场规模约为184亿元。未来5G商用的普及将继续催生人工智能芯片的应用需求,中国人工智能芯片行业将快速发展,预计2023年市场规模将突破千亿元。

那么,如何借助AI芯片来实现特定的任务,将是所有AI芯片产业人员必备的技能。

为此,贪心学院重磅推出《高性能神经网络与AI芯片应用研修课程》,为想进入AI芯片行业的同学们提供一个可以大幅提升自身就业竞争力的选择。

本课程会讲解AI芯片相关知识、高性能网络设计、通用芯片及专用芯片计算加速方法等专业技能,并结合优秀编译器的架构和实现细节的讲解,为学生构建高性能AI算法的软硬件视角,能够解决应用落地时神经网络的优化和部署相关问题。

153b24aa9ea11dae26bcc3a85672df99.png

01

内容亮点

  • 全面技术讲解:课程涵盖了轻量化神经网络设计、神经网络部署前的优化方法、神经网络编译器的设计模式和具体实现、神经网络部署到芯片上的计算加速等全面的AI嵌入式芯片设计和应用相关人员就业必备的知识。

  • 软硬件相结合:本课程除了全面讲解高性能神经网络相关的知识技术外,还会指导学员在硬件上进行实操。

  • 专家导师授课:课程导师为AI芯片行业专家,相关项目经验十分丰富。

02

你将收获

  • 掌握神经网络高性能实现的算法及工具

  • 掌握通用芯片及专用AI芯片架构及网络加速技术

  • 掌握通用芯片及专用AI芯片神经网络部署应用的实际案例

  • 短期内对一个领域有全面的认识,大大节省学习时间

  • 认识一群拥有同样兴趣的人、相互交流、相互学习

感兴趣的请添加咨询顾问

9497b8af6cc6cd4ade0e7f9d097d8ce7.gif

91fdf947703af61d5a103fd2a5d10aba.png

03

项目介绍

▌项目1

项目名称:模型轻量化

项目内容描述:mobilenet、shufflenet、squeezenet等,模型量化、剪枝和蒸馏技术,网络的计算量和内存分析的工具,主干网络的轻量化,检测网络的轻量化,分割网络的轻量化,不同框架提供的加速方案。

项目使用的数据集:COCO,ADE20k,ImageNet

项目使用的算法:模型量化,模型剪枝和模型蒸馏

项目使用的工具:python,c/c++,pytorch,tensorflow,distiller,ncnn

项目预期结果:学员掌握轻量化网络设计准则,模型轻量化技术,能够上手操作一  个网络部署前的优化。

项目对应第几周的课程:1~4周

▌项目2

项目名称:神经网络编译器

项目内容描述:tvm,ncnn,mnn,tnn 各自的特点,对于神经网络的优化方案,tvm的具体设备的优化方案,算子融合,路径优化,内存优化,ncnn的网络的表示数据结构,ncnn的一些优化计算的思路,量化方法,mnn中的数据结构,模型转换和量化方法,tnn和ncnn的区别,系统架构,量化方法。

项目使用的算法:离线量化,在线感知量化

项目使用的工具:python,c/c++,tvm,ncnn,tnn,mnn

项目预期结果:学员对于神经网络编译器有全面的了解,对于主流神经网络编译器能够实践使用,完成模型到芯片所需要格式的转换。

项目对应第几周的课程:5~8周

▌项目3

项目名称:通用芯片加速技术

项目内容描述:cpu,arm对应的指令集级别的加速,编译器中具体的优化策略,simd,avx,sse,openblas,neon和cpu中对于卷积的运算加速方案,cpu上的具体实例,arm上的具体实例,环境配置,神经网络的例子,加速方案的组合和实际效果。

项目使用的算法:simd,avs,sse,blas,winograd

项目使用的工具:nnpack,qnnpack,lowpgemm,tvm,ncnn

项目预期结果:学员深入掌握cpu,arm等芯片的神经网络加速技术,并且通过一个例子来看具体的加速效果 。

项目对应第几周的课程:9~12周

▌项目4

项目名称:专用芯片加速技术 

项目内容描述:gpu和k210 npu及各自神经网络编译器中的加速优化技术,gpu上的cuda加速的方法,cublas,opencl,vulkan的开发例子,nncase上编译一个网络,k210开发板环境配置及人脸检测模型的部署

项目使用的算法:人脸检测

项目使用的工具(编程语言、工具、技术等):Python,C/C++,opencl,vulkan,nncase

项目预期结果:学员可以掌握gpu及npu上神经网络的编译加速,并且通过一个具体的例子来完成人脸检测模型在k210芯片上的部署 。

项目对应第几周的课程:13~16周

感兴趣的请添加咨询顾问

dec9ff769ab4066f6d65bdae7311e128.gif

5fc35d12cc6ee5d605956b6995282902.png

04

详细内容介绍

第一周:轻量化网络结构设计

本节课将讲解网络参数量、浮点运算数等模型评价指标、工具,以及分类网络, 检测网络,分割网络的轻量化设计。

课程提纲:

  • 轻量化网络设计背景介绍

  • 网络的计算量和内存分析工具

  • 主干网络的轻量化

  • 检测网络的轻量化

  • 分割网络的轻量化

  • 典型网络的设计思路

第二周:知识蒸馏优化、低秩分解优化

本节课将讲解神经网络知识蒸馏优化、神经网络计算低秩分解加速计算方法。

课程提纲:

  • 知识蒸馏方法介绍

  • 知识蒸馏原理和步骤介绍

  • 知识蒸馏训练方法缩减网络的实际分类网络演示

  • 低秩分解原理

  • 低秩分解加速计算在神经网络推理中的应用

第三周:网络剪枝

本节课将讲解网络稀疏性原理,网络剪枝原则及剪枝的常见方法。

课程提纲:

  • 网络剪枝的原理

  • 常用的剪枝策略

  • 神经网络框架中的剪枝功能介绍

  • 剪枝的实际使用

第四周:网络量

本节课将讲解网络的低比特化,以及在AI芯片中的计算,实现网络量化的离线和在线感知的量化方法。

课程提纲:

  • 网络量化的技术发展

  • 不同离线量化算法的实现原理

  • 神经网络框架中在线感知量化算法的原理及实现

  • 实际案例

第五周:神经网络编译器简介

本节课将讲解tvm、ncnn、tnn、mnn的简要对比,tvm relay和网络转换,网络的编译优化和推理加速。

课程提纲:

  • tvm、ncnn、tnn、mnn的简要对比

  • tvm relay和网络转换

  • 网络的编译优化和推理加速

  • tvm的实际案例

第六周:ncnn

本节课将讲解ncnn的系统架构图,数据结构,支持的框架,网络的表示,网络优化,量化,以及各平台的优化策略。

课程提纲:

  • ncnn的系统架构图

  • ncnn的数据结构及支持框架

  • ncnn的网络表示

  • ncnn网络优化,量化,及各平台的优化策略

第七周:tnn

本节课将讲解tnn的系统架构图,数据结构,支持的框架,网络的表示,网络优化,量化,以及各平台的优化策略。

课程提纲:

  • tnn的系统架构图

  • tnn的数据结构及支持框架

  • tnn的网络表示

  • tnn网络优化,量化,及各平台的优化策略

第八周:mnn

本节课将讲解mnn的系统架构图,数据结构,支持的框架,网络的表示,网络优化,量化,以及各平台的优化策略。

课程提纲:

  • mnn的系统架构图

  • mnn的数据结构及支持框架

  • mnn的网络表示

  • mnn网络优化,量化,及各平台的优化策略

第九周:cpu中的指令集优化

本节课将讲解cpu中的指令集优化,simd、avx、sse方法,及tvm中对于cpu上神经网络加速的位置。

课程提纲:

  • cpu中的指令集优化:simd,avx,sse方法

  • tvm中对于cpu上神经网络加速的位置

第十周:arm中的神经网络加

本节课将讲解arm中的neon优化,及ncnn,tnn和mnn的实现,并结合实际例子来看具体的加速效果。

课程提纲:

  • arm中的neon优化

  • ncnn,tnn和mnn实现的讲解

  • 具体加速效果的实际案例

第十一周:卷积计算的优化算

本节课将讲解卷积计算的优化算法,包括winograd等。

第十二周:神经网络加速库

本节课将讲解openblas库的优化,nnpack/qnnpack的优化,及lowpgemm。

课程提纲:

  • openblas库的优化

  • nnpack/qnnpack的优化

  • lowpgemm

第十三周:gpu上神经网络的运行和加速

本节课将讲解gpu与cpu计算加速的区别,英伟达gpu的原生cuda加速方法,及推理侧tensorrt的使用。

课程提纲:

  • gpu与cpu计算加速的区别

  • 英伟达gpu的原生cuda加速方法

  • 推理侧tensorrt的使用

第十四周:gpu加速通用加速库

本节课将讲解通用加速库cublas,vulkan,opencl的使用。

课程提纲:

  • 通用加速库cublas的使用

  • Vulkan的使用

  • opencl的使用

第十五周:dsp,fpga,npu专用加速计算

本节课将讲解dsp,fpga,npu的专用加速计算。

课程提纲:

  • dsp计算加速

  • fpga计算加速

  • npu专用加速计算

第十六周:npu使用

本节课将以嘉楠科技的k210为例,实现一个人脸检测案例。

课程提纲:

  • 嘉楠科技k210芯片介绍

  • nncase人脸检测案例

感兴趣的请添加咨询顾问

03b3832569fe2fc07266a358ff8f0e58.gif

4e3fd0ee10efc4de49c17317fe35f1f8.png

05

授课方式

  • 基础知识讲解

  • 前沿论文解读

  • 论文代码复现

  • 该知识内容的实际应用

  • 该知识的项目实战

  • 该方向的知识延伸及未来趋势讲解

06

适合人群

大学生

  • 编程及深度学习基础良好,为了想进入AI芯片行业发展

在职人士

  • 想进入AI芯片行业的算法或IT工程师

  • 想通过掌握硬件技术,拓宽未来职业路径的AI算法工程师

入学基础要求

  • 掌握python、C++开发,及深度学习的基础知识。

07

课程研发及导师团队

f86b6e9fe97e16cd3bdaedb9fd61a67a.png

王欢

肇观科技算法总监

华中科技大学模式识别与人工智能硕士

原拼多多、同盾科技等公司算法工程师,AI算法领域从业15+年

f677d75d3635c6d657a31086ee3c0e02.png

蓝振忠

课程研发顾问

ALBERT模型的第一作者

西湖大学特聘研究员和博士生导师

Google AI实验室科学家

美国卡耐基梅隆大学博士

先后在NIPS, CVPR, ICCV, IJCAI等会议发表30篇以上论文,1000+引用次数

08246e56cb70fa6d717c00c9a0c15006.png

Jerry Yuan

课程研发顾问

美国微软(总部)推荐系统部负责人

美国亚马逊(总部)资深工程师

美国新泽西理工大学博士

14年人工智能, 数字图像处理和推荐系统领域研究和项目经验

先后在AI相关国际会议上发表20篇以上论文

5049cba6451fe7ee3d8b5f9cad90c629.png

李文哲

贪心科技CEO

美国南加州大学博士

曾任独角兽金科集团首席数据科学家、美国亚马逊和高盛的高级工程师

金融行业开创知识图谱做大数据反欺诈的第一人

先后在AAAI、KDD、AISTATS、CHI等国际会议上发表过15篇以上论文

感兴趣的请添加咨询顾问

c1344a72e8a0fb3a12992cb04060c532.gif

5577eb3e94811aa71c573d61125e5911.png

08

历届学员去向

f73f5f77c266476ea295bf1727e0c625.png

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值