面试官五星好评(以面试先后顺序):滴滴、鉴智机器人、东软睿驰、哪吒汽车
元戎启行提前批一面:
- AC、A2C、A3C的区别
- off-policy和on-policy
- A*和Dijkstra的区别leetcode
- 机器博弈在自动驾驶的应用并考了个无保护左转场景让你说思路
- apollo规划,对于动态障碍物你是怎么规划轨迹的
- 在实际的强化网络训练中你的经验
- MCTS
- leetcode:多源BFS、打家劫舍带环版本、二分、等概率输出0和1
元戎启行提前批二面:
- 项目相关
- emplace_back和push_back的区别,在输入的是函数的返回值时(如push_back(f(n)))有什么不同。
- c++单例模式,参考,怎么在全局调用一个类。
- 在对抗博弈的角度如何进行自动驾驶的规划
- 父类子类的构造顺序,map和unordermap的底层。map的内部实现是二叉平衡树(红黑树,因为需要排序); hash_map内部是一个hash_table一般是由一个大vector, vector元素 节点可挂接链表来解决冲突来实现。
- PPO中的KL散度
- 改编的蛇梯棋
- 洛谷题库 海滩防御
元戎启行提前批三面(主管面)
- 项目自我介绍
- 如果强化网络输入的数据类型很多,怎么编码,多模态感知?
- deepstack
- 反问
百度自动驾驶提前批1.自我介绍
- apollo比赛主要改的是planning还是?了解frenet坐标系吗?纵轴横轴是什么?参考线是哪个?为什么把笛卡尔改成frenet?你了解到的planning有什么问题,介绍一下路径规划?路径规划怎么解的?什么是二次规划?这个二次项表示什么?
- 介绍一个强化学习的项目,DDPG涉及到的值,奖励的设置?怎么平衡这些奖励?多久给一次奖励?on policy和off polic你怎么区别?你认为你做这个难点在哪?策略的输出是什么?除了奖励还有什么比较难?是否可以应用到实车?你有什么方法可以使训练更稳定?了解贝尔曼期望?是value-based还是policy-based?平台里其他车是固定的还是会有反应的?你为什么不用policy-based?
- 说一下Dijkstra与A*区别?计算复杂度?
- 说一下共享指针weak_ptr什么时候用?主要解决什么问题?std::move什么时候用?static_cast和dynamic_cast区别?
- 代码:每K个一组翻转链表
- 反问:主要方向?
大疆笔试
- 25道选择题
- 包括ROS、LINUX、A星、dijkstra、git、c++、概率、凸优化、排列组合等
AutoX
- 面试官对learning base部分很感兴趣
- 深度学习Out Of Distribution
- 数据增广
- 神经网络输入数据相关性过大怎么办:one-hot,摊开不能挤在一个vector里。
地平线一面
- leetcode 滑动窗口的最大值
- DDPG->D4PG,怎么利用这个分布
- 使劲问项目
- 数值法(二分)求解方程。
- 编码方式
长安汽车综合面
也就15min
1.请用两分钟自我介绍
2.为什么选择长安汽车
3.你印象最深刻的自动驾驶项目经历
4.你本科和研究生学校有啥区别
5.怎么看待互联网和车企的关系
6.怎么看待这个互联网岗位的压力问题