分享下:BAT求职经历 B A not T

 教育背景:      本科、计算机科学与技术
                           研究生、计算机应用技术
                          非211,985
求职方向:JAVA研发工程师、移动开发工程师(安卓)

面试公司:Baidu Alibaba Tencent

面试经历:

 

公司

笔试-面试过程

结果

9.7-14 Alibaba       

未参加笔试  

一面(技术) 

二面(技术)       

三面(HR)

通过

9.16-9.20 Tencent  

未参加笔试

一面(PC客户端C++)

一面(后台研发++)

跪掉

9.21-9.29 Baidu       

 笔试,不理想(后台研发)一面(技术)   

二面(技术)    

三面(技术) 

(四面HR基本没什么)

通过

期间参加其他公司在线笔试

大众点评、网易

跪掉

霸笔:   

360     等了很久HR给了54个霸笔机会

跪掉

 

总结起来: 正常笔试,霸笔,正常面试,霸面都经历过。

 

  不用担心学历,学校好坏,只要你有技术,自学能力超级强,就可挑战下BAT。华为就不说了,绊脚石一块儿。

  阿里巴巴部分

一面

 数据结构,算法,JVMGC,ClassLoader等基本知识,考察基本功。

二面

 项目,实习或者工作经历,算法,考察综合能力。

三面

 看人品,沟通,人际关系等,考察为人处事。

这里建议参考下 阿里巴巴-》陈皓-》CoreShell http://coolshell.cn/articles/1870.html《我是怎么招聘程序员的》,阿里的三面HR很好的践行了这个准则,总体上感觉对技术问的没有Tencent,Baidu 那么难。

通过你自己的讲解,进入放松状态,然后他们会观察你是不是真的有技术,那么牛,进而给你做笔记,阿里面试官会在提问之后,记录你的表现,在后期二面,三面面试官都可以看到,对你进行更深入的了解。

  总体上感觉阿里很人性化,是个好伯乐,招聘的方式很适合有很强代码功底,但是短期内没有看算法,数据结构的人。

腾讯部分

一面

霸面,PC客户端,属于霸面,霸面要有耐心,信心。从两点等到晚上七点多,人差不多搞完了,敲门进入霸面环节。

当然这个时候一定要注意礼貌,问候面试官,不然可能直接被拒绝。被拒绝也不要怕,你就是来找工作的,顶多无功而返,又没啥损失,所以霸面一定要脸皮厚,嘴巴甜,当然技术过硬。

问了很多windows编程,操作系统的知识,基本回答上来,但是面试官看了简历,都是JAVA相关的,还是拒了。

第二次一面

接着收到了再次一面通知的电话(因为在霸面咨询处交了简历,立马就跑上去霸面,所以第二次面试其实是霸面咨询处简历筛选通过),一定要把握每次机会,自己也要尽可能的多争取机会。二面是后台研发,问了很多算法的东西,当然看到简历之后,还是觉得不合适。

其实在这里我已经总结出了问题所在,求职意向不明确,虽然在学校什么都做,但是应聘可不是什么都要,万金油这里不合适。

回去之后改了下简历,方向改为后台研发+移动客户端。

这里说下,其实面试官说岗位不合适的时候,你是有机会找hr调到其他岗位面试的,毕竟到了这里不容易,不能白白浪费,这次就被我浪费了,也没说申请别的面试官,就走了,当然也就跪掉了。

 

百度

一面

霸面,投的是研发工程师,一面的时候面试官说“岗位不合适”,但是态度很好,说简历里面JAVA基础,ssh web基础,有安卓项目经验,适合搞移动开发。

这下明白了,果断找HR姐姐,说面试官建议我换个岗位,还好HR姐姐人很nice,说那你去找移动开发部门的HR。跑到移动开发那边,说了缘由,HR说等等,于是就开始了漫长的等待。

其实早上六点半起来的,八点就到了酒店,九点开始的一面。换了岗位之后,等到下午五点开始移动岗位的一面。

进去的时候HR估计也很疲倦,寒暄一下(感觉这个很重要,程序员都是缺爱的孩纸)。然后开始了一面。一开始就是写算法,纸上写,还好我提前有准备,问了下已经面试的学弟有哪些题目,提前自己做好了,在笔记本上面写了两三遍。而且下午等待的时间,拿出算法书,边看边写代码。如果遇到不太懂的问题一定要谦虚的问下面试官,如果一开始礼貌性的都做了,那么面试官还是比较乐意回答的。中间问道了KMP算法,说了下思想,但是细节记不清,还加了一句:做项目的时候copy的,重复造车轮问题多,效率低。HR深表赞同,后面的气氛也很活跃,问了几个没遇到的算法题目,慢慢写代码,慢慢和HR聊天。有些给了一点提示,要赶快在这个间隙想到答案,否则就废掉了。之前就遇到过这种情况,给了提示没想好,或许当时比较紧张,根本没有去想。所以面试保持冷静非常重要,同时也能表现你的个人修养。面试进行了一个半小时左右,出来天已经黑了。HR比较满意,当然也要注意HR问你有没有什么想知道的,这个一定要提前准备,这个在我白天等待的时候就想好了。一句话:凡事预则立不预则废。

二面

由于学弟冲在前面,所以我基本掌握了面试官的小题库,没有遇到的问题基本也能搞定,所以二面很自然,半个小时不到就搞定了。出了三个算法题,直接写代码,HR让我讲讲思想,我直接说不用了,写代码快一点。后面面试官问我会不会,会就不提问了,然后就直接让去等三面。

三面

三面也是到了晚上,五点半开始。进去之后面试官刚弄完上一个,正在写面试评价,让我在旁边等一下,安静的等了五分钟。然后开始面试,问了几个数据结构和小算法,KO。然后问系统设计方面的,比如某某购票系统,页面PV计数,基本回答上来。在他录入面试信息的时候,我就开始巴拉巴拉说自己做的事情,擅长做什么。等他填完之后,基本了解差不多了,感觉还可以,然后就结束了。

接下来是两天的等待,中间也看群里有人说收到offer,以为自己挂了。后来打电话太晚,没接到,还好晚上能打回去,过了,通知第二天谈offer的事情。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
【5层】公司办公楼全套设计+++(3156平,含计算书、建筑图,结构图、实习报告,PKPM,答辩PPT) 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值