<人物专访>
做了几年JAVA了,前端后端都做过些项目,最近公司准备上马一个大数据项目,让我来负责,一方面因为我对大数据正好有兴趣,一直找不到机会学习(没有动力啊~),这次机会算是撞上了。
但另一方面,其实我的大数据经验只是在虚拟机/aws和openstack上搭建word count的水平上,基本算是0基础起步。虽然我自信JAVA基础还行,但在自学大数据途中我发现,大数据实在太庞大了,各个组件够你吃一壶了:hadoop、spark、Kafka、storm、flume、flink等,而且网上的素材往往呈碎片化,偏向理论,没有太多实操空间,走了很多弯路。
不过在这次学习过程中,我也有些感想,想分享给大家。
首先,怎么判断一个技术是不是值得学:
以往我在学习一种新技术的时候,往往会先花5分钟去了解这个技术是大致干什么的,然后花30分钟去读下文档了解下应用场景,最后花2个小时做个demo,这就足够了。
如果这个技术后期在工作中用到,那么再捡起来不难,如果技术被革新了那之前花费的沉没成本也不高。从市场环境看,大数据明显属于前者,大数据和人工智能都是最近比较火的职业,岗位工资溢价也比较多,薪酬在40万~60万元之间。
30岁是一个十分繁忙的年龄,特别是在职期间给自己充电。但根据我的经验,由java语言转向大数据比想象中要简单,目前流行的大数据Hadoop框架,很多部分都是用开源的Java语言编写,一般掌握了Javase就可以比较容易入门大数据。