流年似水 启航2019

        凌晨1点无意间看到一个演讲视频《感谢你给我机会上场》,很久之前的一个演讲视频,看完除了羡慕还是羡慕吧,也许就是一句话吧,开挂的人生不需要解释。30多年的生活他做了很多事,也做成了很多事。他说自己惜命,然而他不断取尝试不计成本的事情,而不是去养生;他说他做事、工作、开公司不为钱,不为名,不为权,仅仅因为自己感兴趣;他好好的工作说辞就辞,因为他看到了工作的尽头,而他要每天都是未知的明天......细想自己似乎也有很多的兴趣:摄影、读书、古文、乐器、舞蹈、书法、轮滑、写作......多的有的都已忘记,曾经很珍视的东西现在心早已不在。每天的日子除了上班,加班、吃饭、休息。也许兴趣早已跪给了生活,麻木的一年丢掉了很多。正如自己多年前曾给自己写的一句话:似水的流年,你想留下什么?你又留下了什么?

       匆匆岁月,毕业已有两年多了。翻阅这2017年1月写的那篇《2016晚安 2017你好》回想着刚毕业时迷茫但又激情的生活,北漂的日子很难,但是却现在多了更多的充实。每天上班下班4小时赶地铁公交的日子,从未抱怨过什么。每天加班也没感觉有什么不可的......两年后今天生活抹平了很多的棱角。2019了虽然总结立flag不知道有没有什么用,还是接着2017年把2年来的日子总结下。算是一个对自己一个新的开始,2019希望自己在路上永不停步...

过去

        2017年因为一些原因结束了北漂的生活,离开北京的时候有不甘,更有更多的不舍。去北京是偶然没想到离开时也是那么的没有准备。当天中午办理辞职,下班回去匆忙收拾东西,晚上赶车就这样离开了没有告别,没有回首。离开后的日子匆匆忙忙的几个月就过去了,忘却了做了什么,忘却了自己想要什么,每个最多的时候就是一个人不知道该做什么。似乎记得王者永耀从不会玩到了钻石,后来也懒得玩了。中间好像也学了python在一些平台试着写了十几篇文章,然后又没有了然后......那段盲目的日子感觉整个人差点抑郁了,不知道自己真的想要什么......

迷茫的日子随拍
迷茫日子的随拍

        最终2017年将近年底我自己选择了离开,回到了我外出寻梦的起点--天津。对于这座城市有着太多的回忆,除了熟悉的母校熟悉的朋友,也有回来之后不知道做什么的迷茫。2018年1月1日在母校我给自己找到了一个目标,第一个五年。匆匆一年又过去了,唯一坚持也许就是每天都有记录吧,虽然很多时候都是简简单单的几个字。这一年做回了后端开发,自己学习了大数据生态中的一些技术,坚持独立的代码练习也上传到了github,接触了很多的新技术,算是承担了一段时间的开发经理的工作(虽然没有任命)。中间也换了一次工作,走进了一个完全陌生的行业,开始了不同以往的工作方式,有困难告诉自己是: 我可以学而不再是简单的我不会。

第一个五年

启航

        2018年12月30日,我踏上了去上海的列车--上海跨年,算是给自己2018一次游玩,也是给2019一个新的开始。下了车看到了2018年的第一场也是最后一场雪。见了多年没见的高中同桌,也见了大学的形影不离的好朋友,看了上海外滩,话不多却很温暖。

外滩
上海外滩

         2019年1月1日我坐上了从上海回天津的列车,2019年的开始我选择了在路上。2018年就如列车驶过的风景留在了身后。2019希望我们就入前行的列车,想做什么就去付诸行动,不再犹豫,一路前行,永不止步......

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
你好!对于hadoop的安装与配置,以下是一般的步骤: 1. 下载Hadoop安装包:你可以从Apache Hadoop官方网站(https://hadoop.apache.org)下载最新版本的Hadoop安装包。 2. 解压安装包:将下载的安装包解压到你想要安装Hadoop的目录。 3. 配置环境变量:编辑你的环境变量文件(如.bashrc或.bash_profile),添加Hadoop的bin目录到PATH环境变量。 4. 配置Hadoop:进入Hadoop的安装目录,找到conf目录。在该目录下,主要需要修改以下几个配置文件: - core-site.xml:配置Hadoop核心参数,如文件系统默认URI、临时目录等。 - hdfs-site.xml:配置HDFS相关参数,如副本数量、数据块大小等。 - mapred-site.xml:配置MapReduce相关参数,如任务跟踪器和任务调度器等。 - yarn-site.xml:配置YARN相关参数,如资源管理器、节点管理器等。 5. 配置主机文件:在Hadoop的conf目录下,创建一个名为"slaves"(没有扩展名)的文件,并在该文件中列出所有的主机名或IP地址,每行一个。 6. 格式化HDFS:在Hadoop安装目录下执行命令 `bin/hdfs namenode -format`,这将格式化HDFS的名称节点。 7. 启动Hadoop集群:执行命令 `sbin/start-dfs.sh` 启动HDFS,执行命令 `sbin/start-yarn.sh` 启动YARN。 这些是简单的概述,实际的安装与配置过程会因不同的操作系统和Hadoop版本而有所差异。在安装过程中,请参考官方文档或网上的教程以获取更详细的指导。祝你成功地安装和配置Hadoop!如果你有任何问题,欢迎继续提问。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值