week plan: 2014.12.15-12.21

Conclusion of last week:

1. Learn text process command and tool in Linux-- grep, awk, sed & diff, patch, wc, ed, nano, cat, less, more, view, sort, aspell,head, tail, tac,csplit, join,indent;

Shell Variables, 1)Environment variables, USER, LOGNAME, PATH, HOME, PS1, PS2, SHELL,UID, TERM; 2) Position variables, $0,$1,$2.....; 3)Special variables, $#, $!,$$,$?,$*; 4)User variables....

Shell Array!!!!

test---[ ], -eq,-lt,-gt,ge..., -a,-o,!

if then fi; if then elif ;

case in  ) ...;; *)...;; esac

select

while

until

for

Function Part is not finished yet!!!!

2. configure network service- DHCP, DNS, WEB, SNMP, FTP, Telnet;

some useful command in WIN & Linux--ping, route, nslookup, arp, traceroute, netstat

wireshark, tcpdump;

Network Programming--Not Done

Kali Linux-nmap, metasploit; win--ipscan, brutenet

Recite TCP/UDP/IP

3.

think on google interview problem.

4.

parallel program, design a program with GUI to collect data and transfer to cluster and return the result.

I program in Java with Intellij idea with its visual programming plugin "Swing designer".



this week:

1.Face Projeact. & Chapter 7 Cluster(EM算法彻底掌握,Cluster相关概念真正掌握)

2. Speaking English, Listening.

3. Prepare for interview, practice and mock the precess of interview.

4. Help Do on PS/CV

5. keep doing parallel program.(Java, C++中的statis, virtual, final,finalize,finally)

6. metasploit(TCP/IP协议栈各层含义作用倒背如流)

7. find intern

8.cet-6



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
从引用中可以看出,报错信息中提到了JAVA_HOME未设置或找不到的问题。从引用中可以看到,在slave2节点上执行了命令"echo $JAVA_HOME",结果为空。再从引用中可以看出,在hadoop-daemons.sh脚本中,会调用hadoop-config.sh脚本来设置环境变量,其中包括JAVA_HOME。因此,可以推测在配置文件中没有正确设置JAVA_HOME的路径,导致启动DataNode时出现错误。 至于您提到的"Directory is not readable: D:\tools\Hadoop\hadoop-2.7.7\data\dfs\datanode\current\BP-490180523-172.16.12.21-1692258474572"的问题,这是一个目录不可读的错误。根据错误信息,可能是由于路径中的某个目录没有正确的权限或者文件损坏导致的。您可以检查该路径下的相关目录和文件的权限是否正确,并确保文件没有损坏。 综上所述,解决这两个问题的步骤如下: 1. 在配置文件中正确设置JAVA_HOME的路径,确保该路径存在且正确。 2. 检查"D:\tools\Hadoop\hadoop-2.7.7\data\dfs\datanode\current\BP-490180523-172.16.12.21-1692258474572"路径下的目录和文件的权限,并确保文件没有损坏。 请注意,以上是基于提供的引用内容的推测,具体解决方法可能会因具体环境而有所不同。建议您按照以上步骤来解决问题,并在遇到其他问题时及时查找相关资料或咨询专业人士。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *2* *3* [Hadoop 启动 HDFS DataNode 时报错Error: JAVA_HOME is not set and could not be found.](https://blog.csdn.net/wangbaomi/article/details/108287757)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 100%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值