Archlinux sshd服务启动优化; 默认配置下,网络服务启动30s不到完成,但是sshd要在90 - 110s才可用; 不懂原理,尝试折腾了下,修改文件:/usr/lib/systemd/system/sshd.service将其中的After=network.target这一行注释掉(行首加#)。sshd的启动就飞快了,基本上能ping通,就能ssh上了。 猜想原理:系统启动sshd服务
创建数据库,赋予权限 create database xxdb;GRANT ALL PRIVILEGES ON xxdb.* TO 'username'@'%' IDENTIFIED BY 'passwd' WITH GRANT OPTION;
python安装是 -fPIC问题的解决 尼玛真是头疼。在安装好numpy、scipy、theano后。在python代码中,敲入:import theano,报错如下:[code="error"]Problem occurred during compilation with the command line below:g++ -shared -g -m64 -fPIC -I/usr/local/l...
安装Theano 参考:http://deeplearning.net/software/theano/install.html为了安装python软件方便,先安装pip。安装方法,见google安装Theano的先决条件:1,python 2.6以上;2,BLAS3,numpy(依赖BLAS,虽然没有亦可以安装,但是无法使用BLAS的加速)4,SciPy(依赖BLAS)...
oozie 与jdk 版本 用的oozie-3.1.3jdk从1.6 升级到1.7 就无法启动了。报错如下:2012-11-22 11:13:06,686 INFO HadoopAccessorService:539 - USER[-] GROUP[-] NAME_NODE_WHITELIST :[ ], Total entries :02012-11-22 11:13:06,778 FATAL Servi...
oozie 与jdk 版本 用的oozie-3.1.3jdk从1.6 升级到1.7 就无法启动了。报错如下:2012-11-22 11:13:06,686 INFO HadoopAccessorService:539 - USER[-] GROUP[-] NAME_NODE_WHITELIST :[ ], Total entries :02012-11-22 11:13:06,778 FATAL Servi...
hadoop “no xxxxNode to stop” 问题解决 在使用stop-dfs.sh、stop-mapred.sh、stop-all.sh、hadoop-deame.sh脚本关闭某个服务时,经常汇报:“no xxxxNode to stop”以下是解答http://nourlcn.ownlinux.net/2012/06/no-namenode-to-stop-error-in-hadoop.html[quote]为什么会这...
linux查询网卡相关信息 ethtool ethX查询详细的网卡、网络信息;推荐[quote]Ethtool是用于查询及设置网卡参数的命令。概要:ethtool ethX //查询ethX网口基本设置ethtool –h //显示ethtool的命令帮助(help)ethtool –i ethX //查询ethX网口的相关信息ethtool –d eth...
lvm中物理卷的删除 1,umount相应分区:umount /xxx/xxx/xx2,删除相应的逻辑卷(lv) 可以通过 lvdiplay 命令查看所有逻辑卷信息,然后找到要删除的逻辑卷; 通过 lvremove 逻辑卷名称 来删除逻辑卷。3,将要删除的物理卷对应的PV从VG中移除。 命令是vgreduce vg名称 pv名称 可以通过vgdisplay -v 查看信息。...
安装 alfresco 1,官网下载安装文件:http://wiki.alfresco.com/wiki/Download_and_Install_Alfresco2,然后在linux下运行,[code="shell"]./alfresco-community-4.0.e-installer-linux-x64.bin ---mode text[/code]3,安装过程中,选择高级安装,并不要安装Postgr...
hadoop 2.0.1-alpha上部署 oozie-3.2.0 不知道为什么bin/addwar.sh里面说只支持0.20.x,于是修改这个文件,addhadoopjar函数里面添加内容,修改后的函数为:[code="shell"]#get the list of hadoop jars that will be injected based on the hadoop versionfunction getHadoopJars() {...
hadoop 2.0.1-alpha上部署 oozie-3.2.0 不知道为什么bin/addwar.sh里面说只支持0.20.x,于是修改这个文件,addhadoopjar函数里面添加内容,修改后的函数为:[code="shell"]#get the list of hadoop jars that will be injected based on the hadoop versionfunction getHadoopJars() {...
pig 部署在hadoop 23上 pig-0.10.0版本是支持hadoop 23的。但是需要重新编译pig;编译命令如下:[code="shell"]ant -Dhadoopversion=23[/code]编译好之后,把原来的pig的jar包删了就行。当然了,hadoop的几个环境变量还是要配置的:HADOOP_HOME参考资料:http://hortonworks.com/blog...
yarn执行mr出现的 内存问题 反正就是各种报错,超出内存什么的。涉及到两个配置文件:yarn-site.xml 和 mapred-site.xml;yarn-site.xml主要涉及这两个参数:[code="xml"] yarn.nodemanager.resource.memory-mb 1536 yarn.scheduler.maximum-alloca...
hive在YARN下执行mr任务问题 错误和解决方案都可以参加该链接:http://grokbase.com/p/cloudera/cdh-user/126wqvfwyt/hive-refuses-to-work-with-yarn现象就是,当hive启动mr任务是报错如下:[quote]Error during job, obtaining debugging information...Examinin...
linux用户的uid相关内容 在linux中,用户有用户名,也有uid。uid是一个数字,用来唯一确定某个用户的身份。linux系统中的文件权限实际上是与uid绑定的,而不是表面上看上去的用户名。创建用户时指定uid的方法:[code="shell"]useradd [usernamen] -u [uid][/code]uid必须是数字,必须没有被占用,必须大于等于500,(500以下的uid由...
hadoop 2.0.1 HA配置部署 今天折腾HA,那叫一个顺利啊,我原本准备花一周时间来折腾的,结果今天一天基本搞定,没遇到什么大问题。要写总结,我也不知道写啥了。大致流程罗列一下吧。主要分三步,第一步,弄清楚HA原理架构,这个参考官方文档,说的很清楚。http://hadoop.apache.org/docs/r2.0.0-alpha/hadoop-yarn/hadoop-yarn-site/HDFSH...
编译hbase 在apache上下载的hbase,默认的编译版本是根据hadoop-1.0.3的。需要用其他版本的hadoop的,要对hbase进行重新编译。编译并不难,但是第一次,还是出了很多很多状况。PS:HBase版本:hbase-0.94.1 hadoop版本 2.0.11,下载maven。(hbase是用maven编译的,hadoop用ant)2,hbase的p...
zookeeper 相关纪要 zookeeper安装很简单:1,解压;2,配置zoo.cfg3,设置myid然后就是启动了。具体内容,网上很多,也没什么特别的。需要注意的是:1,myid就是zoo.cfg里面的server.x=ip:A:B中的x。2,如果hbase不管理zookeeper情况下,需要设置hbase-env.sh里面的export HBASE_MANAGES_ZK设置为fal...
fuse=dfs 安装 其实不是那么难,但是各种小问题搞了我一天。1,确认你的机器安装了以下工具,可以通过yum安装:yum install xxxxx[quote]automakeautoconflibtool[/quote]这些工具,是编译hadoop源码是需要用到的。这一点狠狠很重要2,下载,安装ant下载:apache-ant-1.8.4-bin.tar.gz...