linux小白充电找不到USB?-----盘TA!

Q1:

server启动报Starting rabbitmq-server (via systemctl):  Job for rabbitmq-server.service failed. See 'systemctl status rabbitmq-server.service' and 'journalctl -xn' for details. [FAILED]

尝试下面的操作:

禁用 SELinux ,修改 /etc/selinux/config

SELINUX=disabled

修改后重启系统

Q2:

比如安装xxx.rpm包,以relocate 参数进行安装,安装到/opt/temp目录:

rpm -ivh --relocate /=/opt/temp xxx.rpm;

以prefix进行安装:

rpm -ivh --prefix= /opt/temp  xxx.rpm

Q3:mysql初始化密码

只是为了自己测试,不想密码设置得那么复杂,譬如说,我只想设置root的密码为123456。

必须修改两个全局参数:

首先,修改validate_password_policy参数的值

mysql> set global validate_password_policy=0;

Query OK, 0 rows affected (0.00 sec)

validate_password_length(密码长度)参数默认为8,我们修改为1

mysql> set global validate_password_length=1;

Query OK, 0 rows affected (0.00 sec)

完成之后再次执行修改密码语句即可成功

mysql> alter user 'root'@'localhost' identified by 'root';

Query OK, 0 rows affected (0.00 sec)

设置远程主机登录,注意下面的your username 和 your password改成你需要设置的用户和密码

GRANT ALL PRIVILEGES ON *.* TO'your username'@'%' IDENTIFIED BY 'your password' WITH GRANT OPTION;

FLUSH PRIVILEGES ;

Q4:已有用户添加到已有用户组

#usermod[-G][GroupName][UserName]

如果系统中不存在给定的用户或组,你将收到一条错误消息。如果没有得到任何错误,那么用户已经被添加到相应的组中。

usermod -a -G groupname username (把用户添加到这个组,之前所属组不影响)

-G是副组的参数

#usermod-a -G mygroup user1

让我使用 id 命令查看输出。是的,添加成功。

#id user1

uid=1008(user1) gid=1008(user1)groups=1008(user1),1012(mygroup)

Q5:删日志,删除十天前的日志

find  /tmp/  -name "redis*"  -mtime +10 -exec rm -rf {} \;

find  /tmp/  -name "redis*"  -mtime +10 -exec rm -rf {} \;

find  /tmp/  -name "redis*"  -mtime +10 -exec rm -rf {} \;

6:spark  submit参数设置

#参数名称                #含义

--cluster c3prc-hadoop    

#--master MASTER_URL        

#可以是spark://host:port,mesos://host:port,yarn,yarn-cluster,yarn-client,local,local[K],local[*]--deploy-mode DEPLOY_MODE    

#Driver程序运行的地方,client或者cluster--class CLASS_NAME        

#主类名称,含包名--name NAME            

#Application名称--jars JARS                

#Driver依赖的第三方jar包--py-files PY_FILES        

#用逗号隔开的放置在Python应用程序PYTHONPATH上的.zip,.egg,.py文件列表--files FILES                

#用逗号隔开的要放置在每个executor工作目录的文件列表--properties-file? FILE        

#设置应用程序属性的文件路径,默认是conf/spark-defaults.conf--driver-memory MEM        

#Driver程序使用内存大小#--driver-java-options--driver-library-path    Driver程序的库路径--driver-class-path    Driver程序的类路径--executor-memory MEM    #executor内存大小,默认1G#--driver-cores NUM        #Driver程序的使用CPU个数,仅限于Spark standalone模式--supervise                

#失败后是否重启Driver,仅限于Spark standalone模式--total-executor-cores NUM    

#Executor使用的总核数,仅限于Spark standlone、Spark on Mesos模式#--executor-cores NUM        

#每个executor使用的内核数,默认为1,仅限于Spark on Yarn模式--queue QUEUE_NAME        

#提交应用程序给哪个YARN的队列,默认是default队列,仅限于Spark on Yarn模式--num-executors NUM        

#启动的executor数量,默认是2个,仅限于Spark on Yarn模式--archives ARCHIVES        

#仅限于Spark on Yarn模式#输入spark-submit? -h就能得到上面的列表

#通过conf制定spark的config配置

--conf spark.jmx.enable=true--conf spark.file.transferTo=false--conf spark.yarn.executor.memoryOverhead=2048--conf spark.yarn.driver.memoryOverhead=2048

#--conf spark.memory.fraction=0.35--conf spark.serializer=org.apache.spark.serializer.KryoSerializer--conf spark.akka.frameSize=512--conf spark.yarn.jar=hdfs://c3prc-hadoop/tmp/spark-assembly-1.6.1-mdh1.6.1.5-hadoop2.6.0-mdh3.4.2.jar#

#PS:通过传递参数numPartitions指导Spark程序的repartitions操作

Q7:如何查看linux服务器io读写情况

首先 、用top命令查看

top - 16:15:05 up 6 days, 6:25, 2 users, load average: 1.45, 1.77, 2.14

Tasks: 147 total, 1 running, 146 sleeping, 0 stopped, 0 zombie

Cpu(s): 0.2% us, 0.2% sy, 0.0% ni, 86.9% id, 12.6% wa, 0.0% hi, 0.0% si

Mem: 4037872k total, 4003648k used, 34224k free, 5512k buffers

Swap: 7164948k total, 629192k used, 6535756k free, 3511184k cached

查看12.6% wa

IO等待所占用的CPU时间的百分比,高过30%时IO压力高

其次、 用iostat -x 1 10

avg-cpu: %user %nice %sys %iowait %idle

0.00 0.00 0.25 33.46 66.29

Device: rrqm/s wrqm/s r/s w/s rsec/s wsec/s rkB/s wkB/s avgrq-sz avgqu-sz await svctm %util

sda 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

sdb 0.00 1122 17.00 9.00 192.00 9216.00 96.00 4608.00 123.79 137.23 1033.43 13.17 100.10

sdc 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00 0.00

查看%util 100.10 %idle 66.29

如果 %util 接近 100%,说明产生的I/O请求太多,I/O系统已经满负荷,该磁盘可能存在瓶颈。

idle小于70% IO压力就较大了,一般读取速度有较多的wait.

同时可以结合vmstat 查看查看b参数(等待资源的进程数)

vmstat -1

如果你想对硬盘做一个IO负荷的压力测试可以用如下命令

time dd if=/dev/zero bs=1M count=2048 of=direct_2G

此命令为在当前目录下新建一个2G的文件

我们在新建文件夹的同时来测试IO的负荷情况

Q8:hbase无法启动,是因为集群时间设置不一致导致的,大部分hbase集群异常都可以先看集群时间

只需要执行一下这条命令即可同步国际时间:

/usr/sbin/ntpdate tick.ucla.edu tock.gpsclock.com ntp.nasa.gov timekeeper.isi.edu usno.pa-x.dec.com;/sbin/hwclock --systohc > /dev/null

Q9:

ssh登陆密钥是用户下的.ssh/id_rsa,公钥是.ssh/id_rsa.pub,但是已经建立过连接的连接方式会取.ssh/known_host,必须删除这个文件下的哪个ip访问记录才能重新根据情况建立免密连接,其他连接也是如此。

Q10:apache大部分安装包官方镜像地址

http://mirror.bit.edu.cn/apache/

 

Q11:免密登陆

ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

chmod 600 ~/.ssh/authorized_keys

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值