交换变量的三种方式 public class bitTest{ public static void main(String[] args){ int n1=10; int n2=5; System.out.println("n1:"+n1+",n2:"+n2); //方式一:定义临时变量 int temp = n1; n1 = n2; n2 = temp; System.out.println("n1:"+n1+",n2:"+n2); //方式二:好处:不用定义临时变量
Java中逻辑与和短路与的区别(&和&&) public class LogicTest{ public static void main(String[] args){ //逻辑与 boolean b1 = false; int n1 = 10; if(b1 & (n1++>10)){ System.out.println("判断为true"); }else{ System.out.println("判断为false"); } System.out.println("n1:"+n1);//n1
chrome常用设置、使用技巧、快捷键 chrome常用设置、使用技巧、快捷键仅作为个人整理,如果有幸帮到大家更好了标签页和窗口快捷键Ctrl + n 打开新窗口Ctrl + t 打开新的标签页,并跳转到该标签页Ctrl + Shift + t 重新打开最后关闭的标签页,并跳转到该标签页Ctrl + Tab 跳转到下一个打开的标签页Ctrl + Shift + Tab 跳转到上一个打开的标签页Alt + ← 历史记录上一页Alt + → 历史记录下一页Ctrl + w 关闭当前标签页
最多只能有一个类声明为public的。而且要求声明为public的类的类名必须与源文件名相同。 在一个Java源文件中可以声明多个class,但最多只能有一个类声明为public的。而且要求声明为public的类的类名必须与源文件名相同。
爬取深圳市政府数据开放平台 1.官网安装python2.替换参数并保存以下代码3.import jsonimport requestsimport pandas as pddef get_business(i): url = "https://opendata.sz.gov.cn/api/29200_00403601/1/service.xhtml" try: header = { 'Accept': '*/*', 'Accept-Lang
Java变量的分类、自动类型提升和强制类型转换 变量的分类自动类型提升(小变大)基本数据类型之间的运算规则7种数据类型,不包括boolean结论:当容量小的数据类型的变量与容量大的做运算时,结果自动提升为容量大的类型byte、short、char–>int–>long–>float–>double特别地,当byte、short、char三种做运算时,结果为int型强制类型转换(大变小)...
Java中的名称命名规范 Java中的名称命名规范包名:多单词组成时所有字母都小写,例xxxyyyzzz类名、接口名:多单词组成时,所有单词首字母大写,例XxxYyyZzz变量名、方法名:多单词组成时,首字母小写,其余单词首字母大写,例xxxYyyZzz常量名:所有字母都大写。多单词时每个单词用下划线连接XXX_YYY_ZZZ...
复制虚拟机到新机子上centos6 1.vi /etc/udev/rules.d/70-persistent-net.rules // 删除之前的eth0,将eth1改为eth02.ifconfig查看eth1的HWaddr3.vi /etc/sysconfig/network-scripts/ifcfg-eth0//修改HWaddr,并设置静态IP4.reboot5.查看ifconfig和ping
INFO ipc.Client: Retrying connect to server: hadoop103/192.168.1.103:8032. Already tried 1 太久不动hadoop集群,启动时出现这个问题这个问题只有两个可能:1.防火墙2.yarn未启动resourcemanager启动不起来如果不是yarn-site的配置问题,那么还有一个最傻的错误就是,你的yarn装在了另一台机子上!!!!!看自己的yarn-site.xml...
解决hive客户端连接服务端报错“Required field ‘client_protocol‘ is unset! ” 的问题 当用hive客户端去连接服务端时,注意客户端的 hive-jdbc的version 要和hive Server的version要保持一致哦。
Hadoop集群的某一个 datanode 无法启动,错误:All specified directories are failed to load. FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool (Datanode Uuid unassigned) service to master/192.168.200.199:9000. Exiting.修改dfs/dn/current/VERSION文件的clusterID保持一致就可以了
No qualifying bean of type ‘xxx‘ available No qualifying bean of type 'xxx' available看雷神的视频,p11 "yaml配置文件值获取"的时候出现这个错误。我的原因是,bean不和application在同一个包下,自然就扫描不到。正确受这篇博文的启发,配置文件中没有写要扫描的包...