算法训练 二进制数数 JAVA
问题描述
给定L,R。统计[L,R]区间内的所有数在二进制下包含的“1”的个数之和。
如5的二进制为101,包含2个“1”。
输入格式
第一行包含2个数L,R
输出格式
一个数S,表示[L,R]区间内的所有数在二进制下包含的“1”的个数之和。
样例输入
2 3
样例输出
3
数据规模和约定
L<=R<=100000;
import java.util.Scanner;
public class 二进制数数 {
public static void main(String[] args) {
int res=0; //最终结果
// TODO Auto-generated method stub
Scanner sc = new Scanner(System.in);
int n = sc.nextInt();
int m = sc.nextInt();
for(int i=n;i<=m;i++) {
String b = Integer.toBinaryString(i);//将十进制转化成二进制数
res +=geshu(b);
}
System.out.println(res);
}
static int geshu(String b) {//求每个二进制数包含1的个数
int sum=0;//统计个数
for(int i=0;i<b.length();i++) {
if(b.charAt(i)=='1')//将二进制字符串中的每个取出看看是否等于1
sum++ ;
}
return sum;
}
}