C++中 16进制转string类型
上次遇到了个坑,先看代码:
#include<iostream>
#include<string>
#include<stdlib.h>
#include<stdio.h>
using namespace std;
int main(void){
int a1=49;
int a2=0x49;
int a3=490049;
int a4=0x490049;
string s1,s2,s3,s4;
s1=a1;
s2=a2;
s3=a3;
s4=a4;
cout << "a1=49————:"<< s1 << endl; //十进制49转为ASCII码为1
cout << "a2=0x49————:"<< s2 << endl;//0x49从16进制转二进制再转十进制就是I
cout << "a3=490049————:"<< s3 << endl;//此时是以8进制转成ASCII码
cout << "a4=0x490049————:"<< s4 << endl;
//16转2转10转ASCII
int a5=0x5149;
string s5;
s5=(char *)&a5;
cout << "s5=0x5149————:" << s5 << endl;
/* const char * c5="asd";
cout << c5 << endl;
*/
return 0;
}
- 测试结果:
a1=49————:1
a2=0x49————:I
a3=490049————:A
a4=0x490049————:I
s5=0x5149————:IQ
- 只有s5才完整的取出了0x5149
- 经测试int转成string需要强制转换成char *,因为string类型的操作符重载会将Int类型转换成char->string operator=(char),此时由于是小端机器比如a4的输出结果实际上只取了后面的两个49,因为char类型只保存了后两个byte:49,那现在s5强制被赋值a5的时候强制转换成了char *所以取得0x5149,那么此时是16进制转成二进制再转成int类型对照了ASCII表再次输出则显示IQ