python 字典类型中中文不转为unicode格式_Python——字典 Unicode 编码问题

一、目标

今天用 Python 实现了股票数据定向爬虫,目标是获取上交所和深交所所有股票的名称和交易信息。输出保存到文件中。

需要掌握技能: requests 、bs4 、re。

二、算法

网页源代码

使用 chrome 查看源代码,其中可以辅助审查元素功能,快速定位。然后根据源代码查找规律,根据源代码,可以观察到使用正则表达式去匹配它。

网页结构

进入百度股票,随便点进去一个可以查看到规律,如上图, URL 里面的内容跟股票的代码是一样的,我们可以使用*https://gupiao.baidu.com/stock *+ “股票列表代码” +”.html” 去生成 URL。

网页源代码

然后我们抓取里面的内容,即股票名称和每个股票的信息(即包括在《 dd 》《 dt 》标签的内容)。

3.将结果存储到文件。

三、遇到的问题

此处感觉到奔溃,很简单的两个错误,竟然找了我一个小时,本来要去跑步的,没解决这些问题都没去了,内疚ing。所以,就一定要记录一下此刻走过的坑。

第一个坑,就是第一步在爬取的列表中,有些股票数据是现在找不到的了,所以会出现抓取的时候抓取到 None 的情况。刚开始还是以为自己标签树没学好,后面才发现是有 None 的情况。所以在代码中要增加判断是否为空,如果获取的信息为空,就不用再分析下去了。因为增加了 types 的 Nonetype 类型判断,所以要 import types

判断 None

第二个坑是输出保存文件的时候,保存在文件中发现全是 Unicode 编码,还以为是系统编码环境或者 IDE 编码环境没设好,检查了一遍,都设好了。下面是系统编码环境和 IDE 编码环境的设置:

系统与 IDE 编码设置

设置好以后还是不行,后面进行了单步调试,发现,到了数据字典的时候,print函数打印出来的就是 Unicode 格式,所以搜了一下解决方案,才解决了。

首先是 import json 模块,然后再写文件时,把代码改一下,如下图(注释掉的部分是刚开始的代码,上面的即为修改后的代码):

保存文件

四、Python中包含UTF-8编码中文的列表或字典的输出

在 python 下面一个包含中文字符串的列表(list)或字典,直接使用 print 会出现以下的结果:

dict = {"asdf": "我们的python学习"}

print dict

{'asdf': '\xe6\x88\x91\xe4\xbb\xac\xe7\x9a\x84python\xe5\xad\xa6\xe4\xb9\xa0'}

在输出处理好的数据结构的时候很不方便,需要使用以下方法进行输出:

import json

print json.dumps(dict, encoding="UTF-8", ensure_ascii=False)

{"asdf": "我们的python学习"}

注意上面的两个参数

我的经验:要是已经有dict,还好。我是从mongo中拿,所以需要Json.loads,但总是有问题。所以这个方案不适合我。

在学习 dic t的 update 方法时,突然发现,一个更简单的方法

%s 格式化输出

试用了 Unicode 编码转换,发现是行不通的。

测试数据如下:

{u’\u6362\u624b\u7387′: u’1.66%’, u’\u6d41\u901a\u80a1\u672c’: u’26.48\u4ebf’, u’\u632f\u5e45′: u’1.89%’, u’\u5185\u76d8′: u’21.59\u4e07\u624b’, u’\u5916\u76d8′: u’22.47\u4e07\u624b’, u’\u6bcf\u80a1\u51c0\u8d44\u4ea7′: u’3.60′, u’\u6210\u4ea4\u989d’: u’7.07\u4ebf’, u’\u603b\u5e02\u503c’: u’572.89\u4ebf’, u’\u59d4\u6bd4′: u’-6.03%’, u’\u8dcc\u505c’: u’\n 14.32′, ‘\xe8\x82\xa1\xe7\xa5\xa8\xe5\x90\x8d\xe7\xa7\xb0′: u’\u4e1c\u65b9\u8d22\u5bcc’, u’\u6628\u6536′: u’15.91′, u’\u6700\u4f4e’: u’15.85′, u’\u5e02\u51c0\u7387′: u’4.47′, u’\u6700\u9ad8′: u’16.15′, u’\u4eca\u5f00′: u’15.89′, u’\u603b\u80a1\u672c’: u’35.58\u4ebf’, u’\u6d41\u901a\u5e02\u503c’: u’426.37\u4ebf’, u’\u6da8\u505c’: u’17.50′, u’\u6210\u4ea4\u91cf’: u’44.06\u4e07\u624b’, u’\u5e02\u76c8\u7387MRQ’: u’80.26′, u’\u6bcf\u80a1\u6536\u76ca’: u’0.20′, u’\u91cf\u6bd4′: u’1.02′}

测试结果

五、源代码

下面是我写的爬虫代码,如有错误,还望指出,或还能进行改进,希望读者指出进行讨论。

#!/usr/bin/env python

# -*- coding: utf-8 -*-

# @Time : 2017/3/16 19:22

# @Author : zxp

# @Site :

# @File : zxp_CrowBaiduStocks.py

# @Software: PyCharm Community Edition

import requests

import re

from bs4 import BeautifulSoup

import traceback

import types

import json

import sys

reload(sys)

sys.setdefaultencoding('utf-8')

def getHTMLText(url):

try:

r = requests.get(url, timeout=30)

r.raise_for_status()

r.encoding = r.apparent_encoding

return r.text

except:

print("")

def getStockList(lst, stockURL):

html = getHTMLText(stockURL)

soup = BeautifulSoup(html, 'html.parser')

a = soup.find_all('a')

for i in a:

try:

href = i.attrs['href']

lst.append(re.findall(r"[s][hz]\d{6}", href)[0])

except:

continue

def getStockInfo(lst, stockURL, fpath):

for stock in lst:

url = stockURL + stock + ".html"

html = getHTMLText(url)

try:

if html == "":

continue

infoDict = {}

soup = BeautifulSoup(html, 'html.parser')

stockInfo = soup.find('div', {'class':'stock-bets'})

if type(stockInfo) == types.NoneType:

continue

name = stockInfo.find_all('a',{'class':'bets-name'})

name = name[0]

infoDict.update({'股票名称': name.text.split()[0]})

keyList = stockInfo.find_all('dt')

valueList = stockInfo.find_all('dd')

for i in range(len(keyList)):

key = keyList[i].text

val = valueList[i].text

infoDict[key] = val

f = open(fpath, 'a')

try:

f.writelines(str(json.dumps(infoDict, encoding="UTF-8", ensure_ascii=False)) + '\n')

# f.writelines(str(infoDict) + '\n')

finally:

f.close()

except:

traceback.print_exc()

continue

def main():

stock_list_url = 'http://quote.eastmoney.com/stocklist.html'

stock_info_url = 'https://gupiao.baidu.com/stock/'

output_file = 'D://BaiduStockInfo.txt'

slist = []

getStockList(slist, stock_list_url)

getStockInfo(slist, stock_info_url, output_file)

if __name__ == '__main__':

main()

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值