写在前面的话:
学习Python有一段时间了,但是一直没有太多的实战,前期的学习主要是看买的电子书 Python学习手册 (额,刚刚看了一下,这边书的电子书居然已?下架,但是我基本确定我买的就是这个,电子书和实体的特点一样:几乎都是同类书中最贵的,当时真的是买的很心痛啊!),看了不到30%,发现这本说还是有点门槛的,于是就看了一些了零基础的视频,还有比较经典的廖雪峰的Python3教程, 还有对应的视频教程哦 (重点:记得赞赏作者廖雪峰啊!)。总之一句话:找了非常多资料,看了一些书。然并卵,心里就是没底,那就实战吧!本文就是实践中遇到的第一个比较棘手的问题,以及解决方案。
问题源码:
#!/usr/bin/env python3 # 对Windows无用,可直接在UNIX内核系统运行(Mac OS, Linux...)
# -*- coding: utf-8 -*- # 告诉调用对象,程序是用UTF-8编码的
import requests # 导入第三方库
from bs4 import BeautifulSoup
def get_BOC_data(url): # 封装为函数
headers = {"User-Agent": "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)",
"Referer": "http://www.boc.cn/"} # 模拟浏览器请求头信息
proxies = {"http": "218.76.106.78:3128"} # 设置代理IP,不稳定,随时可能失效
response = requests.get(url, headers=headers, proxies=proxies) #调用requsts.get()方法
print(response.status_code, "\n", rsponse.url) # 打印状态码以及请求的URL
soup = BeautifulSoup(response.text, "lxml") # 调用BeautifulSoup,解析网页数据
print(soup.prettify()) # 格式化打印soup对象
table_data = soup.select("body div.publish table")[0] #调用soup对象支持CSS selectors
for row in table_data.find_all("tr"): # 直接打印表格数据
for col in row.find_all("td"): # 使用soup最常用的find_all()方法
print(col.string, end="\t")
print("\n")
if __name__ == "__main__": # 好像是测试用的,具体原理暂时没去弄很清楚、
start_url = "http://www.bankofchina.com/sourcedb/ffx/index.html" #初始目标URL
get_BOC_data(start_url) # 调用函数
问题描述:
代码背景说明
我之前呆的公司是做金融数据的,获取数据的方式一般是:爬虫(大量规则的数据)、人工采集(很多数据采集员,采集不规则 或少量或非常重要 的数据)、买。我开始做的就是数据采集员,非常枯燥,但不断学习,后来就做了质检,最后离开的时候数据策划分析员。由于那段经历,我就想学爬虫,提高效率。本次抓取的数据就是当时自己手动复制粘贴过的数据:中国银行远期结售汇牌价。
主要问题:
直接打印的数据出现大量乱码,基本无法使用:
澳大å�©äº�å � AUD äº�个æ�� 521.1877 530.3753 525.7815 2017-03-13
澳大å�©äº�å � AUD å 个æ�� 521.7953 530.9693 526.38