【刚开始写总结,读者如果对我的内容有任何建议欢迎留言反馈,或直接加QQ1172617666,期待交流】
先贴上代码,再详细的写一下在写这些代码的过程中遇到的问题,解决的方法。
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
|
#coding:utf-8
'''
Created on 2014年3月20日
@author: ZSH
'''
import
urllib.request
import
json
from
bs4
import
BeautifulSoup
def
get_year_range(code):
content
=
urllib.request.urlopen(url).read()
soup
=
BeautifulSoup(content)
str1
=
soup.findAll(
'select'
, attrs
=
{
'name'
:
'year'
})
optionSoup
=
str1[
0
]
optionTags
=
optionSoup.findAll(
'option'
)
yearlist
=
[]
for
i
in
range
(
0
,
len
(optionTags)):
yearlist.append(optionTags[i].string)
return
(yearlist)
def
get_data(code):
yearlist
=
get_year_range(code)
for
year
in
range
(
0
,
len
(yearlist)):
for
season
in
range
(
1
,
5
):
try
:
jidu
=
str
(season)
codestr
=
str
(code)
url
=
'http://vip.stock.finance.sina.com.cn/corp/go.php/vMS_MarketHistory/stockid/'
+
codestr
+
'.phtml?year='
+
yearlist[year]
+
'&jidu='
+
jidu
rsp
=
urllib.request.urlopen(url)
html
=
rsp.read()
soup
=
BeautifulSoup(html, from_encoding
=
'GB2312'
)
#tablesoup = soup.getText()
tablesoup
=
soup.find_all(
'table'
, attrs
=
{
'id'
:
'FundHoldSharesTable'
})
d1
=
{}
rows
=
tablesoup[
0
].findAll(
'tr'
)
colume
=
rows[
1
].findAll(
'td'
)
for
row
in
rows[
2
:]:
data
=
row.findAll(
'td'
)
d1.setdefault(colume[
0
].get_text(),[]).append(data[
0
].get_text(strip
=
True
))
d1.setdefault(colume[
1
].get_text(),[]).append(data[
1
].get_text(strip
=
True
))
d1.setdefault(colume[
2
].get_text(),[]).append(data[
2
].get_text(strip
=
True
))
d1.setdefault(colume[
3
].get_text(),[]).append(data[
3
].get_text(strip
=
True
))
d1.setdefault(colume[
4
].get_text(),[]).append(data[
4
].get_text(strip
=
True
))
d1.setdefault(colume[
5
].get_text(),[]).append(data[
5
].get_text(strip
=
True
))
d1.setdefault(colume[
6
].get_text(),[]).append(data[
6
].get_text(strip
=
True
))
encodejson
=
open
(r
'C:\Users\ZSH\Desktop\Python\DATA\ '
+
rows[
0
].get_text(strip
=
True
)
+
yearlist[year]
+
r
'年'
+
jidu
+
r
'季度.json'
,
'w'
)
encodejson.write(json.dumps(d1,ensure_ascii
=
False
))
print
(
'已完成'
+
rows[
0
].get_text(strip
=
True
)
+
yearlist[year]
+
r
'年'
+
jidu
+
r
'季度.json'
)
except
:
print
(
'出现了错误'
)
continue
print
(
'抓取完成!'
)
get_data(
600000
)
|
1,windows下,Python环境的搭建,我的环境是myeclipse+pydev,参考的教程帖子是Python环境搭建 个人觉得myeclipse是个非常强大的编译器,上手较容易。关于Python函数,for 语句等等基本基本语法,我推荐两个文档,一是“Python简明教程”(中文),内容通俗易懂。另一个就是位于C:\Python34\Doc的说明文档。
2,这个脚本用到的第三方模块——beautifulsoup4,也就是from bs4 import BeautifulSoup 这一句代码牵扯到的,这个模块用于从html代码中分析出表格区域,进一步解析出数据。关于beautifulsoup的安装我参考的是Windows平台安装Beautiful Soup 。
3,关于用urllib.request模块实现整个功能的部分,我从这位大哥的博客里学到了好多,他的博客真是超级详细易懂,体贴初学者。博客地址
4,Python字符串“格式化”——也即替换句子中的某一个字符串。Python中与字符串相关的各种操作Python基础教程笔记——使用字符串 中讲的很详细。
5,Python2到Python3的转换,由于字符编码的问题(中文print出来是ascii码),有人建议换到Python3,因为Python3默认是utf-8,Python3.x和Python2.x的区别 这个链接讲了Python2和Python3的区别。