【python爬虫】尝试爬取-获取网站的编码信息(未完)

16 篇文章 0 订阅
5 篇文章 0 订阅

参考:http://blog.csdn.net/ajinglingmofashi/article/details/53611168


>>> import urllib.request

>>> shenda = urllib.request.urlopen(url)
>>> shenda = "http://zsb.szu.edu.cn/"
>>> page = urllib.request.urlopen(shenda)

>>> from bs4 import BeautifulSoup

>>> soup = BeautifulSoup(page,"lxml")

>>> print(soup.prettify())


----------------------------------------------

>>> import re
>>> import requests
>>> r = requests.get(shenda)
>>> html = r.text
>>> j = 1
>>> title = re.findall(r'\raw_title\"\:\".*?"',html)

>>> price = re.findall(r'"view_price\"\:\"[\d\.]*\"',html)

---------------------------------------------


--------------------------------------------

---------------------------


获取网站的编码信息:参考:https://bbs.csdn.net/topics/390774501

--------------------------

参考:http://blog.csdn.net/f156207495/article/details/78074240

BeautifulSoup中的.text方法和get_text()方法的区别

-----------------------------------

参考:http://blog.csdn.net/my_precious/article/details/52948362

用Python的Lxml库抓取网页内容


-----------------------------------


参考:https://www.cnblogs.com/gopythoner/p/6390381.html

BeautifulSoup4----利用find_all和get方法来获取信息

------------------------------------------------------------------------------------


------------------------


--------------------------------------------------


-------------------------------------------------


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值