python爬虫学习笔记一

废话不多说,直接上代码:
from selenium import webdriver
from selenium.webdriver.chrome.options import Options

def main():
    chrome_options = Options()
    chrome_options.add_argument('--headless')
    chrome_options.add_argument('--disable-gpu')
    driver = webdriver.Chrome(executable_path='G:/pythonLib/chromedriver.exe', options=chrome_options)
    driver.get("https://www.baidu.com")
    print(driver.page_source)
    driver.save_screenshot(r'baidu_explorer.png')

    driver.close()

if __name__ == '__main__':
    main()

需要安装

另附一段抓取网页中的 图片的代码(转自传送门
from urllib import request
from bs4 import BeautifulSoup
import re
import time

url = "https://www.zhihu.com/question/66313867"
'''
request.urlopen(url)返回的是一个HTTPResposne类型的对象,它主要包含的方法有read()、
readinto()、getheader(name)、getheaders()、fileno()等函数和msg、version、status、reason、debuglevel、closed等属性。
'''
resp = request.urlopen(url)
buff = resp.read()  # 网页内容
print(resp.status)  # 打印请求结果的状态码
html = buff.decode("utf8")
print(html)  # 打印请求到的网页源码
soup = BeautifulSoup(html, 'html.parser')  # 将网页源码构造成BeautifulSoup对象,方便操作
# print(soup.prettify())

# 用Beautiful Soup结合正则表达式来提取包含所有图片链接(img标签中,class=**,以.jpg结尾的链接)的语句
links = soup.find_all('img', "origin_image zh-lightbox-thumb", src=re.compile(r'.jpg$'))
print(links)

# 设置保存图片的路径,否则会保存到程序当前路径
path = r'G:\BeautifulGril'  # 路径前的r是保持字符串原始值的意思,就是说不对其中的符号进行转义
for link in links:
    print(link.attrs['src'])
    # 保存链接并命名,time.time()返回当前时间戳防止命名冲突
    request.urlretrieve(link.attrs['src'], path + '\%s.jpg' % time.time())

urllib和bs4通过pip安装就好了:
pip install urllib
pip install bs4

对其稍作修改,我们根据知乎查询“美女”的返回结果一个个爬取美女图片:
from urllib import request
from bs4 import BeautifulSoup
import re
import time

url = "https://www.zhihu.com/search?type=content&q=%E7%BE%8E%E5%A5%B3"
'''
request.urlopen(url)返回的是一个HTTPResposne类型的对象,它主要包含的方法有read()、
readinto()、getheader(name)、getheaders()、fileno()等函数和msg、version、status、reason、debuglevel、closed等属性。
'''
resp = request.urlopen(url)
buff = resp.read()  # 网页内容
print(resp.status)  # 打印请求结果的状态码
html = buff.decode("utf8")
print(html)  # 打印请求到的网页源码
soup = BeautifulSoup(html, 'html.parser')  # 将网页源码构造成BeautifulSoup对象,方便操作
# print(soup.prettify())
# 提取查询结果中的文章链接,例如:<meta itemprop="url" content="https://www.zhihu.com/question/25509555">
links = soup.find_all('meta', itemprop='url', content=re.compile(r'^https:'))
print(links)

for link in links:
    curUrl = link.attrs['content']
    print(link.attrs['content'])
    curBuff = request.urlopen(curUrl).read()  # 网页内容
    curHtml = curBuff.decode("utf8")
    print(curHtml)  # 打印请求到的网页源码
    curSoup = BeautifulSoup(curHtml, 'html.parser')  # 将网页源码构造成BeautifulSoup对象,方便操作
    # 用Beautiful Soup结合正则表达式来提取包含所有图片链接(img标签中,class=**,以.jpg结尾的链接)的语句
    curlinks = curSoup.find_all('img', "origin_image zh-lightbox-thumb", src=re.compile(r'.jpg$'))
    print(curlinks)

    # 设置保存图片的路径,否则会保存到程序当前路径
    path = r'G:\BeautifulGril'  # 路径前的r是保持字符串原始值的意思,就是说不对其中的符号进行转义
    for jpgLink in curlinks:
        print(jpgLink.attrs['src'])
        # 保存链接并命名,time.time()返回当前时间戳防止命名冲突
        request.urlretrieve(jpgLink.attrs['src'], path + '\%s.jpg' % time.time())

但是翻页数据现在还无法获取,查看了知乎的翻页,它是通过api查询的,返回的json数据,前台进行渲染处理的,这个后面再研究吧。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值