Python爬虫零基础入门教程

文章目录:

一:概论 

二:Python基础

三:爬虫须知

1.流程

1.1 PyCharm方法 

1.2 Anacoda Prompt方法

2.遵守规则

第一种:PyCharm方法 

1.HTTP请求和响应

1.1 相关定义 

1.2 完整的HTTP请求

1.3 完整的HTTP响应

1.4 Requests库

2.HTML

2.1 HTML网页结构

2.2 常用标签

2.3 BeautifulSoup库

3.实战 从豆瓣获取电影Top250

3.1 完整代码 

3.2 运行结果

第二种:Anacoda Prompt方法

1.数据获取


参考:Python+爬虫python数据分析教程200集(30小时)

一:概论 

概括:批量化、自动化、既有数据


分类
    聚焦爬虫:完成某一项特点数据的采集
    通用爬虫:声明内容都采集,都存下来
    增量爬虫:既可以是聚焦爬虫 也可以是通用爬虫
              当内容发生变化的时候,它可以增量的获取内容
    暗网爬虫:既可以是聚焦爬虫 也可以是通用爬虫 还可以是增量爬虫
              深网爬虫


了解爬虫的实现原理
    直接使用代码去控制终端:App 浏览器
    使用代码自己去发送请求
    C/B模型    
        使用代码去控制C、B,请求指定的数据
        分析C、B是如何发送的请求,使用代码自己去实现请求的发送

二:Python基础

Python快速入门教程

三:爬虫须知

1.流程

1.1 PyCharm方法 

第一步:获取网页内容(Requests库发送HTTP请求)

第二步:解析网页内容(BeautifulSoup库获取HTML网页结构内容信息)

第三步:储存(数据库) 或 得到更多信息(数据分析)

1.2 Anacoda Prompt方法

语言基础:Python语言基础
数据获取:爬虫全套视频
数据存储:MySQL
数据处理:NumPy、Pandas
数据可视化:Matplotlib、PyEcharts

 语言环境工具(Anaconda Prompt):Anaconda | The World’s Most Popular Data Science Platform

先注册账号
Anaconda Prompt输入(系统会自动打开一个网页):jupyter notebook

切换路径:cd..


快捷键
    查看所有快捷键:h

    编辑状态切换——>未编辑状态:esc
    未编辑状态——>编辑状态:enter

    代码格式——>笔记模式:m
    笔记模式——>代码格式:y

    执行代码
        创建空白行:alt + enter    
        向下选择:shift + enter    
        常用:ctrl + enter

2.遵守规则

1.不要爬取公民隐私数据

2.不要爬取受著作权保护的内容

3.不要爬取国家事务国防建设和尖端技术领域
4.请求数量和频率不能过高:否则可能无异于DDos攻击

5.有反扒限制就不要去爬取了:需要登录、验证码

6.查看网站的robots.txt文件:了解可爬取的网页路径范围

第一种:PyCharm方法 

1.HTTP请求和响应

1.1 相关定义 

HTTP:超文本传输协议
      客户端和服务器之间的请求响应协议



请求方法
    Get:获得数据
    Post:创建数据



接收的响应数据类型
    HTML:text/html
    JSON:application/json
    HTML和JSON:text/html,application/json
    任意类型:/*/



常见的状态码和状态消息
    200 ok                              客户端请求成功
    300 Moved Permanently               重定向资源被永久移动到新地址
    400 Bad Request                     客户端不能被服务器所理解
    401 Unauthorized                    请求未经授权
    403 Forbidden                       服务器拒绝提供服务
    404 Not Found                       请求资源不存在
    500 Internal Server Error           服务器发生不可预期的错误
    503 Server Unavailable              服务器当前不能处理客户端的请求

1.2 完整的HTTP请求

POST请求
    #请求行                        协议版本
    POST/user/info?new_user=true HTTP/1.1
    #请求头  域名             资源路径           查询参数
    Host:www.douban.com/movie/top250?start=75&filter=unwatched
    User-Agent:curl/7.77.0
    Accept:*/*
    #请求体
    {
     "username":"刘鑫磊",
     "email":"123@qq.com"
    }



GET请求
    #请求行
    GET/user/info?new_user=true HTTP/1.1
    #请求头
    Host:www.example.com
    User-Agent:curl/7.77.0
    Accept:*/*

1.3 完整的HTTP响应

#状态行:协议版本 状态码 状态消息
HTTP/1.1 200 OK
#响应头
Date:Fri,27 Jan 2023 02:10:48 GMT
Content-Type:text/html;charset=utf-8
#响应体
<!DOCTYPE html>
    <head><title>首页</title></head>
    <body><h1>刘鑫磊</h1><p>非常棒</p></body>
</html>

1.4 Requests库

#在终端输入(视图——>工具窗口——>终端):pip install requests
import requests

#把爬虫程序伪装成正常的浏览器
#任意网页——>鼠标右键——>检查——>Network——>User-Agent——>复制过来
headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/117.0.0.0 Safari/537.36"}

response=requests.get("https://movie.douban.com/top250",headers=headers)
print(response)
print(response.status_code)
if response.ok:
    # 获取响应体内容
    print(response.text)
else:
    print("请求失败")

2.HTML

2.1 HTML网页结构

<!DOCTYPE HTML>
<html>
    <body>
        <h1>我是标题</h1>
        <p>我是一段文字</p>
    </body>
</html>

2.2 常用标签

标题:<h1></h1>


文本段落:<p></p>


换行:<br>


图片:<img src="图片链接">


链接:<a href="链接地址" target="_self"></a>       target="_blank"


容器:<span></span>                               内联元素不会独占一块,一行可写多个
盒子:<div></div>                                 块级


有序列表:<ol><li></li></ol>
无序列表:<ul><li></li></ul>


表格
    <table>
        <thead>                 #头部
            <tr>                #行
                <td></td>       #列
            </tr>
        <thead>
        <tbody>                 #主体
            <tr>                # 行
                <td></td>       # 列
            </tr>
        </tbody>
    </table>


class属性:定义元素的类名称,帮助我们分组
    class="content"     class="review"

例子:“1.html”文件 

<!DOCTYPE html>
<html>
	<head>
		<title>我是标题</title>
	</head>
	<body>
		<h1>我是一级标题</h1>
		<h2>我是二级标题</h2>
		<h6>我是六级标题</h6>

		<p>我是文本段落</p>
		<br>
		<b>加粗字体</b>
		<i>斜体</i>
		<u>下划线</u>
			
		<img src="图片链接">
		<a href="https://www.baidu.com" target="_self">百度链接</a>

		<div style="background-color:red"></div>
		<span></span> 

		<ol>
			<li>我是第一项</li>
			<li>我是第二项</li>
		</ol>
		<ul>
			<li>我是第一项</li>
			<li>我是第二项</li>
		</ul>

		 <table border="1">
        			<thead>                 
          				 <tr>               
                				<td>头部1</td>      
              					<td>头部2</td> 
           				 </tr>
        			<thead>
        			<tbody>           
            				<tr>    
               					 <td>111</td>     
              					 <td>222</td> 
           				 </tr>
        			</tbody>
   		 </table>
	</body>
</html>

2.3 BeautifulSoup库

# pip install bs4
from bs4 import BeautifulSoup
import requests

content = requests.get("http://www.example.com/").text
soup=BeautifulSoup(content,"html.parser")                        #解析内容,指定解析器(解析成树状结构)

print(soup.p)




#举例    p标签内容
all_prices=soup.find_all("p",attrs={"class":"price_color"})      #p标签,类:类名
for price in all_prices:
    print(price.string[2:])                                      #会把标签包围的文章显示出来  [2:]大于等于2


#举例    h3里面的a标签内容
all_titles=soup.find_all("h3")
for titel in all_titles:
    all_links=titel.find_all("a")
    for link in all_links:
        print(link.string)

3.实战 从豆瓣获取电影Top250

3.1 完整代码 

#pip install requests
import requests
# pip install bs4
from bs4 import BeautifulSoup


#把爬虫程序伪装成正常的浏览器
#任意网页——>鼠标右键——>检查——>Network——>User-Agent——>复制过来
headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/117.0.0.0 Safari/537.36"}

for strat_num in range(0,250,25):   #每页有25个电影
    #print(strat_num)
    response = requests.get(f"https://movie.douban.com/top250?start={strat_num}", headers=headers)  # 地址
    html = response.text
    soup = BeautifulSoup(html, "html.parser")  # 获取网页结构内容
    all_titles = soup.findAll("span", attrs={"class": "title"})  # span标签 的里面类class=title
    for title in all_titles:
        # print(title.string)
        title_string = title.string
        if "/" not in title_string:  # 不带斜杠的中文名字
            print(title.string)

3.2 运行结果

G:\python\class1\venv\Scripts\python.exe G:\python\class1\demo1.py 
肖申克的救赎
霸王别姬
阿甘正传
泰坦尼克号
这个杀手不太冷
千与千寻
美丽人生
星际穿越
辛德勒的名单
盗梦空间
楚门的世界
忠犬八公的故事
海上钢琴师
三傻大闹宝莱坞
放牛班的春天
机器人总动员
疯狂动物城
无间道
控方证人
大话西游之大圣娶亲
熔炉
教父
触不可及
当幸福来敲门
末代皇帝
寻梦环游记
龙猫
怦然心动
活着
蝙蝠侠:黑暗骑士
哈利·波特与魔法石
指环王3:王者无敌
我不是药神
乱世佳人
飞屋环游记
素媛
哈尔的移动城堡
十二怒汉
何以为家
摔跤吧!爸爸
让子弹飞
猫鼠游戏
天空之城
鬼子来了
少年派的奇幻漂流
海蒂和爷爷
钢琴家
大话西游之月光宝盒
指环王2:双塔奇兵
闻香识女人

第二种:Anacoda Prompt方法

1.数据获取Selenium环境

若报错查看:Selenium安装WebDriver最新Chrome驱动(含116/117/118/119) 

安装环境:在SeleniumLearn.ipynb里面运行
    !pip install selenium


chromedriver
    这里需要查看对应的版本进行下载
        地址1:http://npm.taobao.org/mirrors/chromedriver/
        地址2:https://googlechromelabs.github.io/chrome-for-testing/

    放置地方
        地方1(举例自己电脑)    :“C:\1.数据获取Selenium环境”路径里面
        地方2(需要配置环境变量):“C:\Users\16615\AppData\Local\Google\Chrome\Application”路径里面

    测试
        from selenium import webdriver
        driver = webdriver.Chrome()
    例子
        url = "https://www.xinpianchang.com/discover/article-0-0-all-all-0-0-hot"
        driver.get(url)
        driver.close()

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

刘鑫磊up

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值