python初级:爬虫准备、anaconda安装与Jupyter使用

爬虫准备

编写爬虫离不开requests和BeautifulSoup4
在这里插入图片描述

anaconda安装

下载地址:跳转官网首页,点Download按钮就可以下载
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
打开jupyter,点new,然后选择python3;你以为到这就结束了吗?
在这里插入图片描述
会发现创建失败,原因:没有配置环境!
在这里插入图片描述
在这里插入图片描述
环境配置完成,创建成功,然后就可以开始编程了。
在这里插入图片描述

相关方法

在jupyter中演示如下:

from bs4 import BeautifulSoup
html_sample='\
<html> \
    <body> \
    <h1 id="title">hello world</h1> \
    <a href="#" class="link">This is link1</a> \
    <a href="# link2" class="link">This is link2</a> \
    </body> \
</html>'
soup = BeautifulSoup(html_sample)

在这里插入图片描述

print(soup.text)

print(soup.contents)

print(soup.select('html')[0])

# 标签选取
print(soup.select('h1'))
print(soup.select('h1')[0])
#第一个获取到的是列表,第二个获取到的是字符串

#id选取
print(soup.select('#title'))
print(soup.select('#title')[0])

# 类选取
print(soup.select('.link'))
print(soup.select('.link')[0])
print(soup.select('.link')[1])
实践是一切真理的唯一标准

以小米官网首页,试一试:
在这里插入图片描述
netword清空刷新页面,点开了index.html,可以看到requests method是get,所以复制url,打开jupyter进行以下操作:

import requests
res = requests.get("https://www.mi.com/index.html")
print(res.text)

在这里插入图片描述

  • 1
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值