python爬虫基础(这里我自己写了一个基础代码爬取了一下39健康网的两万多的药的数据)

本文介绍了作者在学习自然语言处理过程中,通过Python爬虫技术抓取39健康网两万多药品数据的经验。分享了爬虫的基础知识,包括发送请求、解析链接和提取所需内容的流程。作者推荐使用Scrapy框架进行更高效的爬虫,并提供了爬取二级链接的代码示例。最后,作者鼓励读者留言交流,共享学习成果。
摘要由CSDN通过智能技术生成

       在跟着老师在学习自然语言处理道路上,时时刻刻提醒自己要好好学习,有一天要出人头地,报答家乡父老😄 。
       话不多说,进入正题,我们都知道自然语言处理的前提就是基于大数据的,没有数据还谈什么数据处理呢?所以我自己学习了一下有关的爬虫技术。目前我只是学习了一下基础知识,但是有足够的基础知识就可以完全的爬取大量的数据了,但是这样效率比较慢,可能会做大量重复的工作。所以给大家推荐一个商业爬虫框架scarpy,目前我正在学习,以后会把相关知识放到我的博客中向大家请教学习!
       接下来就说一下我的学习总结和相关代码。
       爬虫简单可以总结为就是拿到一个网站,然后打开这个网站链接发送请求–>打开链接–>分析链接–>输出你想要的内容。

# -*- encoding:utf-8-*-
from urllib.request import urlopen
from bs4 import BeautifulSoup
import re
#针对https这样的网站
import ssl
ssl._create_default_https_context=ssl._create_unverified_context
#这里是爬取的39健康网上的关于药的一级链接
net="http://ypk.39.net"
#打开链接
html=urlopen(net).read().decode('utf-8')
#分析链接
soup = BeautifulSoup(html,features='lxml')
def net_type_tag():
#筛选自己想要的内容
    all_href0 = soup.find_all
  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 20
    评论
评论 20
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值