在跟着老师在学习自然语言处理道路上,时时刻刻提醒自己要好好学习,有一天要出人头地,报答家乡父老😄 。
话不多说,进入正题,我们都知道自然语言处理的前提就是基于大数据的,没有数据还谈什么数据处理呢?所以我自己学习了一下有关的爬虫技术。目前我只是学习了一下基础知识,但是有足够的基础知识就可以完全的爬取大量的数据了,但是这样效率比较慢,可能会做大量重复的工作。所以给大家推荐一个商业爬虫框架scarpy,目前我正在学习,以后会把相关知识放到我的博客中向大家请教学习!
接下来就说一下我的学习总结和相关代码。
爬虫简单可以总结为就是拿到一个网站,然后打开这个网站链接发送请求–>打开链接–>分析链接–>输出你想要的内容。
# -*- encoding:utf-8-*-
from urllib.request import urlopen
from bs4 import BeautifulSoup
import re
#针对https这样的网站
import ssl
ssl._create_default_https_context=ssl._create_unverified_context
#这里是爬取的39健康网上的关于药的一级链接
net="http://ypk.39.net"
#打开链接
html=urlopen(net).read().decode('utf-8')
#分析链接
soup = BeautifulSoup(html,features='lxml')
def net_type_tag():
#筛选自己想要的内容
all_href0 = soup.find_all