- 博客(5)
- 资源 (2)
- 收藏
- 关注
原创 Web前端学习笔记(1
Web前端学习笔记1一、第一个网页第一次接触web前端第一个代码可以试着用记事本逐行敲代码,保存的时候要记着文件名的后缀为.html,保存类型为所有文件,编码选中UTF-8举个栗子:<!Doctype Html><html lang ="en"> <head> <meta charset = "UTF-8"> <!--title是网页标题--> <!-- 注释标签--> &
2022-03-16 17:52:54 906
原创 爬虫和办公自动化(四)
复习:爬虫和办公自动化(三)解析数据:BeautifulSoup("<html>HTML文本</html>“,"html.parser")html.parser:解析器BeautifulSoup对象:find()和find_all()方法:对网页源代码初步筛选find() 返回符合条件的首个数据 返回值是Tag对象find_all() 返回符合条件的所有数据 返回值是Tag对象组成
2020-10-23 22:40:18 480
原创 爬虫和办公自动化(三)
*复习 爬虫和办公自动化(二)*:HTML常见元素:h1 一级标题 <h1>标题</h1>h2 二级标题 <h2>标题2</h2>p 段落标签 <p>这是一个段落</p>a 超链接,用来跳转网页 <a href="a.html">链接</a>img 图片标签,用于展示图片 <img src="pic.jpg"/&g
2020-10-19 21:33:22 439 2
原创 爬虫和办公自动化(二)
爬虫和办公自动化(二)浏览器工作原理:打开网站——寻找网站服务器——返回网站内容爬虫工作原理:寻找网站服务器——处理数据——存储数据res=requests.get(网站地址’) 将服务器的响应结果存到变量res中res.status_code 响应的http状态码res.text 响应内容的字符串形式res.content 响应内容的二进制形式res.encoding 响应内容的编码爬虫的解析和提取:网页的本质是HTML,爬虫要解析的就是HTML。浏览器
2020-10-17 21:20:16 268
原创 爬虫和办公自动化(一)
爬虫和办公自动化(一)请求:在浏览器输入网址(URL)。然后浏览器去访问该网址对应的服务器,这个过程叫 请求响应:服务器将网站内容发送给浏览器,这个过程叫 响应(response)。爬虫的三个步骤:1.获取数据,爬虫会根据我们提供的网址,向服务器发起请求获取数据;2.处理数据,对获取的数据进行处理,得到我们需要的部分;3.存储数据,将处理后的数据保存起来,便于后续的使用和分析等。爬虫最常用的发起请求的第三方库:requestsrequests.get()方法获取数据 使用requests
2020-10-16 22:25:33 981 1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人