- 博客(19)
- 收藏
- 关注
原创 Python静态web服务器
所以我们应新建一个html文件,用with open来打开读取文件。3.打开浏览器输入ip地址与服务器端口号我们就会得到一个写有您好的网页。2.将response数据编写成http响应报文数据,此时我们只需要在建立连接处修改。Web服务器 = TCP服务器(七步走) + HTTP协议(请求、响应)根据http响应报文的格式,我们写入响应行+响应头+空行+响应体。首先我们先了解下http响应报文的格式。1.首先我们创建一个写有您好的html。1.首先编写一个tcp服务端程序。
2024-04-08 22:50:46
202
原创 Scrapy代理
url='' #用于获取代理ip的urlres=requests.get(url) #获取到代理ip地址 183.xxx.xxx.xxxdata='https://'+res.text #因为上面生成的res是一个对象 所以要用.text来得到数值 https://183.xxx.xxx.xxxrequest.meta['proxy']=data #通过meta.[proxy] 将代理ip绑定到该scrapy项目中。
2023-12-29 11:47:39
448
1
原创 Scrapy
可以在终端中输入 scrapy crawl db250 使程序运行,但是使用终端运行不能提取数据,我们可以写一个新的py文件作为程序的入口来进行运行 -o db250.csv 表示输出位csv文件。新建好的项目可在spiders文件中找到,创建好的文件夹和网站尽量不要修改。开始之前我们要先将setting里一些配置进行修改。创建好的db250项目中会自动生成这些内容。item pipelines项目管道。这个博主写的非常详细!downloader下载器。scheduler调度器。创建后目录大致页如下。
2023-12-07 15:47:22
40
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人