自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(55)
  • 收藏
  • 关注

原创 Python学习笔记-数采程序常见的连接错误

数采程序错误思维导图。

2024-04-28 15:51:50 76 1

原创 Python学习笔记-Flask接收post请求数据并存储数据库

`mysql+pymysql`:指定了使用 `pymysql` 作为连接 MySQL 的驱动。* `root`:数据库的用户名。* `localhost`:数据库服务器的地址,这里是本地机器。* `3306`:数据库服务器的端口,MySQL 默认端口是 3306。* `db1`:要连接的数据库名。实例(这是一个 SQLAlchemy 模型,代表数据库中的一个记录),并使用从 JSON 数据中提取的值初始化它。然后,将这个新记录添加到 SQLAlchemy 的会话中,并提交会话,将新记录保存到数据库中。

2024-04-03 10:33:43 911 1

原创 Python学习笔记-Flask接口创建与测试

6.编写index.html,form表单,发送post请求到路由地址/templates/search。requests` 是一个常用的 Python HTTP 客户端库,用于发送所有类型的 HTTP 请求。通常,这样的数据在发送 POST 请求时会放在请求的 body 中。注意:输入接口地址要与定义的路由地址一致,否则会出现无法找到请求的url。,GET请求返回的页面,输入框上输入数据,服务端返回输入框的内容。5.运行请求代码发送POST请求,得到后端返回json数据。3.定义要发送的数据。

2024-04-01 13:00:00 235

原创 Python学习笔记-简单案例实现多进程与多线程

多进程和多线程各有优劣,选择哪种方式取决于具体的应用场景和需求。对于 CPU 密集型任务,通常使用多进程;对于 I/O 密集型任务或需要共享数据的场景,多线程可能更合适。在实际开发中,还可以考虑使用进程池和线程池来管理和控制并发数量,以提高系统的稳定性和性能。

2024-03-29 13:45:20 571

原创 Python学习笔记-Flask实现简单的投票程序

6.创建index.html。1.导入flask包。7.python源码。

2024-03-13 11:26:31 893

原创 Python学习笔记-Flask实现简单的抽奖程序(增加图片显示)

4.在点击随机抽取后,可以获得名称,然后使用img标签,将获取的名称拼接到路径中。3.html中可以编写python语句,遍历hero列表内容渲染到表格中。3.初始页面,访问127.0.0.1:5000/index。1.创建static文件夹,存放图片文件。2.hero列表数据更改为要抽奖的图片名。5.python源码。

2024-03-08 16:45:00 578

原创 Python学习笔记-Flask实现简单的抽奖程序

hero = ['黑暗之女','狂战士','正义巨像','卡牌大师','德邦总管','无畏战车','诡术妖姬','猩红收割者','远古恐惧','正义天使','无极剑圣','牛头酋长','符文法师','亡灵战神','战争女神','众星之子']是随机选择的英雄的索引)。然后,它将整个英雄列表和随机选择的英雄一起传递给。函数从英雄列表中随机选择一个英雄(模板,并将英雄列表传递给模板。

2024-03-07 18:45:00 735 1

原创 爬虫学习笔记-requests爬取王者荣耀皮肤图片

对应的目录不存在,代码会创建这个目录。这是为了将下载的皮肤图片保存到正确的位置。5.为每个皮肤名称发起一个HTTP GET请求,从指定的URL下载图片。# hero_list_url请求时得到的英雄列表json文件。print(f'已下载:{cname}的{n}皮肤')下载的图片被保存到之前创建的目录中,文件名是皮肤的名称。4.遍历响应的json文件列表,如果英雄的中文名称(是动态部分,分别代表英雄的英文名称和皮肤的序号,

2024-03-06 18:30:00 827

原创 爬虫学习笔记-requests爬取NBA得分榜

f.write(f'{num} {name} {team} {score}\n') #f'变量'1.导入requests库,用于请求获取URL位置的资源。7.解析响应的数据,确定XML文档中某部分位置的语言。2.导入lxml库,解析及生成xml和html文件。6.处理结果,解析字符串格式的HTML文档对象。5.发送请求,获取html代码。3.定义发送请求的地址。8. 保存到txt中。

2024-03-05 16:57:39 653

原创 Python采集学习笔记-request的get请求和post请求

使用http://httpbin.org测试,一个简单的 HTTP 请求和响应服务。4.测试post请求,json传参。3.测试post请求,字典传参。5.测试post请求,文件传参。1.导入requests包。

2024-03-04 15:58:58 944

原创 Django学习笔记-django对数据进行比较排除限制数量查询

将modellist对象传递到show.html渲染展示。3.编辑view中的find的POST请求方式。4.获取sign,aging,name,cnt。1.编辑index页面。

2024-03-01 09:31:58 534

原创 Django学习笔记-查询及修改MySQL数据库表的所有信息

9.如果请求方式为POST,获取code,aging,gdp,population,code用于确定修改的行数据,使用models.PopulationModel.objects.filter(code=code).update(aging=aging,gdp=gdp,population=population)更新code这一行的aging,gdp,population的值。8.创建edit.html,显示模型属性,点击提交后,发起update的POST请求。5.点击查询后页面显示如下。

2024-02-29 08:25:30 608

原创 Django学习笔记-django使用pandas将上传的数据存到MySQL

8.mytool接收参数(*args表示多个参数),并使用pandas解析excel数据,用于读取 Excel 文件,并将数据存储在。6.如果为GET请求,直接返回index.html,如果为POST请求,获取上传的文件,将文件存储到django文件夹中。7.创建mytools.py并在views中引包,调用mytools方法,并将文件路径传参到mytool方法。每个键都将成为模型对象的属性名,并且每个值将成为相应属性的值,方法,可以创建新的模型实例并将其保存到数据库中。的 DataFrame 对象中。

2024-02-28 10:13:22 609

原创 Django学习笔记-ModelForm使用(不完全依赖)

7.如果请求方式为POST,获取表单对象和模型对象数据,判断表单数据有效,获取经过验证和清理的表单数据,然后遍历每一个字段和它的值。5.views编写HyperTextForm,如果请求方式为GET,将获取的数据传到HyperTextForm.html渲染。3.创建模型表单,继承forms.ModelForm,Meta:元数据,models需引入,fields填写引用的模型变量。,读取文件的内容,并保存到模型中,文件名拼接时间戳后写入Django项目的。10.数据存储成功,可以上传图片,文本等。

2024-02-27 10:09:01 545

原创 Django学习笔记-ModelForm使用(完全依赖)

3.创建模型表单,继承forms.ModelForm,Meta:元数据,models需引入,fields填写引用的模型变量。4.views编写testmodelform,将获取的数据传到testmodelform.html渲染。注:ModelForm基于模型创建视图,视图Form表单依赖于model中创建的数据类型。6. 页面显示,自带非空验证,属性中添加blank=True,表示非必填项,可以不填。1.创建模型 ,code,name,sex,entrydate。

2024-02-26 11:13:45 483

原创 Django学习笔记-forms使用

方法检查这些数据是否满足表单的所有验证要求,如果表单数据有效,2. 创建EmployeeForm,继承forms.Form。8.提交,跳转页面success,数据库可以查看到插入的数据。1).如果请求方式为GET, 创建一个空的。,上下文将传递给模板,用于渲染testform.html。函数将表单数据中的每个字段和值设置到该实例上,3.创建testform.html文件。1.创建forms.py文件,导入包。对象,包含了员工表单的所有字段,创建。创建testform,编写代码。4.urls.py添加路由。

2024-02-23 10:11:33 748

原创 Django学习笔记-HTML实现服务器图片的下载

将打开的文件对象`inputsource`作为响应的主体,并将内容类型设置为`application/octet-stream`(表示下载的内容是二进制数据)5).设置`Content-Disposition`响应头,告诉浏览器这是一个文件下载操作,并指定下载文件的名称。3).根据基目录和文件名,构造完整的文件路径,并使用`open`函数以二进制读取模式(`'rb'`)打开文件。2).如果请求的方法是POST,获取要下载的文件名称,获取存放文件的目录。6).返回创建的HTTP响应对象,文件被下载到客户端。

2024-02-21 13:47:36 509

原创 Django学习笔记-HTML实现MySQL的图片上传

2).获取django项目目录(创建static/images),获取时间戳拼接到图片名中,把接收的文件(流形式)写入到django的文件目录中,关闭流。创建form表单,路由指向upload,请求方式post,enctype设置"multipart/form-data",post请求添加{% csrf_token %},编写两个input,上传和提交。1).获取上传的文件,没有上传则返回"没有指定上传的文件"3).创建图片模型并迁移到mysql数据库。django目录文件存储的图片。

2024-02-21 11:01:50 1119

原创 Django学习笔记-HTML实现MySQL的读写操作

创建save1111,判断如果请求方式是POST,接收code111,name111值(index.html中的form表单的输入内容),将变量存储到模型,执行save方法,存储model对象(映射到数据库),return HttpResponse('存储成功')作用是提示存储成功。如果为精确查询,过滤输入框值与数据库相等的数据列表,查询code为唯一的,所以返回单个列表,用字典ctx接收,并传递给show_one.html渲染显示。创建表格,遍历键'cp111',格式如下。5.urls.py中添加路由。

2024-02-20 15:34:17 719

原创 Django学习笔记-创建第一个django项目

10.安装pymysql包,在__init__中导入pymysql,编写代码pymysql.install_as_MySQLdb()5.创建django项目运行django-admin startproject demo01(自命名)11.到demo01文件夹下,运行 python manage.py runserver启动服务。14. python manage.py startapp myApp01 创建自己的app。21.返回的html页面在templates中,可以使用参数(字典形式)

2024-02-19 17:35:32 762

原创 爬虫学习笔记-scrapy链接提取器爬取读书网链接写入MySQL数据库

6.修改爬虫文件规则allow(正则表达式),'\d'表示数字,'+'表示多个,'\.'使'.'生效。15.pipelines中编写代码,将数据存储到json文件中,并运行。20.settings中填写连接数据库所需的变量,根据自己的数据库填写。5.滑倒下方翻页处,右键2,点击检查,查看到a标签网址,复制。13.导包,创建book对象,给到管道。16.数据从第二页开始,缺少第一页数据。21.创建管道,编写代码,用来保存数据。8.查看结果,成功打印,说明成功访问。18.修改后,数据包含第一页数据。

2024-02-19 10:34:35 611

原创 爬虫学习笔记-scrapy爬取电影天堂(双层网址嵌套)

3.终端cd到spiders,cd scrapy_carhome/scrapy_movie/spiders,运行 scrapy genspider mv https://dy2018.com/5.用爬取的网址请求,使用meta属性传递name ,callback调用自定义的parse_second。6.导入ScrapyMovieItem,将movie对象传递给管道下载。8.下载爬取的movie对象存储到movie.json中。4.打开mv,编写代码,爬取电影名和网址。7.settings开启管道。

2024-02-18 11:35:06 659

原创 爬虫学习笔记-scrapy爬取当当网

3.cd 100个案例/Scrapy/scrapy_dangdang/scrapy_dangdang/spiders 到文件夹下,创建爬虫程序。4.items定义ScrapyDangdangItem的数据结构(要爬取的数据)src,name,price。1.终端运行scrapy startproject scrapy_dangdang,创建项目。8.定义管道类,settings开启管道类,实现图片的多管道下载。7.打开文件,写入字符串类型数据,关闭文件。5.爬取src,name,price数据。

2024-02-18 10:10:53 732

原创 爬虫学习笔记-scrapy爬取汽车之家

3.终端cd到spiders,cd scrapy_carhome/scrapy_carhome/spiders,运行 scrapy genspider audi https://car.autohome.com.cn/price/brand-33.html。1.终端运行scrapy startproject scrapy_carhome,创建项目。4.打开audi,编写代码,xpath获取页面车型价格列表。5.运行项目,执行scrapy crawl audi。

2024-02-03 12:53:02 929

原创 爬虫学习笔记-scrapy安装及第一个项目创建问题及解决措施

pycharm终端运行 pip install scrapy -i https://pypi.douban.com/simple。4.终端cd到项目的spiders文件夹下,cd scrapy_baidu\scrapy_baidu\spiders。2.终端运行scrapy startproject scrapy_baidu,创建项目。7.再次运行爬虫文件,scrapy crawl baidu。6.运行爬虫文件,scrapy crawl baidu。​​​​问题3:无法加载sqllite3。

2024-01-31 10:32:12 668

原创 爬虫学习笔记-Cookie登录古诗文网

12.将响应的内容保存为html格式,手动打开,跳过验证码登录。9.将获取的隐藏域数据和验证码拼接到post请求的data中。13.将保存的html文件使用浏览器打开。5.使用xpath获取隐藏域值和验证码。5.将获取验证码的地址拼接成完整的网址。8.用于人工查看验证码后手动输入。3.发送请求,获取登录页面源码。2.获取古诗文网登录接口。6.建立会话,请求验证码。4.导包获取页面元素。

2024-01-31 08:54:32 1371 1

原创 爬虫学习笔记-requests的使用

【代码】爬虫学习笔记-requests的使用。

2024-01-30 16:19:00 722

原创 爬虫学习笔记-handless的使用

1.封装handless函数。

2024-01-30 15:20:07 759

原创 爬虫学习笔记-selenium交互

input.send_keys('周杰伦')

2024-01-30 14:59:43 836

原创 Python采集学习笔记-读取excel数据

6.打印total_rows,plc_info。4.创建列表,存储表格一行中每一列信息。2.创建列表,遍历表格数据存储到字典。5.将每一行的数据插入到列表中。3.将字典数据添加到列表中。1.读取excel表数据。4.打印plc_list。1.读取Excel文件。

2024-01-30 10:36:54 465

原创 Python采集学习笔记-将西门子S7DB数据写入MySQL数据库

11.关闭plc连接,关闭数据库连接。3.创建通讯客户端实例。

2024-01-30 09:43:15 920

原创 Python采集学习笔记-SQL Server不同表的数据转移

【代码】Python采集学习笔记-SQL Server不同表的数据转移。

2024-01-29 10:52:43 486

原创 Python采集学习笔记-SQL Server数据转移到MySQL

【代码】Python采集学习笔记-SQL Server数据转移到MySQL。

2024-01-28 10:07:31 523

原创 Python采集学习笔记-MySQL数据转移到SQL Server

【代码】Python采集学习笔记-MySQL数据转移到SQL Server。

2024-01-27 16:51:26 476

原创 Python采集学习笔记-MySQL不同表的数据转移

【代码】Python采集学习笔记-MySQL不同表的数据转移。

2024-01-27 16:49:26 388

原创 爬虫学习笔记-站长素材网站图片下载

使用`urllib.request.urlopen`发送请求并获取响应。使用`lxml.etree.HTML`方法解析内容为树形结构。注意,代码中的`urllib.request.urlretrieve`方法用于下载图片,需要提前创建文件夹,将图片保存到指定路径。根据`page`的值,构造相应的URL,并设置请求头信息。- `urllib.request`:用于发送HTTP请求和获取响应。- `lxml.etree`:用于解析HTML内容。- `urllib.parse`:用于解析URL。

2024-01-24 18:53:57 428 1

原创 爬虫学习笔记-使用xpath获取百度响应的数据

【代码】爬虫学习笔记-使用xpath获取百度响应的数据。

2024-01-24 15:47:58 322 1

原创 爬虫学习笔记-xpath的基本使用

【代码】爬虫学习笔记-xpath的基本使用。

2024-01-24 15:20:37 496 1

原创 爬虫学习笔记-urllib_handler处理器、代理及代理池的基本使用

【代码】爬虫学习笔记-urllib_handler处理器的基本使用。

2024-01-24 13:42:30 320 1

原创 爬虫学习笔记-post请求获取肯德基门店多页数据★★★★★

【代码】爬虫学习笔记-post请求获取肯德基门店多页数据★★★★★。

2024-01-24 13:06:27 375 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除