![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
python
文章平均质量分 83
python
seaskyccl
海阔天空,学海无涯!!
展开
-
Flask框架介绍安装和示例扩展
WSGI是为 Python 语言定义的Web服务器和Web应用程序之间的一种简单而通用的接口,它封装了接受HTTP请求、解析HTTP请求、发送HTTP,响应等等的这些底层的代码和操作,使开发者可以高效的编写Web应用。通过使用Flask-Script扩展,我们可以在Flask服务器启动的时候,通过命令行的方式传入参数。使用虚拟环境安装Flask,可以避免包的混乱和版本的冲突,虚拟环境是Python解释器的副本,在虚拟环境中你可以安装扩展包,为每个程序单独创建的虚拟环境,可以保证程序只能访问虚拟环境中的包。原创 2024-02-29 09:47:18 · 1013 阅读 · 0 评论 -
字符串介绍输入输出
想一想:当打来浏览器登录某些网站的时候,需要输入密码,浏览器把密码传送到服务器后,服务器会对密码进行验证,其验证过程是把之前保存的密码与本次传递过去的密码进行对比,如果相等,那么就认为密码正确,否则就认为不对;服务器既然想要存储这些密码可以用数据库(比如MySQL),当然为了简单起见,咱们可以先找个变量把密码存储起来即可;那么怎样存储带有字母的密码呢?答:字符串。原创 2024-02-26 15:19:22 · 320 阅读 · 0 评论 -
Scrapy的安装介绍及入门案例
Item 定义结构化数据字段,用来保存爬取到的数据,有点像Python中的dict,但是提供了一些额外的保护减少错误。要建立一个Spider, 你必须用scrapy.Spider类创建一个子类,并确定了三个强制的属性 和 一个方法。是的,就是 itcast,看上面代码,它是 ItcastSpider 类的 name 属性,也就是使用。是搜索的域名范围,也就是爬虫的约束区域,规定爬虫只爬取这个域名下的网页,不存在的URL会被忽略。:这个爬虫的识别名称,必须是唯一的,在不同的爬虫必须定义不同的名字。原创 2024-02-23 09:29:22 · 1279 阅读 · 0 评论 -
XPath介绍和实战案例
XPath (XML Path Language) 是一门在 XML 文档中查找信息的语言,可用来在 XML 文档中对元素和属性进行遍历。XPath 教程<li>原创 2024-02-22 10:13:35 · 960 阅读 · 0 评论 -
为什么要学正则表达式
正则表达式,又称规则表达式,通常被用来检索、替换那些符合某个模式(规则)的文本。正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符、及这些特定字符的组合,组成一个"规则字符串",这个"规则字符串"用来表达对字符串的一种过滤逻辑。给定的字符串是否符合正则表达式的过滤逻辑("匹配");通过正则表达式,从文本字符串中获取我们想要的特定部分("过滤")。原创 2024-02-01 09:40:06 · 768 阅读 · 0 评论 -
多线程糗事百科案例
案例要求参考上一个糗事百科单进程案例。原创 2024-01-30 09:56:29 · 196 阅读 · 0 评论 -
Requests的简单使用
Requests支持HTTP连接保持和连接池,支持使用cookie保持会话,支持文件上传,支持自动确定响应内容的编码,支持国际化的 URL 和 POST 数据自动编码。虽然Python的标准库中 urllib 模块已经包含了平常我们使用的大多数功能,但是它的 API 使用起来让人感觉不太好,而 Requests 自称 "HTTP for Humans",说明使用更简洁方便。使用response.content 时,返回的是服务器响应数据的原始二进制字节流,可以用来保存图片等二进制文件。原创 2024-01-29 16:00:38 · 593 阅读 · 0 评论 -
Linux下升级安装Python-3.6.2版本
lrwxrwxrwx 1 root root 17 10月 31 16:48 /usr/local/bin/python3.6-config -> python3.6m-config。lrwxrwxrwx 1 root root 16 10月 31 16:48 /usr/local/bin/python3-config -> python3.6-config。-rwxr-xr-x 1 root root 3066 10月 31 16:48 /usr/local/bin/python3.6m-config。原创 2024-01-29 09:43:55 · 836 阅读 · 0 评论 -
python爬虫之某站JS加密逆向分析
第1次进入e2(e) ,进去前e还是明文的payload,进去了_u_e(e) 返回t '{"sort":1,"start":40,"limit":20}' 值没变。需要“翻页”动态加载数据,只要需要更改start即可,这个表示是开始条数,limit表示一次加载20条,比如60、80、100、120等等。这个时候,payload被加密了,但是还不是返回的值,继续下一步调试。返回u,就是加密的payload了。发现返回的值是d,也是加密的,可以使用拦截技术,获取到JS解密函数,解密d得到明文。原创 2024-01-29 09:37:29 · 1832 阅读 · 0 评论