《Python语言学习笔记》
文章平均质量分 69
人生苦短,我用Python
代码骑士
中国科学院大学计算机专业硕士。熟悉Python语言、机器学习、深度学习、NLP、CV、LLM等人工智能领域技术。喜欢交流学习和知识分享,平时会在CSDN分享一些学习笔记和技术Blog。
展开
-
【Python】文本转语音库pyttsx3
这个对象将文本以语音播放之前还可以去设置一下它的音量以及语速,而默认使用的是女声播放语音。可以设置合成器来选择语言的年龄、性别和语言等等,这个模式如果直接调用文本转语音的方法去播放的话是不能够识别中文的,所以需要设置一下合成器。以字符串为类型的发音人性别: male, female, or neutral.默认为None。默认的语音合成器有两个,两个语音合成器均可以合成英文音频,如果需要其他的语音合成器需要自行下载和设置。发音支持的语言列表,默认为一个空的列表。发音人的年龄,默认为None。原创 2023-02-23 11:58:33 · 3016 阅读 · 0 评论 -
【Python】将Excel表中数据导入MySQL数据库
【代码】将Excel表中数据导入MySQL数据库。原创 2023-10-13 14:55:19 · 1932 阅读 · 0 评论 -
【Python】获取Exel中的数据
输出N列1194行。原创 2023-05-30 15:42:43 · 241 阅读 · 1 评论 -
【Python】电影评论词频统计分析
【代码】【python】数据分析案例。原创 2023-02-19 21:11:11 · 2157 阅读 · 0 评论 -
【Python】网络爬虫获取图片
【代码】【python】下载图片。转载 2023-02-19 20:59:16 · 764 阅读 · 0 评论 -
【Pyhton应用】python爬虫数据分析案例详解
【代码】python数据分析案例详解。原创 2023-02-19 20:37:12 · 190 阅读 · 0 评论 -
【Python】查找文件路径
tip:os.listdir()、os.walk()获取全部文件名,find()查找字符串中的子字符串,如果有返回index,没有返回-1。followlinks:可选, 如果为 True,则会遍历目录下的快捷方式(linux 下是 symbolic link)实际所指的目录,默认为 False。topdown:可选,如果为 True,则优先遍历 top 目录,以及 top 目录下的每一个子目录,否则优先遍历 top 的子目录,默认为 True。root :所指的是当前正在遍历的目录的地址。原创 2023-02-18 12:43:06 · 668 阅读 · 0 评论 -
【Python】据数分析之图像绘制
链接:https://pan.baidu.com/s/1r130i8S8Kjo0XdnfRtlHyg。Matplotlib常用模块——import matplotlib.pyloy as plt。Pandas常用数据结构——Series、DataFrame。PIL常用模块——from PIL import image。--来自百度网盘超级会员V1000的分享。Numpy常用数据结构——ndarray。原创 2023-02-18 23:29:49 · 500 阅读 · 0 评论 -
【Python】39健康网爬虫源代码
【代码】39健康网爬虫源代码。原创 2023-02-15 20:13:51 · 1287 阅读 · 2 评论 -
【Pyhton】爬虫指南(入门级)
python爬虫原创 2023-02-12 18:49:57 · 545 阅读 · 0 评论 -
第一章 初见爬虫网络
1.1 网络连接 原文中这样解释:(1) Bob 的电脑发送一串 1 和 0 比特值,表示电路上的高低电压。这些比特构成了一种信息,包括请求头和消息体。请求头包含当前 Bob 的本地路由器 MAC 地址和 Alice 的 IP地址。消息体包含 Bob 对 Alice 服务器应用的请求。(2) Bob 的本地路由器收到所有 1 和 0 比特值,把它们理解成一个数据包(packet),从Bob 自己的 MAC 地 址“寄到”Alice 的 IP 地址。他的路由器把数据包“盖上”自...原创 2022-03-10 23:57:49 · 1315 阅读 · 3 评论 -
第二章 复杂的HTML解析(上)
2.1 不是一直都要用锤子看到这个小标题是不是想问:啥是锤子?原文中有一段文字:当米开朗基罗被问及如何完成《大卫》这样匠心独具的雕刻作品时,他有一段著名的回答:“很简单,你只要用锤子把石头上不像大卫的地方敲掉就行了。”锤子就是一个工具,为了帮助我们更好的获得我们想要得到的东西。但是,我们的标题叫“不要一直都要使用锤子”,就说明,我们在爬取信息时,不是要把多余部分都“敲掉”,而是直接找到我们想要的部分,把它保存下来。用锤子将不需要的地方都敲掉,这话听起来是多么的粗暴。而我们的爬虫可是原创 2022-03-12 18:11:22 · 1199 阅读 · 0 评论 -
第二章 复杂的HTML解析(下)
2.3 正则表达式2.4 正则表达式和BeautifulSoup2.5 获取属性2.6 Lambda表达式原创 2022-03-14 21:57:56 · 884 阅读 · 0 评论 -
正则表达式学习整理
正则表达式是一种用来匹配字符串的强有力的武器。它的设计思想是用一种描述性的语言来给字符串定义一个规则,凡是符合规则的字符串,我们就认为它“匹配”了,否则,该字符串就是不合法的。在正则表达式中,如果直接给出字符,就是精确匹配。用\d可以匹配一个数字,\w可以匹配一个字母或数字,所以: '00\d'可以匹配'007',但无法匹配'00A'; '\d\d\d'可以匹配'010'; '\w\w\d'可以匹配'py3'; .可以匹配任意字符,所以:'...转载 2022-04-06 12:57:39 · 649 阅读 · 0 评论 -
第三章 编写网络爬虫
从这章开始,我们就要真刀真枪上战场(互联网)了。前面那些都只是铺垫,所举的的例子也都是皮毛,这章开始往后都是实战。开始前,先解决一下大家的疑惑:啥是“网络爬虫”?因为它们可以在 Web 上爬行。它们本质上就是一种递归方式。它们必须首先获取一个 URL 对应的网页内容,然后检查这个页面,寻找另一个 URL,再获取该 URL 对应的网页内容,并不断循环这一过程。不过要注意的是:你可以抓取网页,并不意味着你总是应该这么做。当你需要的所有数据都在一个页面上时,前面例子中的爬虫就足以解...原创 2022-04-08 11:03:41 · 1792 阅读 · 0 评论 -
【Python应用】超详细零基础数据分析爬虫教程
一、准备工作:1、网页分析:进入目标网页,按下键盘F12,必须要认识图中画圈的部分。箭头:这个小箭头非常实用,点击后,在正常网页中点击哪个部分,代码区高光就会找到相应的代码。Element:包含网页源码,很多数据都从这里获得。NetWork:网络工作记录,按下图顺序点击,会得到很多响应信息。比如:请求头(Header)信息、Cookie、User-Agent等等,作用下面说。2、环境配置:需要提前下载好,这部分下载去网上搜就行,这里不做过多描述。..原创 2022-04-20 18:12:38 · 5416 阅读 · 2 评论 -
爬虫保姆级教程2:在visual studio中使用python项目连接SQLite数据库--爬虫数据保存之数据库
采用方法二:【SQLite】SqlLite在VisualStudio2017中C#的使用_Kevin's life的博客-CSDN博客_vs2017sqlite插件https://blog.csdn.net/ght886/article/details/83791418补充:vs连接数据库:可以在这里单独连接进行独立操作:1、连接新建的SQLite数据库2、检索数据库3、可视化查表为什么使用SQLite:SQLite 不是一个客户端/服...原创 2022-04-23 15:17:55 · 2914 阅读 · 0 评论 -
【Python应用】爬虫教程:利用python-Flask框架搭建本地数据可视化网站
成果展示:(1)网站首页:(2)电影表单页(3) 电影评分页(4) 词频统计页(5)团队页面接下来让我们看看上述网站是如何完成的:首先简单介绍一下Flask框架:Flask主要功能有两个:(1)Werkzeug——路由转换(2)jinja2——框架渲染1、环境搭建:下载python-Flask扩展包pip install flask将Flask模块导入程序中:from flask import Flask..原创 2022-04-28 17:52:48 · 13312 阅读 · 9 评论 -
宝藏爬虫教程
这篇博客是我目前看过最简单最易懂的python爬虫教程了,推荐爬虫小白快来学习:Python爬虫超详细讲解(零基础入门,老年人都看的懂)_码农BookSea的博客-CSDN博客_爬虫pythonhttps://blog.csdn.net/bookssea/article/details/107309591...转载 2022-04-08 11:18:13 · 125 阅读 · 0 评论 -
网络爬虫练习-1
爬取中国新闻网滚动新闻:滚动新闻-中国新闻网-梳理天下新闻 (chinanews.com.cn)将上述中国新闻网滚动新闻第一页的新闻内容爬下来,保存到txt文件中(可以统一保存到一个,也可以每个新闻保存一个)。新闻第一页共有125条新闻,首先先获取一下所有新闻的超链接:from urllib.request import urlopenfrom bs4 import BeautifulSoupimport rehtml = urlopen('https://www.chinanews.co原创 2022-04-08 17:20:58 · 2393 阅读 · 1 评论