- 博客(1177)
- 资源 (47)
- 收藏
- 关注
原创 【个人书籍】《Spring MVC+MyBatis开发从入门到项目实战》
《Spring MVC+MyBatis开发从入门到项目实战》书 号:978-7-121-33390-3出版日期:2018-01-29书籍特色:· 经验多:百万访问量博主倾囊相授,带你走进Web开发的方方面面。· 零基础:从简单的样例做起,逐渐深入技术核心。· 内容全:涵盖Spring MVC与MyBatis的33个技巧,56个实例。· 重实战:与真实项目案例相结合,深入实战开发的5层架构。...
2019-09-06 21:32:19 2526 7
原创 关于本技术博客的声明
每天不定时发表技术总结文章,这些都是我在学习IT技术的时候总结的,因为开源精神,我会将总结好的文章不定时发到博客上来。由于工作繁忙,加上编写博文时需要调试相关代码,并进行验证和总结,所以一些博文是先编写后可能隔一段时间后再发,所以有些系列可能会更的慢一些,不过一般都会坚持保持周更。希望我的技术总结能解决大家技术上的一些问题,也希望大牛们多多指教!所有标注"原"(即原创)的文章,全部是...
2015-02-02 16:58:18 2924 21
原创 【Python从入门到进阶】67、Pandas使用stack和pivot实现数据透视
unstack方法是Pandas库中用于将多级索引(MultiIndex)的某一级转换为列索引,从而实现数据从长格式到宽格式的转换。它常用于数据透视表的生成,特别是当数据已经通过stack方法或其他方式被重塑为长格式后,unstack可以帮助我们将其转换回宽格式。●level:指定要转换为列索引的多级索引的级别。默认值为-1,表示最内层的索引级别。如果DataFrame有多个级别的索引,可以通过指定level参数来选择要转换的级别。●fill_value:用于填充因转换而产生的缺失值。
2024-10-31 17:04:17 645
原创 【Python从入门到进阶】66、Pandas怎样实现groupby每个分组的apply
groupby方法的作用:groupby方法是Pandas库中非常强大的功能之一,它允许我们按照一个或多个键(列)对数据集进行分组。分组后,我们可以对每个组应用聚合函数、转换函数或自定义函数,从而进行更深入的数据分析。
2024-10-18 16:57:19 978
原创 【Python从入门到进阶】65、Pandas如何批量拆分与合并Excel文件
面对Excel文件处理的挑战,Python的Pandas库以其高效、灵活和强大的数据处理能力,成为了众多数据分析师的首选工具。Pandas不仅提供了便捷的数据读取和写入功能,能够轻松地将Excel文件转换为DataFrame对象进行处理,还内置了丰富的数据处理函数和方法,如数据清洗、转换、合并、分组等,极大地提高了数据处理的效率和准确性。
2024-09-22 18:32:26 1010
原创 【Python从入门到进阶】64、Pandas如何实现数据的Concat合并
在数据处理过程中,经常需要将多个数据集合并为一个统一的数据集,以便进行进一步的分析或建模。这种需求在多种场景下都非常常见,比如合并不同来源的数据集以获取更全面的信息、将时间序列数据按时间顺序拼接起来以观察长期趋势等。在这些情况下,Pandas的concat函数就显得尤为重要,它是实现数据合并的主要工具之一。
2024-09-08 10:15:00 885
原创 【Python从入门到进阶】63.Pandas如何实现数据的Merge
在实际的数据分析项目中,我们经常会遇到需要将多个相关的数据集合并在一起进行分析的情况。比如,在电商数据分析中,我们可能需要将用户信息表、订单信息表、商品信息表等多个表格合并起来,以便综合分析用户的购买行为、商品的销售情况等。又如,在医学研究中,我们可能需要将不同时间点的患者数据表合并起来,以追踪患者病情的变化趋势。Pandas提供了多种数据合并的方法,包括内连接(Inner Join)、左连接(Left Join)、右连接(Right Join)、外连接(Outer Join)等,用户可根据实际需求选择。
2024-08-24 15:58:05 975 1
原创 【Python从入门到进阶】62、Pandas中DataFrame对象案例实践
我们将通过一个股票数据分析的案例来展示如何使用Pandas的DataFrame和Series对象进行数据分析和处理。在这个案例中,我们将分析某只股票的历史价格数据,包括开盘价、最高价、最低价和收盘价,并计算一些基本的统计指标和可视化结果。
2024-08-11 20:07:39 828
原创 【Python从入门到进阶】61、Pandas中DataFrame对象的操作(二)
在数据分析和处理中,Pandas的DataFrame提供了强大的统计分析功能,帮助我们深入理解数据的分布、趋势和特征。以下将详细介绍描述性统计、分组聚合以及数据透视表等关键功能。
2024-07-28 18:07:04 883
原创 【Python从入门到进阶】60、Pandas中DataFrame对象的操作(一)
在Pandas库中,DataFrame是一种非常重要的数据结构,它以一种表格的形式存储和操作结构化数据。DataFrame对象不仅继承了NumPy数组的强大功能,还提供了更为丰富的数据操作接口,使得数据分析工作变得既高效又便捷。
2024-07-14 16:22:31 2182
原创 【Python从入门到进阶】59、Pandas库中Series对象的操作(二)
上一篇我们讲解了Pandas库中Series对象的基本概念、对象创建和操作,本篇我们来继续学习Series对象的运算、函数应用、时间序列操作,以及Series的案例实践。
2024-06-30 18:30:54 1235
原创 【Python从入门到进阶】58、Pandas库中Series对象的操作(一)
Pandas库中的Series对象是一种强大而灵活的数据结构,它不仅能够存储多种类型的数据,而且具有许多实用的属性和方法,可以帮助我们高效地进行数据分析和处理。在接下来的内容中,我们将详细介绍Series对象的创建、基本属性、数据操作、运算等方面的内容,并通过案例实践来展示其应用。
2024-06-16 18:20:37 1889
原创 【Python从入门到进阶】57、Pandas入门:背景、应用场景与基本操作
在数字化时代,数据已经成为企业决策和个人洞察的重要基础。无论是金融市场的波动、零售业的销售趋势,还是科研实验的结果,都蕴含在大量的数据之中。然而,如何有效地提取、分析和解读这些数据,成为了摆在人们面前的一大挑战。这时,Python的Pandas库便成为了数据分析领域的得力助手。Pandas是一个开源的Python数据分析工具,它提供了高效、灵活且易于使用的数据结构和数据分析功能,使得数据工作者能够轻松地进行数据处理和分析。
2024-06-10 16:22:42 1277
原创 【Python从入门到进阶】56、Mysql防止SQL注入及ORM库简化操作
SQL注入攻击发生在用户输入被直接拼接到SQL查询语句中,而没有被适当地验证或转义。攻击者可以构造特殊的输入,使得原本用于筛选或检索数据的SQL语句变得具有破坏性。如果$username或$password变量直接来自用户输入,并且没有经过适当的验证或转义,那么攻击者可以通过输入类似' OR '1'='1的值来绕过身份验证。ORM库的主要目标是实现数据库表与编程语言中的类之间的映射。在ORM中,数据库表被映射为类,表中的行被映射为类的实例(对象),而列则被映射为对象的属性。
2024-06-01 18:13:57 1008
原创 【Python从入门到进阶】55、使用Python轻松操作Mysql数据库
mysql-connector-python是一个由MySQL官方提供的Python数据库驱动,它允许Python开发者无缝地与MySQL数据库进行交互。该库遵循DB-API 2.0规范(PEP 249),提供了全面的功能来连接、查询和管理MySQL数据库。
2024-05-26 11:39:46 984
原创 【Python从入门到进阶】54、使用Python轻松操作SQLite数据库
SQLite的创始理念是提供一个无服务器的、零配置的、自给自足的数据库引擎,以解决嵌入式系统和移动设备的存储和查询问题。在本文中,我们将介绍如何使用Python操作SQLite数据库,包括连接数据库、创建和操作表、查询数据等基础知识,希望通过本文的介绍,读者能够掌握Python操作SQLite的基本技能,为日后的项目开发打下坚实的基础。Python的sqlite3模块不仅提供了基本的数据库操作功能,如创建表、插入数据、查询数据等,还提供了一些高级功能,可以帮助我们更高效地管理和使用SQLite数据库。
2024-05-12 20:07:10 6078 4
原创 【Python从入门到进阶】53、Scrapy日志信息及日志级别
在Scrapy框架中,日志扮演着至关重要的角色。日志不仅记录了爬虫在运行过程中的详细行为,还提供了大量有助于开发者定位问题和优化程序的信息。通过日志,开发者可以了解到爬虫的每一步操作,包括请求的发送、响应的接收、数据的解析以及任何可能出现的异常。这些信息对于调试程序、监控运行状态以及优化性能都是不可或缺的。
2024-04-27 12:58:57 1510 4
原创 【Python从入门到进阶】52、CrawlSpider链接提取器的使用
CrawlSpider是Scrapy框架中的一个特殊爬虫类型,它主要用于处理需要遵循特定规则和链接提取的网站。通俗地说,CrawlSpider就像一个智能的探险家,它按照我们设定的规则(Rule)在网页上“探险”,自动跟踪链接、提取信息,并将这些信息收集起来供我们使用。
2024-04-01 00:30:34 1470
原创 【Python从入门到进阶】51、电影天堂网站多页面下载实战
上一篇我们讲解了使用Scrapy框架在当当网抓取多页书籍数据的效果,本篇我们来抓取电影天堂网站的数据,同样采用Scrapy框架多页面下载的模式来实现。
2024-03-24 21:00:34 2070 1
原创 【Python从入门到进阶】50、当当网Scrapy项目实战(三)
上一篇我们讲解了的Spider与item之间的关系,以及如何使用item,以及使用pipelines管道进行数据下载的操作,本篇我们来讲解Scrapy的多页面下载如何实现。
2024-03-10 17:18:28 1387
原创 【Python从入门到进阶】49、当当网Scrapy项目实战(二)
上一篇我们正式开启了一个Scrapy爬虫项目的实战,对当当网进行剖析和抓取。本篇我们继续编写该当当网的项目,讲解刚刚编写的Spider与item之间的关系,以及如何使用item,以及使用pipelines管道进行数据下载的操作。
2024-02-25 16:09:40 1150 1
原创 【Python从入门到进阶】48、当当网Scrapy项目实战(一)
本篇我们将正式开启一个Scrapy爬虫项目的实战,对当当网进行剖析和抓取,在实战过程中学习spider、item、pipelines等组件类的使用。
2024-01-28 19:32:23 1160
原创 【Python从入门到进阶】47、Scrapy Shell的了解与应用
Scrapy Shell可以在未启动spider的情况下尝试及调试我们的爬取代码。其本意是用来测试提取数据的代码,不过我们可以将其作为正常的python终端,在上面测试任何的Python代码。该终端是用来测试xPath或css表达式,查看他们的工作方式及从爬取的网页中提取的数据。在编写我们的spider爬虫时,该终端提供了交互性测试我们的表达式代码的功能,免去了每次修改后运行spider的麻烦。旦熟悉了scrapy终端后,我们会发现其在开发和调试spider时发挥的巨大作用。
2024-01-21 17:29:19 1448
原创 【Python从入门到进阶】46、58同城Scrapy项目案例介绍
上一篇我们学习了Scrapy框架的核心组件的使用。本篇我们进入实战第一篇,以58同城的Scrapy项目案例,结合实际再次巩固一下项目结构以及代码逻辑的用法。
2024-01-07 15:33:01 1421
原创 【Python从入门到进阶】45、Scrapy框架核心组件介绍
上一篇我们学习了Scrapy框架的基础介绍以及环境的搭建,本篇我们来学习一下Scrapy框架的核心组件的使用。包括引擎(Scrapy Engine)、调度器(Scheduler)、爬虫器(Spiders)、管道(Item Pipeline)、下载器(Downloader)、数据容器(item)等
2023-12-24 21:43:43 1074
原创 【Python从入门到进阶】44、Scrapy的基本介绍和安装
Scrapy框架具有简单易用、高效稳定、功能强大等特点,它采用了异步IO和事件驱动的设计模式,使得其可以轻松地处理大量并发请求,提高抓取效率。同时,Scrapy框架还提供了丰富的数据处理和输出功能,方便用户进行数据清洗、分析和可视化等工作。
2023-12-17 12:24:09 1067
原创 【Python从入门到进阶】43.验证码识别工具结合requests的使用
上一篇我们通过requests的session方法,带着原网页登录后的Cookie进入个人中心,访问到了登录后的界面数据。但是,我们在登录的过程中,对于验证码的识别,是先下载相关图片然后人工输入进行校验的,没有通过程序自动识别验证码。本篇我们来学习如何识别图片验证码,以及调用第三方工具自动识别图片验证码。
2023-12-03 11:38:39 2159
原创 【Python从入门到进阶】42、使用requests的Cookie登录古诗文网站
上一篇我们介绍了requests代理的基本使用,本篇我们来学习如何利用requests的Cookie登录古诗文网。
2023-11-19 16:56:11 712
原创 【Python从入门到进阶】41、有关requests代理的使用
在网络爬虫和数据抓取的过程中,在某些情况下,直接发送请求可能会受到限制或被阻止,这时就需要借助代理来完成任务。代理在网络通信中起到中间人的作用,它代表我们与目标服务器建立连接并传递请求和响应。通过使用代理,我们可以隐藏真实的IP地址、绕过访问限制,并增加请求的匿名性。Python中的requests库提供了便捷且强大的功能来处理HTTP请求,并且支持代理的配置。本篇博客将重点介绍如何在Python中使用requests库来利用代理进行网络请求。
2023-11-05 15:33:56 6398
原创 【Python从入门到进阶】40、requests的基本使用
大家在前面的学习中,访问网络服务基本上一直使用的都是urllib库,而这个requests库和urllib库的作用十分相似,都是用于发送HTTP请求、读取和解析网页内容等场景,但是他们也有一些本质上的区别。requests库更加简洁和易于使用。它提供了简单而直观的API,使得发送HTTP请求变得非常简单。相比之下,urllib库的接口相对复杂,需要编写更多的代码来完成同样的任务。
2023-10-28 11:30:46 451
原创 【Python从入门到进阶】39、使用Selenium自动验证滑块登录
本篇我们使用selenium做一些常见的复杂验证功能,首先我们来讲解如何进行滑块自动验证的操作。图片识别技术主要使用的技术是cv2库
2023-10-14 17:42:11 23662 39
原创 【Python从入门到进阶】38、selenium关于Chrome handless的基本使用
Chrome Headless是一个无界面的浏览器环境,它是Google Chrome浏览器在59版本之后新增的一种运行模式。与传统的浏览器不同,Chrome Headless可以在后台执行网页操作,而无需显示可见的用户界面。Chrome Headless提供了一种方便的方式来进行自动化测试、网络爬虫和数据抓取等任务。它通过模拟用户在浏览器中的行为,实现了对网页的自动化操作和交互。在执行过程中,Chrome Headless可以访问和操纵网页的DOM结构、执行JavaScript代码、提交表单、点击按钮
2023-10-06 15:16:42 2497
原创 【Python从入门到进阶】37、selenium关于phantomjs的基本使用
Selenium通常需要一个真实的浏览器窗口来执行测试或爬虫任务。这就意味着它会打开一个可见的浏览器窗口,这可能不是理想的选择,因为大部分同学都希望在后台运行这些自动化任务。而PhantomJS通过提供无界面浏览器的功能,解决了Selenium直接使用的一些缺点。它能够在后台执行任务,加快执行速度,并且占用较少的内存资源。这使得PhantomJS成为一个强大的工具,适用于自动化测试、网络爬虫、屏幕截图等各种应用场景。
2023-09-23 12:59:41 1432
原创 【Python从入门到进阶】36、Selenium 动作交互
动作操作在爬虫领域具有重要的作用和意义。虽然传统的爬虫主要关注数据的抓取和解析,但随着网站的逐渐发展和演变,越来越多的网页采用了动态加载、异步加载或基于 JavaScript 的交互式元素。在这种情况下,传统的静态页面爬取方法可能无法获取到完整的数据或准确的页面状态。而动作操作则可以模拟人类用户与网页的交互行为,使爬虫能够处理这些动态页面并正确获取所需的数据。
2023-09-17 20:19:36 798
原创 【Python从入门到进阶】35、selenium基本语法学习
Selenium元素通过定位和访问网页上的元素,可以模拟用户与网页的交互操作,通过访问和操作元素,自动执行各种操作,如点击按钮、输入文本、填写表单、选择下拉框等用户界面操作,从而完成各种网页任务。
2023-09-09 20:26:51 1502
原创 【Python从入门到进阶】34、selenium基本概念及安装流程
Selenium是一种用于自动化Web浏览器操作的开源工具。它提供了一组API(应用程序接口),使开发人员能够使用多种编程语言(如Python、Java、C#等)来控制浏览器的行为。本篇博客我们来了解Selenium的基本概念,并且安装Selenium,编写一个简单的自动化脚本。
2023-09-01 21:12:49 1304
原创 【Python从入门到进阶】33、使用bs4获取星巴克产品信息
上一篇我们介绍了BeautifulSoup的基本概念,以及bs4的基本使用,本篇我们来使用bs4来解析星巴克网站,获取其产品信息。
2023-08-27 11:29:12 818 3
原创 【Python从入门到进阶】32、bs4的基本使用
BeautifulSoup可以处理不规则标记、修复糟糕的HTML和提供简单的遍历和搜索功能。使用BeautifulSoup,可以通过标签名称、属性值和文本内容等条件来搜索文档元素,并提取所需的数据。通过BeautifulSoup,可以轻松地提取文档中的数据,例如标题、段落、链接、表格等。您还可以通过遍历树状结构,定位某个特定元素、获取其属性值以及修改文档内容。
2023-08-20 18:36:38 638
原创 【杂谈】电脑城的消失:时代变迁中的一段峡谷
在过去很长一段时间里,想要购买电子设备都逃不开一个叫“电脑城”的地方,那里鱼龙混杂良莠不齐,是令许多人记忆深刻分外难忘之处。但是随着时代发展电商兴起,采用传统线下销售的电脑城却逐渐衰退甚至面临消失,对此你怎么看?你觉得电脑城的衰退是好是坏呢?
2023-08-11 10:17:26 375
原创 【Python从入门到进阶】31、使用JSONPath解析淘票票网站地区接口数据
淘票票网站的地区接口数据具有嵌套的JSON结构,其中包含不同层级的地区信息。通过解析这样的复杂数据结构,童鞋们可以学习如何处理和导航嵌套的JSON数据,并运用JsonPath表达式从中提取特定字段或信息。
2023-08-05 16:55:18 1279 2
vue判断输入的快递单号是否符合规则Demo
2022-07-22
使用Sidecar支持异构平台的微服务-代码部分.zip
2020-01-30
Hystrix Dashboard的使用-代码部分.zip
2019-10-20
Feign对Hystrix的支持-代码部分.zip
2019-10-04
覆写Feign的默认配置-代码部分.zip
2019-08-06
将微服务注册到Eureka Server上-代码部分.zip
2019-07-01
Eureka简介与Eureka Server-代码部分.zip
2019-06-26
Spring Boot与MyBatis整合工程
2018-09-08
osgi-SpringDM
2016-03-16
TortoiseSVN-1.8.11.26392-x64-svn-1.8.13.msi
2015-12-20
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人