自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(32)
  • 收藏
  • 关注

原创 Spring6-01-入门案例

Spring6的默认JDK版本是17,所以这里选择JDK17,然后next项目名自取,GroupId可改可不改,然后直接Finish即可!

2023-04-06 15:42:48 174

原创 JUC中原子类的简单用法

【代码】JUC中原子类的简单用法。

2023-04-03 17:29:16 152

原创 JMM知识总结

JMM(Java内存模型Java Memory Model,简称JMM)本身是一种抽象的概念并不真实存在它仅仅描述的是一组约定或规范,通过这组规范定义了,关键技术点都是围绕多线程的原子性、可见性和有序性展开的。

2023-04-02 18:44:11 174

原创 Java加锁的三种方法总结与案例

结论:一、1和2中的await和wait都需要先加锁再使用,否则报错二、如果先唤醒再加锁 则会造成线程阻塞,无法被唤醒三、park和unpark方法则没有上述限制,不加锁也能使用,顺序颠倒也不会影响线程被唤醒。

2023-04-02 14:43:24 1563

原创 JUC-5-CompletableFuture常见API

【代码】JUC-5-CompletableFuture常见API。

2023-04-01 16:45:19 89

原创 JUC-4-案例:电商网站比价需求分析

【代码】JUC-4-案例:电商网站比价需求分析。

2023-04-01 16:05:20 85

原创 常见函数式接口

无参数、无返回值。

2023-04-01 14:59:26 87

原创 JUC-2-CompletableFuture的引出

CompletableFuture是Future的增强版,可以减少阻塞和轮询,也可以传入回调对象,当异步任务完成或者发生异常时,自动调用回调对象的回调方法!!CompletableFuture中的回调函数whenComplete和exceptionally/*** 有返回值test3();} /*** CompletableFuture的一般用法//使用自定义的线程池 ExecutorService pool = Executors . newFixedThreadPool(3);

2023-04-01 14:44:48 49

原创 JUC-1-FutureTask的引出

Callable接口可以获取返回结果。

2023-04-01 10:35:45 54

原创 dao数据库重复代码封装

SQL语句可以分为DQL和非DQL两种;

2023-03-31 21:10:00 80

原创 Druid工具类的封装v2.0

1.0版本的工具类,不能确保一个线程中的所有方法获取的连接都是同一个,2.0版本基于这一缺点做了改进,工具类改进代码如下。

2023-03-31 20:11:50 92

原创 Druid工具类的封装v1.0

【代码】Druid工具类的封装v1.0。

2023-03-31 19:09:14 57

原创 Druid连接池的基本使用

如图所示,T1为连接建立时间,T2为使用时间,T3为连接销毁时间。

2023-03-31 18:38:05 306

原创 JDBC事务

新建一个transaction包。

2023-03-31 16:44:08 41

原创 JDBC批量插入优化

【代码】JDBC批量插入优化。

2023-03-31 15:35:58 253

原创 JDBC自增长主键回显

一般数据库中表的主键是自增长的,有时候在插入记录时,需要获取该条记录的主键id。

2023-03-31 15:20:21 229

原创 PreparedStatement测试CRUD

【代码】PreparedStatement测试CRUD。

2023-03-30 20:40:11 59

原创 防止SQL注入

【代码】防止SQL注入。

2023-03-30 20:19:03 44

原创 SQL注入问题

【代码】SQL注入问题。

2023-03-30 20:04:12 49

原创 SQL语句分类即及Statement.executeQuery使用

sql语句分类:1、DDL:容器(库、表)创建、修改、删除2、DML:插入、修改、删除3、DQL:查询4、DCL:权限控制5、TPL:事务控制语言executeQuery方法返回结果:参数:非DQL sql返回:受影响行数参数:DQL sql返回:结果集对象 ResultSet。

2023-03-30 20:00:05 342

原创 JDBC连接数据库方法二

【代码】JDBC连接数据库方法二。

2023-03-23 20:40:34 38

原创 Java使用JDBC连接数据库

2 admin 666666 管理员。1 root 123456 经理。

2023-03-23 20:08:45 77

原创 比较好用的mysql可视化工具-----pycharm连接mysql图文教程

1.mysql可视化工具常用的mysql可视化工具有很多,如:sqlyog、navicat等等,使用这些工具需要另外安装,有的还可能收费。这里推荐一个比较容易被大家忽略的mysql可视化工具,大多数学python的人,都会使用pycharm,不得不说pycharm的功能及其强大,pycharm本身也是一个功能很强的数据库可视化工具,换句话说,如果安装了pyharm,那根本没必要在安装其他可视化工具了!这里以pycharm链接mysql为例,记录一下详细过程,供大家参考!2.使用工具我使用的工具如下

2021-08-14 16:51:09 9373 3

原创 使用pycharm可视化学习mysql的增删改查(CRUD)

1.使用pycharm连接mysql请参考文章比较好用的mysql可视化工具-----pycharm连接mysql图文教程2.pycharm可视化学习SQL操作2.1 创建数据库编写如下SQL代码创建数据库test,然后选中这两行代码,再点击执行操作,结果如下:注意:执行按钮不是平常执行python脚本的哪个按钮是下图中第二步标注的哪个地方的按钮-- 如果test数据库不存在,就创建test数据库:CREATE DATABASE IF NOT EXISTS test;2.2 选择数据库

2021-08-14 16:49:37 4409

原创 使用Beautiful Soup和requests爬取豆瓣电影top250

1. Beautiful Soup前面介绍了Beautiful Soup的基本使用方法,请参考文章 爬虫利器BeautifulSoup之CSS选择器的基本使用和Beautiful Soup之find()和find_all()的基本使用,现在搞个实例来验证一下。就以爬取豆瓣电影信息为例吧。2. 分析请求链接打开豆瓣电影top250首页信息如下:下滑到最下方,可以看到一共有10页,F12或右键检查每页的具体链接,可以发现如下规律:#第1页:https://movie.douban.com/top2

2021-08-13 23:13:28 4078

翻译 Beautiful Soup之find()和find_all()的基本使用

1.HTML文本这里以官方文档提供的html代码来演示Beautiful Soup中find_all()和find()的基本使用。<html><head><title>The Dormouse's story</title></head><body><p class="title"><b>The Dormouse's story</b></p><p class="stor

2021-08-12 22:22:19 10084

原创 爬虫利器BeautifulSoup之CSS选择器的基本使用

1.BeautifulSoup简介BeautifulSoup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。BeautifulSoup自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码。你不需要考虑编码方式,除非文档没有指定一个编码方式,这时,Beautiful Soup就不能自动识别编码方式了。然后,你仅仅需要说明一下原始编码方式就可以了。Bea

2021-08-12 21:11:09 3664

原创 python爬虫之使用selenium爬取京东商品信息并把数据保存至mongodb数据库

1.使用工具python3pymongomongodbseleniumchrome浏览器2.具体分析2.1 URL分析打开京东首页,在搜索框任意输入一个商品名称,这里以华为最新发布的手机华为p50为例,点击搜索,页面如下所示:可能会出现登录界面,可以先登录一下:进入首页后,先记录首页链接,然后连续下滑,可以看到翻页的地方:点击第二页额、第三页、第四页,然后记录下每一页的链接,可以发现如下规律:第一页:https://search.jd.com/search.php?key

2021-08-10 21:06:33 3011

原创 python爬虫爬取淘宝商品并保存至mongodb数据库

使用工具介绍python3.8selenium(请确保你已经成功安装了谷歌驱动chromedriver)mongodb数据库mongo-compass谷歌浏览器分析请求链接打开淘宝首页的链接,https://www.taobao.com/如下:这里以商品ipad为例,在搜索框输入ipad,点击搜索,如下所示:复制前四页的链接:找一下规律第一页:https://uland.taobao.com/sem/tbsearch?refpid=mm_26632258_3504122_3253

2021-08-09 21:39:01 4403

原创 python操作Excel之openpyxl的基本使用

1.安装openpyxlpip install openpyxl2.创建表格from openpyxl import Workbook# 创建一个对象wb = Workbook()# 使用默认的Sheetws = wb.active# 添加一行数据ws.append([1, 2, 3])# 再创建一张表单 命名为MySheet2ws2 = wb.create_sheet('MySheet2')# 给MySheet2 添加一行数据ws2.append([4, 5, 6])

2021-07-20 23:20:55 417

原创 python使用pymongo连接mongo数据库最简单实用的方法

python使用pymongo连接mongo数据库最简单实用的方法1.安装​ 安装pymongopip install pymongo​ 可视化工具使用的是mongodb compass2.连接数据库2.1 简单测试​ 连接数据库有很多方法,其中最简单的方法如下所示:import pymongocollection = pymongo.MongoClient('localhost', 27017).Test.testd = {"hello": "world"}collec

2021-07-17 11:41:02 2824

原创 scrapy爬虫之爬取百度手机助手app信息并保存至mongodb数据库(附源码)

声明:​ 本文内容仅供学习python爬虫的同学用作学习参考!!!​ 如有错误,请评论指出,非常感谢!!!1.使用环境python 3.8scrapy 2.5mongodbpycharm2.通用爬虫CrawlSpider介绍​ CrawlSpider是Scrapy提供的一个通用Spider。在Spider里,我们可以指定一些爬取规则来实现页面的提取,这些爬取规则由一个专门的数据结构Rule表示。Rule里包含提取和跟进页面的配置,Spider会根据Rule来确定当前页面中的哪些

2021-06-11 18:08:54 713 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除