自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(18)
  • 收藏
  • 关注

原创 JAVA缓存机制问题

在给Float对象赋值时,如果赋的值在-128到127的范围内,Java会使用缓存机制,即返回缓存中已有的对象,而不是每次都创建新的对象。但是,333不在这个范围内,所以每次赋值都会创建一个新的Float对象,因此i11和i22引用的是不同的对象,使用”=="比较会返回false。如果要比较两个Float对象的值是否相等,应该使用equals()方法。原因:在Java中,当比较两个Float对象时,使用"“比较会返回false。输出结果是FALSE。

2024-02-29 19:50:13 138

原创 python Excel文件数据读取

以前处理excel的数据都是先把excel中想要的数据处理成txt形式,再进行处理。

2023-09-08 13:53:47 168 1

原创 Linux shell 命令行学习过程记录

因此,your_linux_command --input_file $(cat time_file.txt) 中的 $() 部分将被替换为 time_file.txt 文件的内容,并作为 --input_file 参数传递给 your_linux_command 命令。这将在/path/to/directory/目录下的所有文件中搜索并输出包含"label1"的行。uniq -c:将排序后的结果去重,并且在每个不同的值前输出它出现的次数。)的语法,用于将一个命令的输出作为另一个命令的一部分。

2023-05-28 21:30:38 268

原创 数据增强(回译):利用百度翻译来进行数据增强

最近在学习一些数据增强的方法,之前尝试过使用同义词替换来增强数据,但感觉效果不太好,所以尝试使用回译的方法来进行数据增强,就结果而言我觉得效果还不错。在使用之前需要安装baidufanyi。效果感觉是还不错,至少语义没有被改变。

2023-03-22 15:53:07 414 4

原创 python中*的作用

随便举了个例子运行了下。

2023-01-05 10:56:03 149

原创 记得每次没包下载包时记得去清华源里找

提醒自己

2022-09-17 15:26:56 156

原创 记录一些学习博客

学习记录

2022-09-15 14:52:33 160

原创 Python中的列表赋值问题:改变一个列表时,另一个列表不改变

今天写代码题遇到的问题如下:temp = [1,2,3]list1 = temptemp.append(4)print(list1)输出的结果是:list1 = [1,2,3,4]运行后发现明明改变的是temp,但list1也跟着temp一起变了。通过查找资料才知道,当list1 = temp这句代码执行后,list1和temp已经是指向同一个列表所以后对temp做改变就相当于对list1做改变。如果想要只是把temp值赋给list1,改变其中一个列表时不会改变另一个列表的值,可以这样做

2022-05-30 11:18:08 1207

原创 关系数据库设计学习

https://blog.csdn.net/Calcular/article/details/79332453

2022-03-01 22:25:41 249

原创 学习爬虫lesson8

最近去mooc看了北理工的那个爬虫教学视频 跟着做了爬取淘宝商品信息那个实例 老师讲的代码大部分都可以用 但由于现在淘宝要登录才能获取信息 所以还要添加一些代码才能得到信息可以登录自己pc端淘宝后 f12查看cookie和header,把这两个信息加入代码头部就ok代码如下:import requestsimport refrom bs4 import BeautifulSoupdef getHTMLText(url): #通用代码框架可以有效处理一些错误 try:

2022-02-07 16:31:58 250

原创 爬虫中文转码问题

今天想去当当爬书籍,结果中文在url里被转码了搜了好久,发现可以解决了还挺简单引urllib.parse中文转就用quote转中文就用unquoteover得亏我搜了这么久,没想到这么简单就能解决。。

2022-02-04 11:56:42 960

原创 学习爬虫lesson7

在网页源代码中找不到章节相关信息,f12后打开全部章节可以看到有相关章节信息出现,headers里有存了章节信息的url,即为代码中的url1接着要具体到每一章中的文字内容,点开第一章,旁边会多吃几条信息,一个个找找到有文本content的那个信息,打开对应的headers,即为代码中的url2text中的内容就是下图,其实就是一个字典...

2022-01-26 17:22:54 2011

原创 学习爬虫lesson6

今天学习了用Xpath去获得数据的一个小例子import requestsfrom lxml import etreeurl = "https://hengyang.zbj.com/search/f/?kw=saas"resp = requests.get(url)#print(resp.text)html = etree.HTML(resp.text)#html.xpath("/html/body/div[6]/div/div/div[2]/div[5]/div[1]/div[1]")

2022-01-20 16:48:31 552

原创 学习爬虫lesson5

今天学习了用beautifulsoup来爬取信息,并完成了爬取一个网站的图片并下载到文件中import requestsfrom bs4 import BeautifulSoupimport timeurl = 'https://www.umei.cc/bizhitupian/weimeibizhi/'resp = requests.get(url)resp.encoding = 'utf-8' #处理乱码#print(resp.text)main_page = BeautifulSou

2022-01-19 15:17:32 519

原创 学习爬虫lesson3

今天学习了如何爬取豆瓣电影top250的数据import requests #通过requests相关功能获得页面源代码import re #通过re来提取页面中的有效信息import csv #存数据到文件里url = 'https://movie.douban.com/top250'Headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko)

2022-01-16 16:17:45 217

原创 学习爬虫lesson2

import re'''lst = re.findall(r"\d+","我的电话:10086,我妈电话是11086")#findall:匹配字符串中所以符合正则的内容print(lst)#finditer:匹配字符串中所有内容【返回的是迭代器】,从迭代器中拿到内容要.group()it = re.findall(r"\d+","我的电话:10086,我妈电话是11086")for i in it: print(i.group()) s = re.search(r"\d+","

2022-01-15 16:27:02 264

原创 学习爬虫lesson1

#这几个例子都是具体的单独的一个数据的爬取,要从网站同时爬取多个还得深入学习从html中提取数据#example 1from urllib.request import urlopenurl = "http://www.baidu.com" #url代表要获取的网页resp = urlopen(url) #打开这个网页得到响应#读出来,decode解码,把read出来的内容保存到文件中去with open("mybaidu.html",mode="w",encoding="utf-8") a

2022-01-12 16:55:53 244

原创 Process finished with exit code -1073740791 (0xC0000409)

今天刚开始接触爬虫 在跟着打代码的运行中就有了问题:Process finished with exit code -1073740791 (0xC0000409)但其实这段代码没有问题 我复制到jupyter notebook中执行是ok的 但在pycharm中会出错 我在想是不是版本太高因为我是刚下的最新版本但我反复debug再run之后又可以正常运行了额...

2022-01-11 15:30:38 220

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除