自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 linux压缩与解压缩

zip用的比较少多数用tar -zcvf xxx.tar xxxx目录/xxx文件解压缩tar -zxvf xxxx.tar -C xxxxx目录将xxx.tar 解压到xxxx目录

2021-11-01 09:51:45 69

原创 linux对文件、目录操作的小结

**{rwx} 读 、 写 、 执行**分为两部分1对目录读 、 写 、 执行ll mkdir cdls rmdir2对文件读 、 写 、 执行cat vim 执行脚本(shell语音)×less vimore

2021-11-01 01:02:24 97

原创 IDEA快捷键

2021-05-11 16:32:10 71

原创 app启动

2021-05-11 15:42:30 59

原创 安卓输入框的图片

2021-04-28 22:40:35 134

原创 关系型数据库进阶2020.9.25

关系型数据库进阶from sqlalchemy import create_engine,MetaData,Tablefrom sqlalchemy import String,Column,Integer,select,ForeignKeyfrom sqlalchemy.orm import sessionmaker,relationshipfrom sqlalchemy.ext.declarative import declarative_baseBase=declarative_bas.

2020-09-25 00:55:47 74

原创 复习1(2020.9.23)

from requests import getfrom lxml import etreeimport csvimport osfrom sqlalchemy import create_engine,MetaData,Tablefrom sqlalchemy import String,Integer,Columnfrom urllib import parseimport reengine=create_engine( "mysql+pymysql://root:root@12

2020-09-23 01:52:11 75

原创 os模块,小块读取,操作json,操作csv(逗号分隔值),操作excel,导出mysql表->csv

import osimport uuidfrom uuid import UUIDimport jsonfilename='test'if not os.path.exists(filename): os.mkdir(filename)else: print('已有')print(os.getcwd())#得到绝对路径print(os.path.join(os.getcwd(),'test'))print(uuid.uuid1())print(uuid...

2020-09-20 14:57:11 101

原创 输入关键字搜索并下载图片(从百度)2020.9.19

(1)首先导入requests,uuid,json库import requestsimport jsonimport uuidfrom urllib import parse#模仿浏览器的请求头#请求头headers={'Referer': 'https://image.baidu.com/search/index?tn=b' 'aiduimage&ps=1&ct=201326592&lm=-1&cl=2&nc

2020-09-19 23:29:09 490

原创 xpath的练习2020.9.7

第一步:导入lxml库from lxml import etree #导入lxml库解析html文件,后面用xpath查找from requests import get第二步:写get_html(url)函数def get_html(url): html=get(url) if(html.status_code==200): print('ok') soup=etree.HTML(html.text) titles=soup.xpath('//div[@id="content

2020-09-17 23:20:06 222

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除