- 博客(50)
- 收藏
- 关注
原创 数据结构实验之排序八:快速排序
题目描述给定N(N≤10^5)个整数,要求用快速排序对数据进行升序排列,注意不得使用STL。input849 38 65 97 76 13 27 49output13 27 38 49 49 65 76 97代码#include<iostream>using namespace std;void func(int a[],int l,int r){ int k = a[l],i=l,j=r; if(l>=r) return;
2021-03-16 21:55:08 421
原创 信息安全数学基础实验报告
#欧几里得算法求最大公因数a = eval(input("请输入一个数:"))b = eval(input("请再次输入:"))a = abs(a)b = abs(b)print(a)if a < b : a,b = b,ar = a % bwhile r : a = b b = r r = a % bprint(b)#实现10000以内...
2019-05-18 18:56:40 1185 1
转载 NGINX学习笔记一
NGINX安装NGINX依赖于pcre库,首先安装pcreyum install pcreyum install pcre-develcd 地址wget nginx官网地址tar zxvfnginx-1.4.2.tar.gzcd nginx-1.4.2./configure --prefix=地址make && make install启动cd 地址查...
2019-03-29 20:43:03 186
转载 MYsql文件检索器
import nltkimport pymysql as pymysqlinfilename = input("Enter the name of the file to index:")conn = pymysql.connect(user="root", passwd="", db="dsbd")cur = conn.cursor()QUERY = "insert into ...
2019-03-25 20:32:30 276
转载 Linux下出现错误:无法修正错误,因为您要求某些软件包保持现状,就是它们破坏了软件包间的依赖关系
谢谢博主以下链接https://blog.csdn.net/wfivenx/article/details/82121404
2019-03-24 21:11:23 968
原创 爬虫入门实例十
import urllib.requestfrom http import cookiejarimport requestsfrom bs4 import BeautifulSoupdef get_html(url): try: h = { 'Cookie':'bid=JoOO5Fbfy_U; ll="118222"; dbcl2="193...
2019-03-22 20:47:04 328
转载 代理IP
原理:以主机先访问代理ip,再通过代理IP地址访问互联网,网站(服务器)接收到的访问IP就是代理IP。urllib.request.ProxyHandler()动态设置代理IP池。代理IP主要以 字典的形式写入。设置代理之后,将设置好的代理IP写入urllib.request.build_opener()方法 ,生成opener对象,通过opener的open方法向网站(服务器)发送...
2019-03-22 19:15:50 724
转载 爬虫入门实例九
import urllib.requestfrom http import cookiejar#使用cookie先保存# 设置文件来存储Cookiefilename = 'cookie.txt'#创建一个MozillaCookieJar()对象实例来保存Cookiecookie = cookiejar.MozillaCookieJar(filename)#创建Cookie处理器...
2019-03-22 19:07:45 125
原创 requests与urllib.request
requests很明显,在写法上与urllib.request不同,前者多一个 S.导入包时:import requestsimport urllib.requesturllib.request请求模块urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cadefault=Fal...
2019-03-20 22:16:18 1327
原创 有关BeautifulSoup杂记
BeautifulSoupBeautifulSoup对象分为Tag,NavigableString,BeautifulSoup,Comment 。TagSoup.Tag。其中Tag 表示HTML中标签名,例如title,p,a,等。print(soup.title) BeautifulSoup技术返回完整的标签内容,包括标签的属性,内容以及子标签。相同标签有多个...
2019-03-20 15:36:53 190
原创 模重复平方计算法
#include <iostream>#include<cmath>using namespace std;int main(){ int b,m,tmp; //tmp表示指数 while(cin>>b>>tmp>>m) { int base = 0, top = 0, node[100...
2019-03-19 20:35:57 686
原创 词频统计器
from collections import Counterimport reimport urllib.requesturl = input("Please enter the url:")try: page = urllib.request.urlopen(url)except: print("打开失败!") quit()doc = page.read(...
2019-03-18 16:41:12 215
原创 链接失效检测器
爬取豆瓣import bs4from bs4 import BeautifulSoupimport requestsimport reimport osdef get_html(url):try:d = {‘User Agent’: “Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko...
2019-03-18 16:17:27 340
原创 爬虫入门实例八
import urllib.requestimport webbrowser as weburl = "http://www.baidu.com"content = urllib.request.urlopen(url)print(content.headers)print(content.info())print(content.getheaders())# 元组的形式#以上三...
2019-03-16 19:22:39 154
原创 爬虫入门实例七
import urllib.requestimport urllib.parseimport stringdef get_method_params(): url = "http://www.baidu.com/s?wd=" name = "美女" #name = { # "wd":"中文" # } ...
2019-03-16 19:20:21 131
原创 爬虫入门实例(六)
import requestsimport reimport jsonfrom bs4 import BeautifulSoupdef get_html(url): try: d = {'User Agent': "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko)...
2019-03-10 10:36:09 139
原创 小程序笔记
简要记录一下,这一个月来一边学一遍做的只是收获。Page({ })内,onShareAppMessage() { return { title: '当前借阅', path: '/pages/borrow/borrow' } },表示在小程序界面右上角三个点处,加入转发功能,title是当前页面的标题,desc当前小程序名称,path当前页...
2019-03-09 22:03:27 134
原创 求素数
编写程序产生10000以内的素数#include <iostream>#include<cmath>using namespace std;bool func(int n){ if(n==2||n==3) return 1; if(n%6!=1&&n%6!=5) return 0; int t...
2019-03-03 20:56:00 135
原创 最大公因数
编写程序计算整数a,b的最大公因数(a,b)#include <iostream>using namespace std;int main(){ int a,b ; while(cin>>a>>b) { if(a<b) { int tmp = a; ...
2019-03-03 20:54:20 1665 1
原创 SDUT-OJ4316梦回2008
#include <iostream>using namespace std;int main(){ int n; while(cin>>n) { if(n==0) break; long long int sum = 1; while(1) { ...
2019-03-02 22:10:25 185
转载 python框架简略认识(二)
FlaskFlask是一个使用python编写的轻量级web应用框架。 WSGI 工具箱采用 Werkzeug ,模板引擎则使用 Jinja2 ,Flask使用 BSD 授权。Jinja2模板实现模板的处理,将模板和数据进行渲染,将渲染的字符串返回给用户浏览器。默认情况下,,Flask 不包含数据结构抽象层,表单验证,或者其他已有多种库可以胜任的功能。简介Flask保留了扩增的弹性,可以...
2019-03-01 21:49:24 145
转载 python框架简略认识(一)
Django开放源代码的web应用框架,采用了MVC的框架模式,即模型M,视图V和控制器C。Django框架核心组件:用于创建模型的对象关系映射为最终用户设计的完美管理界面一流的url设计缓存系统设计概念在Django中,控制器接受用户输入的部分由框架自行处理,Django更关注的是模型,模板,视图,简称为MTV模式层次职责模型(Model)数据存储层处...
2019-03-01 20:59:21 244
转载 git相关命令
命令描述意义git clone把远程仓库拉到本地git add . (注意这里有个点)添加当前目录下的所有文件git add ./*文件名称添某个文件git commit -m “注释”提交到本地仓库git pull解决合作时更改同一文件产生冲突git branch查看当前分支git push提交到远程仓库git rm -...
2019-02-28 20:45:34 93
转载 git rm 与 git rm --cached
当我们需要删除暂存区或分支上的文件, 同时工作区也不需要这个文件了, 可以使用git rm file_pathgit commit -m ‘delete somefile’git push当我们需要删除暂存区或分支上的文件, 但本地又需要使用, 只是不希望这个文件被版本控制, 可以使用git rm --cached file_pathgit commit -m ‘delete r...
2019-02-28 20:10:40 1425
原创 SDUT-OJ1019阿牛的EOF牛肉串
#include<iostream>using namespace std;int main(){ int n,i; long long int a[55]; a[1] = 3,a[2] = 8; while(cin>>n) { for(i=3;i<=n;i++) a[i] = 2 * (a[i-1...
2019-02-28 09:20:12 155
原创 SDUT-OJ4338家里有矿
#include<iostream>using namespace std;int main(){ int n,x,y; cin>>n; cin>>x>>y; long long int max_x = x,max_y = y,min_x = x,min_y = y; for(int i = 2; i &...
2019-02-28 09:04:04 252
原创 openpyxl
首先确保你已经导入openpyxl包,使用安装包import openpyxl;如若没有,去cmd窗口pip install openpyxl;若在.pip install openpyxl出现问题:Command “python setup.py egg_info” failed with error code 1,可以参考 使用:python -m pip install --u...
2019-02-18 20:55:57 793
原创 BeautifulSoup中select关键字
select()标签名不加任何修饰,类名前加点,id名前加#,属性用[ 属性 = ‘*****’ ].select()以列表的形式返回。导入形式from bs4 import BeautifulSoup(基于python3.6).# 通过标签名查找soup = BeautifulSoup(html, "lxml")list = soup.select('div')# 查找div标签...
2019-02-18 10:31:17 2137
原创 urlencode
urlencode将字符串以url的形式编码,返回值是一个字符串。例如空格在编码后会变成加号。在python3.6以后,通过from urllib.parse import urlencode导入,很久之前的版本,通过from urllib import urlencode的形式导入python 例如:data = { 'aid': 24, 'offset...
2019-02-17 21:18:47 1106
原创 爬虫入门实例(六)
爬去豆瓣电影排行榜,新片榜(爬取图片):import requestsimport reimport jsonfrom bs4 import BeautifulSoupdef get_html(url): try: d = {'User Agent': "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.3...
2019-02-17 14:40:35 408
原创 BeautifulSoup中find,find_all
find()若希望会找到BeautifulSoup对象内的 任何第一个标签入口,使用find方法,返回标签内容。find(name,attrs, recursive, text, **wargs)#recuasive 递归,循环的; 默认true通过对name限定,查找标签对text限定,查找文本基于正则表达式的查找对attrs限定,查找标签的属性例如:attrs = {‘class...
2019-02-17 09:13:26 849
原创 yield关键字
yield关键字:yield--------生成器生成器是一个不断产生值的函数包含yield语句的函数是一个生成器生成器每次产生一个值(yield语句),函数被冻结,被唤醒后在产生一个值优势节省储存空间响应更加迅速使用更加灵活...
2019-02-15 16:50:40 675 1
原创 简单scrapy框架实例
打开cmd命令窗口,scrapy startproject python_demo。新建一个名为python_demo的工程文件夹。python_demo文件夹:scrapy.cfg——部署scrapy爬虫的配置文件python_demo/——scrapy框架的用户自定义python代码__init__.py——初始化脚本 (继承类)items.py——items代码模板(继承...
2019-02-15 16:36:16 242
原创 scrapy框架简单了解
scrapy:是一个遍历爬行网站 ,分析获取数据而设计的应用程序框架,原本设计用于屏幕抓取(网络抓取)也可以用来访问api来提取数据;广泛应用与数据挖掘、信息处理、历史片打包等等。“5+2”结构Engine:不需要用户修改控制所有模块之间的数据流根据条件触发事件Doenloader:不需要用户修改根据请求下载网页Scheduler:不需要用户修改对所有爬取请求调度管...
2019-02-15 11:26:50 179
转载 python之文件的读/写
读写的方法python中,常见的方法有read(),readline(),readlines(),write(),writelines().read()方法返回字符串或字节串,可以设置参数,用指定读出字节数,不指定或指定为负数这是读取全部内容。readline()方法读取一行数据,包括’\n’字符,如果指定参数(参数是字节数),则读取指定字节数的字符。readlines()方法以行为单位...
2019-01-25 10:05:17 182
转载 python之文件目录
文件目录remove()方法用于删除文件。该方法的参数是待删除的文件名,文件名以字符串形式表达。import osos.remove('abc')# 删除文件名称为‘abc’的文件rename()方法用于对文件换名。该方法需要两个参数。 os.rename(current_file_name,new_file_name)例如:os.rename('maoyan....
2019-01-24 21:37:28 181
转载 ls命令
ls命令 用来显示目标列表,使用效率较高。输出的信息可以进行彩色加亮显示,以区分不同类型的文件。语法ls (选项) (参数)选项-a : 显示所有档案及目录(ls内定档案名或目录名称为‘“ . ”的视为影藏,不会列出)-A : 显示除影藏文件“ . ”和“ … ”以外的所有文件列表-C : 多列显示结果。默认选项-l : 与“ -C ”选项功能相反,所有输出信息用单列格式输出...
2019-01-24 21:08:48 2865
转载 python之文件的打开与关闭
文件与目录在python系统中,文件是一个对象类型,类似字典,元组等其他类型。Python系统的文件概念不局限于磁盘上的文件,还可以是抽象的,具有文件型接口的类文件。——摘自《Python程序设计教程》python提供open()函数建立文件对象,并打开要读写的文件open()打开格式&amp;lt;file_object&amp;gt; = open(&amp;lt;filename&amp;gt;[,&
2019-01-24 21:01:28 1829 1
原创 爬虫前的准备工作
首先确保你有python环境。可以在命令提示符窗口输入python检测一下是否已安装python。请求库的安装。常用的第三方库有requests,Selenium和aiohttp。requests安装,在命令提示符窗口输入pip3 install requests.第三方库,python默认不会自带这个库。Selenium安装,在命令提示符窗口输入pip3 install Selen...
2019-01-24 18:42:38 441
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人