- 博客(56)
- 资源 (18)
- 收藏
- 关注
原创 5.MATLAB数据类型
MATLAB数据类型MATLAB提供15种基本数据类型,分别是8种整型数据、单精度浮点型、双精度浮点型、逻辑型、字符串型、单元数组、结构体类型和函数句柄。每种数据类型存储矩阵或数组形式的数据。矩阵或数组的最小值是0到0,并且是可以到任何大小的矩阵或数组。下表显示了MATLAB中最常用的数据类型:数据类型描述int88位有符号整数uint88位无符号整数int1616位有符号整数uint1616位无符号整数int3232位有符号整数uint32
2020-07-20 19:52:11 246
原创 4.MATLAB常用命令
MATLAB命令本节的内容将提供常用的一些MATLAB命令。在之前的篇章中我们已经知道了MATLAB数值计算和数据可视化是一个交互式程序,在它的命令窗口中您可以在MATLAB提示符“>>”下键入命令。MATLAB管理会话的命令MATLAB提供管理会话的各种命令。如下表所示:命目的/作用clc清除命令窗口。clear从内存中删除变量。exist检查存在的文件或变量。global声明变量为全局。help搜索帮助主题。lookfor
2020-07-20 19:45:09 267
原创 3.MATLAB变量
MATLAB变量每个MATLAB变量可以是数组或者矩阵。*用一个简单的方法指定变量。例如:x = 3 % defining x and initializing it with a valueMATLAB执行上述语句,并返回以下结果:x = 3上述的例子创建了一个1-1的矩阵名为x和的值存储在其元素中。我们可以看看另外的例子,x = sqrt(16) % defining x and initializing it with an expressionMATL
2020-07-20 19:37:00 322
原创 2.matlab运算符
matlab运算符运算符运算符目的+加;加法运算符-减;减法运算符*标量和矩阵乘法运算符.*数组乘法运算符^标量和矩阵求幂运算符.^数组求幂运算符\矩阵左除/矩阵右除.\阵列左除./阵列右除:向量生成;子阵提取( )下标运算;参数定义[ ]矩阵生成.点乘运算,常与其他运算符联合使用…续行标志;行连续运算符,分行符(该行结果不显示);语句结束;分行符(该行结
2020-07-20 19:28:32 188
原创 1.MATLAB简要介绍
MATLAB介绍认识MATLABMATLAB(矩阵实验室)是由美国MathWorks公司开发的第四代高层次的编程语言和交互式环境数值计算,可视化和编程;MATLAB允许矩阵操作、绘制函数和数据、算法实现、创建用户界面;MATLAB能和在其他语言,包括C、C++、Java和Fortran语言编写的程序接口;MATLAB可以分析数据、开发算法、建立模型和应用程序;MATLAB拥有众多的内置命令和数学函数,可以帮助您在数学计算,绘图和执行数值计算方法。利用MATLAB计算数学利用MATLA
2020-07-20 19:13:25 5893
原创 (23)爬虫pyquery综合实战
import requestsfrom fake_useragent import UserAgentfrom time import sleepfrom random import randintfrom pyquery import PyQuerydef get_html(url): headers={ 'User-Agent':UserAgent().firefox } proxies = { "http": "http://35.
2020-07-19 15:20:08 121
原创 (22)爬虫re库综合实战
import requestsfrom fake_useragent import UserAgentfrom time import sleepfrom random import randintimport redef get_html(url): headers={ 'User-Agent':UserAgent().firefox } proxies = { "http": "http://35.236.158.232:8080"
2020-07-19 12:50:24 115
原创 (21)爬虫beautiful soup库 实战
import requestsfrom fake_useragent import UserAgentfrom time import sleepfrom random import randintfrom bs4 import BeautifulSoupdef get_html(url): headers={ 'User-Agent':UserAgent().firefox } proxies = { "http": "http://35
2020-07-19 11:40:42 126
原创 (20)爬虫xpath综合实战
import requestsfrom fake_useragent import UserAgentfrom lxml import etreefrom time import sleepfrom random import randintdef get_html(url): headers={ 'User-Agent':UserAgent().firefox } proxies = { "http": "http://35.236.15
2020-07-18 19:22:39 137
原创 (19)爬虫 selenium
from selenium import webdriverd=webdriver.Edge()d.get('https://www.baidu.com/')
2020-07-17 21:15:34 114
原创 (18)爬虫xpath实战
import requestsfrom lxml import etreefrom fake_useragent import UserAgenturl = 'https://tech.163.com/20/0716/07/FHL0LPK300097U7T.html'headers={ 'User-Agent':UserAgent().chrome}response = requests.get(url, headers=headers)e=etree.HTML(response.t.
2020-07-17 12:49:04 154
原创 (6)单片机独立按键
#include <reg52.h>typedef unsigned char u8;typedef unsigned int u16;sbit key=P2^2;sbit led=P3^2;void delay(u16 i){ while(i--);}void keypr(){ if(key==0) { delay(); if (key==0) { led=~led; } while(!key): }}void main(){
2020-07-16 15:14:45 114
原创 爬虫Scrapy之一(17)
1. Scrapy 框架介绍Scrapy是Python开发的一个快速,高层次的屏幕抓取和web抓取框架,用于抓取web站点并从页面中提取结构化的数据。Scrapy = Scrach+PythonScrapy用途广泛,可以用于数据挖掘、监测和自动化测试、信息处理和历史档案等大量应用范围内抽取结构化数据的应用程序框架,广泛用于工业Scrapy 使用Twisted 这个异步网络库来处理网络通讯,架构清晰,并且包含了各种中间件接口,可以灵活的完成各种需求。Scrapy是由Twisted写的一个受欢
2020-07-16 11:08:24 235
原创 爬虫Tesseract(16)
1. Tesseract介绍tesseract 是一个google支持的开源ocr项目其项目地址:https://github.com/tesseract-ocr/tesseract目前最新的源码可以在这里下载2. Tesseract安装包下载Tesseract的release版本下载地址:https://github.com/tesseract-ocr/tesseract/wiki/Downloads,这里需要注意这一段话:Currently, there is no official
2020-07-16 11:06:37 148
原创 爬虫——Selenium 处理滚动条(15)
Selenium 处理滚动条selenium并不是万能的,有时候页面上操作无法实现的,这时候就需要借助JS来完成了当页面上的元素超过一屏后,想操作屏幕下方的元素,是不能直接定位到,会报元素不可见的。这时候需要借助滚动条来拖动屏幕,使被操作的元素显示在当前的屏幕上。滚动条是无法直接用定位工具来定位的。selenium里面也没有直接的方法去控制滚动条,这时候只能借助J了,还好selenium提供了一个操作js的方法:execute_script(),可以直接执行js的脚本一. 控制滚动条高度1.1滚
2020-07-16 11:05:35 723
原创 爬虫Selenium(14)
1. SeleniumSelenium是一个Web的自动化测试工具,最初是为网站自动化测试而开发的,类型像我们玩游戏用的按键精灵,可以按指定的命令自动操作,不同是Selenium 可以直接运行在浏览器上,它支持所有主流的浏览器(包括PhantomJS这些无界面的浏览器)。Selenium 可以根据我们的指令,让浏览器自动加载页面,获取需要的数据,甚至页面截屏,或者判断网站上某些动作是否发生。Selenium 自己不带浏览器,不支持浏览器的功能,它需要与第三方浏览器结合在一起才能使用。但是我们有时候需要
2020-07-16 11:04:20 141
原创 (17)爬虫—多线程
from threading import Threadfrom queue import Queuefrom fake_useragent import UserAgentimport requestsfrom lxml import etree# 爬虫类class CrawlInfo(Thread): def __init__(self, url_queue, html_queue): Thread.__init__(self) self.url_
2020-07-16 11:01:40 80
原创 (16)爬虫jsonpath
from jsonpath import jsonpathimport requestsurl=''headers={ 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50'}response=requests.get(url,headers=headers)name=jsonpath(json.loads(r.
2020-07-15 16:45:42 94
原创 (15)爬虫pyquery
from pyquery import PyQuery as pqimport requestsurl='https://ip.jiangxianli.com/?page=1'headers={ 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50'}response=requests.get(url,headers
2020-07-15 12:14:20 86
原创 (14)爬虫xpath使用
from lxml import etreeimport requestsurl = 'https://www.qidian.com/all'headers={ 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50'}response = requests.get(url,headers=headers)e = e
2020-07-14 21:53:40 157
原创 (13)爬虫re
import restr = 'I Study python3.7 everyday'print('--'*50)m1 = re.match(r'.',str)print(m1.group())#m2=re.search(r'S\w+',str)#print(m2.group())m3 = re.search(r'p\w+.\w',str)print(m3.group())print('--'*50)f1 = re.findall(r'y',str)print(f1)print.
2020-07-14 18:25:36 90
原创 (12)爬虫beautifulsoup使用
soup=BeautifulSoup(str,'lxml')print(soup.title)print(soup.div.attrs)print(soup.div.text)print(soup.div.string)print(soup.strong.prettify)print('__'*100)print(soup.find_all(class_='info'))print(soup.find_all('div',attrs={'float':'left'}))prin
2020-07-14 18:21:01 91
原创 (5)单片机动态数码管
#include <reg52.h>typedef unsigned char u8;typedef unsigned int u16;sbit LSA=P2^2;sbit LSB=P2^3;sbit LSC=P2^4;unsigned char smgduan [16]={0x3f,0x06,0x5b,0x4f,0x66,0x6d,0x7d,0x07,0x7f,0x6f,0x77,0x7c,0x39,0x5e,0x79,0x71};void delay(u16 i){
2020-07-10 19:57:23 217
原创 (4)单片机静态数码管
#include <reg52.h>typedef unsigned char u8;typedef unsigned int u16;unsigned char smg [11]={0xc0,0xf9,0xa4,0xb0,0x99,0x92,0x82,0xf8,0x80,0x90,0x88};void delay(u16 i){ while(i--);}void main(){ unsigned char i; while(1) { for(i=0;i<1
2020-07-10 14:17:43 160
原创 爬虫多线程(13)
1. 引入我们之前写的爬虫都是单个线程的?这怎么够?一旦一个地方卡到不动了,那不就永远等待下去了?为此我们可以使用多线程或者多进程来处理。不建议你用这个,不过还是介绍下了,如果想看可以看看下面,不想浪费时间直接看2. 如何使用爬虫使用多线程来处理网络请求,使用线程来处理URL队列中的url,然后将url返回的结果保存在另一个队列中,其它线程在读取这个队列中的数据,然后写到文件中去3. 主要组成部分3.1 URL队列和结果队列将将要爬去的url放在一个队列中,这里使用标准库Queue
2020-07-09 20:37:38 76
原创 爬虫pyquery(12)
1. pyquery1.1 介绍如果你对CSS选择器与Jquery有有所了解,那么还有个解析库可以适合你–Jquery官网https://pythonhosted.org/pyquery/1.2 安装pip install pyquery1.3 使用方式1.3.1 初始化方式字符串 from pyquery import PyQuery as pq doc = pq(str) print(doc(tagname))url from py
2020-07-09 20:35:34 77
原创 爬虫JSON(11)
1. JSON与JsonPATHJSON(JavaScript Object Notation) 是一种轻量级的数据交换格式,它使得人们很容易的进行阅读和编写。同时也方便了机器进行解析和生成。适用于进行数据交互的场景,比如网站前台与后台之间的数据交互。JSON和XML的比较可谓不相上下。Python 中自带了JSON模块,直接import json就可以使用了。官方文档:http://docs.python.org/library/json.htmlJson在线解析网站:http://www.js
2020-07-09 20:34:26 111
原创 爬虫 XPath(10)
1. 介绍之前 BeautifulSoup 的用法,这个已经是非常强大的库了,不过还有一些比较流行的解析库,例如 lxml,使用的是 Xpath 语法,同样是效率比较高的解析方法。如果大家对 BeautifulSoup 使用不太习惯的话,可以尝试下 Xpath官网 http://lxml.de/index.htmlw3c http://www.w3school.com.cn/xpath/index.asp2. 安装pip install lxml3. XPath语法XPath 是一门在
2020-07-09 20:33:14 168
原创 爬虫Beautiful Soup(9)
1. Beautiful Soup的简介Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。Beautiful Soup自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码。你不需要考虑编码方式,除非文档没有指定一个编码方式,这时,Beautiful Soup就不能自动识别编码方式了。然后,你仅仅需要说明一下原始编码方式就
2020-07-09 17:11:44 239
原创 爬虫实例(8)
import requestsimport reurl='https://www.qiushibaike.com/text/'header = { 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50'}response= requests.get(url,headers=header)info=response.
2020-07-09 17:07:18 106
原创 爬虫re(7)
1. 提取数据在前面我们已经搞定了怎样获取页面的内容,不过还差一步,这么多杂乱的代码夹杂文字我们怎样把它提取出来整理呢?下面就开始介绍一个十分强大的工具,正则表达式!正则表达式是对字符串操作的一种逻辑公式,就是用事先定义好的一些特定字符、及这些特定字符的组合,组成一个“规则字符串”,这个“规则字符串”用来表达对字符串的一种过滤逻辑。正则表达式是用来匹配字符串非常强大的工具,在其他编程语言中同样有正则表达式的概念,Python同样不例外,利用了正则表达式,我们想要从返回的页面内容提取出我们想要的内容
2020-07-09 13:47:45 117
原创 (11)爬虫requests---cookie
import requestssession=requests.Session()header = { 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50'}login_url = 'https://cnpassport.youku.com/newlogin/login.do?appName=youku&f
2020-07-09 12:40:41 108
原创 (10)爬虫requests---ssl
import requestsheader = { 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50'}url = 'https://www.12306.cn/index/'requests.packages.urllib3.disable_warnings()#忽略安全警告response=requests
2020-07-09 12:30:32 99
原创 (9)爬虫requests----代理IP
import requestsheader = { 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50'}url = 'http://httpbin.org/get'prox={ '':''}response=requests.get(login_url,headers=header,proxies=
2020-07-09 12:29:20 97
原创 (8)爬虫requests----post使用
import requestsheader = { 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50'}login_url = 'https://cnpassport.youku.com/newlogin/login.do?appName=youku&fromSite=23'params={ .
2020-07-09 12:16:35 132
原创 (7)爬虫requests库
import requestsheader = { 'User-Agent':'Mozilla/5.0(Windows;U;WindowsNT6.1;en-us)AppleWebKit/534.50(KHTML,likeGecko)Version/5.1Safari/534.50'}url = 'https://www.baidu.com/s'params={ 'wd':'尚学堂'}response=requests.get(url,headers=header,params
2020-07-09 11:50:55 78
原创 爬虫requests库(6)
1. 介绍对了解一些爬虫的基本理念,掌握爬虫爬取的流程有所帮助。入门之后,我们就需要学习一些更加高级的内容和工具来方便我们的爬取。那么这一节来简单介绍一下 requests 库的基本用法2. 安装利用 pip 安装pip install requests3. 基本请求req = requests.get("http://www.baidu.com")req = requests.post("http://www.baidu.com")req = requests.put("http:/
2020-07-09 11:36:11 92
Stata练习数据——nerlove.xls
2020-10-10
tensorflow-2.3.0rc1-cp37-cp37m-win_amd64.whl
2020-08-21
k-means同心圆的聚类代码
2018-11-08
数学建模代码,供同学使用
2018-09-08
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人