P02-HTTPS原理解析 1.对称加密(不安全)加密:f1(k, data) = X解密:f2(k, X) = data2.非对称加密(不安全)加密:f(pk, data) = X解密:f(sk, X) = data加密:f(sk, data) = X解密:f(pk, X) = data3.对称+非对称(也不安全)黑客可以伪装服务器。...
P01基础入门-概念名词 1.什么是域名?例如:www.baidu.com2.什么是二级域名、三级域名?顶级域名:com二级域名:baidu三级域名:www总结:根据长度判断是几级域名。3.DNS是什么?负责域名到IP地址的转换4.本地host文件重定向域名的IP地址。(例如host添加:1.2.3.3 www.baidu.com。那么ping www.baidu.com后解析的地址就会变成1.2.3.3 原因是ping的时候会首先查看本机host文件有没有对应的IP地址,如果没有才请求DNS解析)5.CDN是
考研复习代码004数据结构线性表 1.顺序表的实现,静态分配#include<stdio.h>#define MaxSize 10typedef struct{ int data[MaxSize]; int length;}SqList;//基本操作-初始化一个顺序表void InitList(SqList &L){ int i; for(i =0; i<MaxSize; i++) { L.data[i] = 0; } L.length = 0;} //打印 void
考研复习代码003用户建立自己的数据 086.把一个学生的信息(包括学号、姓名、性别、住址)放在一个结构体变量中,然后输出这个学生的信息。#include<stdio.h>int main(){ struct Student { long int num; char name[20]; char sex; char addr[30]; }student1={1713010948,"guochuanchuan",'M',"software college of NUC"}; printf("NO:%
考研代码练习复习大全002-指针 053.通过指针变量访问整型变量#include<stdio.h>int main(){ int a=100,b=10;//定义整型变量,并初始化 int *pointer_1, *pointer_2;//定义指向整形数据的指针变量pointer_1,pointer_2 pointer_1 = &a;//把变量a的地址赋给指针变量pointer_1 pointer_2 = &b;//把变量b的地址赋给指针变量pointer_2 printf("a=%d,
考研复习代码练习001指针前面的程序 001在屏幕输出信息:This is program!#include<stdio.h>int main(){ printf("This is program!"); return 0;}002求两个整数之和#include<stdio.h>int main(){ int a,b,sum; a = 123; b = 23; sum = a + b; printf("sum is %d",sum); return 0;}003
人工智能实训day002-Git了解及使用 1.下载Git2.git --veision(查看安装版本,同时证明安装成功)3.git config --global user.name “用户名”4.git config --global user.email “邮箱”5.mkdir(创建文件)6.ll(查看当前目录下的文件)7.cd file(进入文件)8.git init (初始化仓库)9.git add fille (将文件添加到暂存区)10.git commit -m “提交到仓库的说明或者备注内容”11.git add
网络爬虫信息提取实战之scrapy框架股票信息爬取17 # -*- coding: utf-8 -*-#stocks.pyimport scrapyimport reclass StocksSpider(scrapy.Spider): name = 'stocks' start_urls = ['http://baidu.com/'] def parse(self, respo...
网络爬虫信息提取实战之股票数据15 #导入各种需要用到的库import requestsfrom bs4 import BeautifulSoupimport tracebackimport re# 定义第一个函数,获取网页的数据def getHTMLText(url): try: r = requests.get(url,timeout = 30) ...
网络爬虫信息之实战淘宝书包信息爬取14 # 导入requests和re正则库import requestsimport re# 定义第一个函数实现获取网页数据def getHTMLText(url,loginheaders): try: r = requests.get(url,headers=loginheaders, timeout=30) r.raise_for_status()...
网络爬虫信息提取之实例大学排名012 #导入库import requestsfrom bs4 import BeautifulSoupimport bs4def getHTMLText(url): try: r = requests.get(url,timeout=30) r.raise_for_status() r.encoding = r.apparent_...
网络爬虫之信息提取011 import reimport requestsfrom bs4 import BeautifulSoup#获取html源代码r = requests.get("http://python123.io/ws/demo.html")demo = r.text#输出源代码print(demo)pr...
网络爬虫之前奏总结 1.首先在电脑安装requests库:命令:pip install requests2.爬取网页内容:一:爬取页面内容(文字信息)代码:添加headers是为了对应网站的反爬技术#爬取京东商品页面信息#导入requests库import requests#商品地址url="https://item.jd.com/100012014970.html#crumb-wrap...
网络爬虫前奏之ip归属地查询007 import requestsurl="https://ip38.com/ip.php?ip="try: r=requests.get(url+"202.204.80.112") r.raise_for_status() r.encoding=r.apparent_encoding print(r.text)except: print("爬取失败")...
网络爬虫前奏之图片的爬取006 import requestsimport os#爬取图片的urlurl = "https://images-cn.ssl-images-amazon.com/images/I/81M5fmmHKbL._AC_SL1500_.jpg"#图片存放的目录root="E://移动后的桌面//爬虫//image//"#图片存放的目录加网页图片的名字path=root+url.split...
网络爬虫前奏之实例百度搜索005 import requestskeyword = "Python"try: kv = {'wd':keyword} headers={ 'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987...