自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(106)
  • 收藏
  • 关注

原创 Python批量图片识别并翻译——我用python给女朋友翻译化妆品标签!

最近小编遇到一个生存问题,女朋友让我给她翻译英文化妆品标签。美其名曰:"程序猿每天英语开发,英文一定很好吧,来帮我翻译翻译化妆品成分",”来,帮我看看这个面膜建议敷几分钟“。。。。看来斥巨资买化妆品不算完,还需要会各种英文介绍。默默收起大学考的一摞429分的四级证书,我打开了IDE。。。我打算开发一个能批量翻译的图片的demo,把家里的各种化妆品都翻译好。机智如我,是不会自己从训练模型做起的,打开有道智云的友好的AI接口页面 ,果然有图片翻译服务,体验了一下可是真不错,于是果断使用。效果...

2020-10-31 20:01:40 443

转载 爬虫神器 Pyppeteer 介绍及爬取某商城实战!

提起 selenium 想必大家都不陌生,作为一款知名的 Web 自动化测试框架,selenium 支持多款主流浏览器,提供了功能丰富的API 接口,经常被我们用作爬虫工具来使用。但是 selenium 的缺点也很明显,比如速度太慢、对版本配置要求严苛,最麻烦是经常要更新对应的驱动。还有些网页是可以检测到是否是使用了selenium 。并且selenium 所谓的保护机制不允许跨域 cookies 保存以及登录的时候必须先打开网页然后后加载 cookies 再刷新的方式很不友好。今天给大家介绍另一款

2020-10-31 15:57:40 481

原创 2020-10-31

记账程序由来曾经在iOS14的快截指令中写了一个快捷指令用来记账,但是由于快捷指令的限制,只能把数据记录到备忘录或者numbers,数据的迁移性很差。所以最后干脆用python写了一个程序程序介绍模块此程序用到的模块较少,内容如下,缺失的模块请自行安装:openpyxl:xlsx文件读写常用的模块。 datetime:日期模块,用来获取你记账的时间。 tkinter:图形化模块,用来制作可视化操作界面。 os:自带模块,操作文件,无需安装。数据写入新建文件同时,在首行写入标题

2020-10-31 15:39:47 127

转载 王者荣耀五周年,带你入门Python爬虫基础操作!

1.概述《王者荣耀》上线至今5个年头了,作为这些年国内最热门的手游(没有之一),除了带来游戏娱乐之外,我们在这五周年之际,试着从他们的官网找点乐趣,学习一下Python爬虫的一些简单基础操作。本篇将主要介绍简单的Python爬虫,包括网页分析、数据请求、数据解析和数据保存,适用于基本不带反爬的一些网站,旨在进行学习交流,请勿用作任何商业非法用途。网页分析其实就是打开你需要请求数据的网页,然后F12看下这个网页源数据长啥样(如果你会web知识会更好处理,不过我没系统学过,操作多了就熟悉一点);

2020-10-31 15:24:15 360

转载 Django项目制作Docker镜像详解!

网上的做法太多,大多千篇一律,不是你复制我的就是我复制你的,然后还标成原创,我是真的不知道现在的世界怎么了。。。本人尝试了各种网上的办法,踩了许多坑,最终实现将Django项目做成docker镜像的完整步骤,其中我也会对过程中所遇到的各种坑进行说明。温馨提示:一定要看注意事项!一定要看注意事项!一定要看注意事项!步骤:1.首先需要先在本地搭建好docker环境(这里不做解释,搭建docker环境自行百度)2.准备将需要做成镜像的Django项目结构做成以下结构(本人是这样的结构,初学者建

2020-10-31 15:12:42 1502

转载 2020-10-31

测试系统:外网:linux内网:windowspython:python3.6(需要安装flask、psutil)功能介绍:使用flask,实现可一键添加端口映射,可以删除单端口,可删除全部端口映射需要准备的东西:1:如上的内网穿透工具:git clone https://gitee.com/stlswm/transponder.git2:外网服务器 (需要安装 Nginx),开放端口 9000-99993:域名,需要泛域名,基本上是添加一个@.domain.com(没有的话可以使用ip+

2020-10-31 13:59:19 64

转载 Python批量爬取代理ip,并自动插入到Excel表格!

思路:以“http://www.66ip.cn/”网址为例,使用requests访问,通过xpath解析相关标签数据,将数据以列表的形式提取出来组成新的列表,然后再插入表格。然后再通过每页跳转时URL的变化规律进行URL重组后,进行循环访问爬取。推荐安装xpath插件,直接将相关标签的数据xpath路径复制即可查看变化,如下图:附上完整代码:import requestsfrom lxml import etreeimport pandas as pdimport json#

2020-10-31 13:48:59 232

转载 外卖优惠平台内容加密参数分析!你见过一块钱买外卖的吗?

一、分析网站2020十强游戏投票网址:http://2020top10.cgigc.com.cn 首先发现该网站需要填写姓名、手机号、邮箱,这...我一头黑线,网络上还有这操作去确定一个人的身份真实还是不真实?中国音像与数字出版协会你可长点心吧,你们技术是烂大街了吧,我都不好意思点破,好歹搞个微信授权登陆呀,这样就算刷票也只能去买量 我们继续分析网站,不去纠结人家的技术怎么样,这里姓名、手机号、邮箱我们都可以自动生成,最关键的就是在下一步点击开始投票的时候,需要验证滑块验证码二、canva..

2020-10-30 20:23:08 137

转载 全网最全python库selenium自动化使用教程

一、安装seleniumpip install Selenium二、初始化浏览器Chrome 是初始化谷歌浏览器 Firefox 是初始化火狐浏览器 Edge 是初始化IE浏览器 PhantomJS 是一个无界面浏览器。 from selenium import webdriver driver = webdriver.Chrome() 三、设置浏览器大小maximize_window 最大化窗口 set_window_size 自定义窗口大小...

2020-10-30 20:21:37 280

原创 新手用Python通过Pygame一步步实现贪吃蛇!

本来也是学习,所以我自己修改了一下,发上来供像我这样的新手研究学习。第一步,先导入需要的模块,初始化Pygame。代码里的注释都比较清楚了,我就不再赘述。# 导入需要用到的模块import pygame, sys, random, time# 从pygame模块导入常用的函数和常量from pygame.locals import *# 初始化Pygame库pygame.init()pygame.init()# 初始化一个游戏界面窗口DISPLAY = pygame.display.

2020-10-30 16:28:53 380

转载 爬虫实战——QQ空间自动点赞!这个脚本值三千五你信吗?

前景提要因为我周围的小伙伴们天天跟我说的最多的一句话就是:空间第一条点赞。所以说我还不如直接做一个自动点赞的代码呢,免得天天催我点赞。目标确定QQ空间秒赞分析介绍登陆获取cookie首先既然是对 QQ空间的一系列操作,自然是先解决登陆方面,在这篇文章里面我就不过多介绍了,因为我上几期之前对QQ空间已经做了一定的介绍了。直接放出链接就好。欢迎看博主以前的文章def search_cookie(): qq_number = input('请输入qq号:') if n

2020-10-30 15:38:47 443

原创 Python用正则表达式筛选出完整的组合密码原来如此简单!

本篇问题编写正则获取一组密码中的正确密码正确密码的具体要求如下:正确密码包括数字,字母,特殊字符; 包含空格,换行,制表符等空字符的密码无效; 密码不能为纯数字,纯字母,纯特殊字符。测试输入:abc123@., good123...,666educoder^,hello123@,123456789预期输出:['abc123@.', '666educoder^', 'hello123@']解题思路:要求为匹配组合密码,包含空字符的密码无效,纯字母,纯数字,纯特殊字符的密码

2020-10-30 14:52:25 508

转载 Python爬取网页信息并保存为CSV文件!又学了一招!

本次爬取的网页是猎聘网内关于深圳的所有招聘信息,一共400多个职位,并保存为csv文件存储,好了,话不多说,开始进入讲解。(对爬虫感兴趣的,可以参考此篇文章的做法去爬你想要的网站去吧!!!)首先打开目标网站:页面信息如下(因为招聘信息是动态,可能你的界面的职位会有所不同) 我们按F12进入开发者界面:点击元素旁边的类似鼠标的按钮,如下:然后就可以在原网页点击我们想要获取的标签,之后就会显示该标签对应的html代码比如点击工作名称:双语解说员,然后右边就会帮我们...

2020-10-30 14:43:35 4512

转载 爬虫入门之淘宝商品信息定向爬取!双十一到了学起来啊!

一、爬取原页面  爬取页面为淘宝网站,以女装为例,原图如下,由于淘宝商品排名实时更新,所以爬取结果顺序与网站顺序可能会存在不同。本实例爬取的内容为商品的价格和名称,并为其添加序号。二、编程思路  这一部分嵩天老师在课中给出了讲解,这里我整理分享给大家。1.功能描述目标:获取淘宝搜索页面的信息,提取其中的名称和价格。理解:(1).获得淘宝的搜索接口(2).对翻页的处理技术路线:requests-re2.程序的结构设计步骤一:提交商品搜索请求,循环获取页面步骤二..

2020-10-30 14:33:24 825

原创 小明用Python开发一个 【暴力破解压缩文件zip密码】,省了250块钱!

那天晚上小明和你一样在某个小网站上搜寻某些私密的学习资料突然看到论坛有人提供了一个非常牛逼的资源小明怀着激动的心情下载了下来他怀着激动的心情打开了这个压缩文件看到就只有这么一个 txt小明就是一顿双击可是突然发现这玩意居然需要密码???裤子都脱了你给我看这个?小明只好找到楼主求他给下解压密码对方只是冷淡的回应了一句“250块钱不讲价”小明摸了摸自己刚穿上裤子的口袋感叹了一句:骂了一句楼主没

2020-10-30 13:59:19 193

转载 爬虫“学前班”,记住这些不踩坑!

摘要:爬虫就是模拟人的访问操作来获取网页/App数据的一种程序。爬虫是什么?简单的说爬虫就是模拟人的访问操作来获取网页/App数据的一种程序。我们可以把互联网比作一张大网,而爬虫(即网络爬虫)便是再网上爬行的蜘蛛。把网的节点比作一个个网页,爬虫爬到这就相当于访问了该页面,获取了其信息。可以把节点间的连线比作网页与网页之间的链接关系,这样蜘蛛通过一个节点后,可以顺着节点连线继续爬行到达下一个节点,即通过一个网页继续获取后续的网页,这样整个网的节点便可以被蜘蛛全部爬行到,网站的数据就可以被抓取下来了.

2020-10-30 13:38:40 135

原创 Python 实现图片转字符画,静态图、GIF 都能转!

字符画是一种由字母、标点或其他字符组成的图画,它产生于互联网时代,在聊天软件中使用较多,本文我们看一下如何将自己喜欢的图片转成字符画。静态图片首先,我们来演示将静态图片转为字符画,功能实现主要用到的 Python 库为 OpenCV,安装使用pip install opencv-python命令即可。功能实现的基本思路为:利用聚类将像素信息聚为 3 或 5 类,颜色最深的一类用数字密集度表示,阴影的一类用横杠(-)表示,明亮部分用空白表示。主要代码实现如下:def img2stri..

2020-10-29 16:35:06 1063 1

转载 Python数值类型数据、运算及字符串!

本篇内容较长,介绍了Python数值类型、运算以及字符串的一些操作,逐步的学习过程中也会涉及到面试常考题,后续我会整理一篇面试常见题。一、Python运算符Python运算符包含算数运算符、赋值运算符、比较运算符、逻辑运算符四种1.1 算数运算符算数运算符就是简单的加、减、乘、除1.1.1 加num1 = 100num2 = 99sum = num1 + num2print(sum)1 2 3 4运行结果:C:\Users\Administrator\Ap

2020-10-29 16:15:05 244

原创 分分钟避坑抓取 安居客 住房信息,并存储到CSV跟XlSX中

温馨提示:报错了就百分之九十九是网址需要手动验证,就请移步去点击验证啦!(这里用了csv跟xsxl两种保存方式,任选其一即可!)# -*- coding: utf-8 -*-"""Created on Tue Oct 27 18:27:21 2020@author: Yuka利用Lxml库,爬取前10页的信息,具体信息如下:进入每个房源的页面,爬取小区名称、房屋类型、房屋朝向、参考月供和核心卖点,把它们存储到CSV文件中。"""from lxml import etre...

2020-10-29 15:13:32 289 1

原创 基于微博平台的python爬虫数据采集,非常简单的小案例!

搭建环境 代码设计 使用说明及效果展示一、搭建环境1. 软件版本Python3.7.4Anaconda32. 环境搭建问题配置Anaconda环境变量问题:anaconda未设置在环境变量里,导致使用pip下载python自带的库时无法下载到对应的路径进行使用。解决:在电脑的环境变量中添加anaconda的路径。 使用pip网络问题问题:因为网速过慢的原因导致无法正常使用pip进行更新以及python库的下载。 WARNING: pip is configured with .

2020-10-29 14:53:08 884

转载 Python入门教程!手把手教会你爬取网页数据!

其实在当今社会,网络上充斥着大量有用的数据,我们只需要耐心的观察,再加上一些技术手段,就可以获取到大量的有价值数据。这里的“技术手段”就是网络爬虫。今天就给大家分享一篇爬虫基础知识和入门教程:什么是爬虫?爬虫就是自动获取网页内容的程序,例如搜索引擎,Google,Baidu 等,每天都运行着庞大的爬虫系统,从全世界的网站中爬虫数据,供用户检索时使用。爬虫流程其实把网络爬虫抽象开来看,它无外乎包含如下几个步骤模拟请求网页。模拟浏览器,打开目标网站。 获取数据。打开网站之后,就可以自动化的

2020-10-29 14:32:56 1623

转载 爬取淘宝商家货物简单销售数据,双十一马上就到了,秒杀准备了吗

前天接一个爬取淘宝商家(自行车)信息的请求,要求数据按照其销售量排行。完成该请求后,爬取数据(李宁卫衣)如下:接下来看如何实现的?首先打开淘宝网:https://www.taobao.com/,在搜索栏输入自行车,结果发现页面转跳到https://login.taobao.com/member/login.jhtml 淘宝登录页面,要求登录才能进行关键字搜索获取数据。(需要登录的时候应当想到cookies)cookies 及其用处:当我们登录某网站时,服务器会生成一个cooki.

2020-10-29 14:07:44 675

转载 一文带你快速爬取网易云音乐,就是这么简单!

一、什么是爬虫?网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。其实通俗的讲就是通过程序去获取web页面上自己想要的数据,也就是自动抓取数据。你可以爬去妹子的图片,爬取自己想看看的视频。。等等你想要爬取的数据,只要你能通过浏览器访问的数据都可以通过爬虫获取二、爬虫的本质模拟浏览器打开网页,获取网页中我们想要的那部分数据浏览器打开网

2020-10-27 20:01:52 2204

转载 如何把一个Python应用程序装进Docker

准备容器无处不在,但是如何在Docker容器中运行Python应用程序呢?这篇文章将告诉你怎么做!如果您想知道,这些示例需要Python 3.x。在深入讨论容器之前,让我们进一步讨论一下我们想要封装的Python应用程序。这个应用程序是一个web API,它从一个电影集合中返回一个随机的电影。在我们的本地文件夹中,我们有3个文件:app.py#Pythonapplicationmovies.json#moviecollectionrequirements.txt...

2020-10-27 16:39:33 577

原创 大佬用python写了个豆瓣短评爬虫,来试试你喜欢的电影吧!

前言本篇主要实现的是对任意一部电影短评(热门)的抓取以及可视化分析。也就是你只要提供链接和一些基本信息,他就可以分析对于豆瓣爬虫,what shold we 考虑?怎么分析呢?豆瓣电影首页这个首先的话尝试就可以啦,打开任意一部电影,这里以姜子牙为例。打开姜子牙你就会发现它是非动态渲染的页面,也就是传统的渲染方式,直接请求这个url即可获取数据。但是翻着翻着页面你就会发现:未登录用户只能访问优先的界面,登录的用户才能有权限去访问后面的页面。所以这个流程应该是登录——&g...

2020-10-27 16:01:52 1272

转载 爬虫——图书馆抢座,Python果然无所不能!

探索性数据分析(EDA)涉及两个基本步骤 数据分析(数据预处理、清洗以及处理)。 数据可视化(使用不同类型的图来展示数据中的关系)。 Pandas 是 Python 中最常用的数据分析库。Python 提供了大量用于数据可视化的库,Matplotlib 是最常用的,它提供了对绘图的完全控制,并使得绘图自定义变得容易。但是,Matplotlib 缺少了对 Pandas 的支持。而 Seaborn 弥补了这一缺陷,它是建立在 Matplotlib 之上并与 Pandas 紧密...

2020-10-26 20:09:29 649

原创 如何用 Python 快速揭示数据之间的各种关系!

探索性数据分析(EDA)涉及两个基本步骤 数据分析(数据预处理、清洗以及处理)。 数据可视化(使用不同类型的图来展示数据中的关系)。 Pandas 是 Python 中最常用的数据分析库。Python 提供了大量用于数据可视化的库,Matplotlib 是最常用的,它提供了对绘图的完全控制,并使得绘图自定义变得容易。但是,Matplotlib 缺少了对 Pandas 的支持。而 Seaborn 弥补了这一缺陷,它是建立在 Matplotlib 之上并与 Pandas 紧密...

2020-10-26 20:04:46 1873

转载 Python股票量化盘后分析系统,也就七百行代码!

前言:最近感觉代码写的越来越乱了,各种变量名称跟函数让我头脑混乱,估计写完这个后,我要花一些时间来整理巩固下基础知识了,写完下面的这些臃肿代码,暂停段时间理下思路,既然发现了自己的不足就应该去弥补,而不是视若无睹。以下代码比上一次添加了大盘指数指标的信息展示,添加了大盘K线样式属性,其他的好像也没什么改变了,代码效果图如下:PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取python免费学习资料以及群交流解答点击即可加入import pandas as pdimpor

2020-10-26 16:00:21 720

原创 爬虫验证码的几种处理方式,已封装成类,文章末尾有源码!

学会调用百度的aip接口:此文转载于沙漏在下雨!如有侵权联系小编删除!1. 首先需要注册一个账号:https://login.bce.baidu.com/注册完成之后登入1232. 创建项目在这些技术里面找到文字识别,然后点击创建一下项目PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取python免费学习资料以及群交流解答点击即可加入创建完成之后:图片中 AppID , API key, Secret Key 这些待会是需要用的。下

2020-10-26 15:50:05 75

原创 Python爬虫案例:爬取酷狗音乐全排行榜歌曲

前言本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取python免费学习资料以及群交流解答点击即可加入本次目标爬取酷狗音乐全站排行榜歌曲目标地址https://www.kugou.com/yy/html/rank.html?from=homepage环境Python3.6.5pycharm爬虫代码调入工具..

2020-10-26 15:03:54 3581 3

原创 利用Python爬虫完美采集1688商品数据!

环境:python3.6目的:根据关键词在淘宝1688平台上搜索商品,并将商品的pid等信息抓取下来。首先,我们打开首页,输入关键词:女装。↓↓↓点击找一下,后会跳转到商品页面,如下图所示↓↓↓这个时候我们就可以看到女装商品分类,和一些推荐商品,接下来我们不要急着爬这些商品数据,我们要找的是这些商品的分类目录地址。谷歌浏览器右击检查页面,仔细观察会发现,每个分类的商品都有对应的地址,例如:连衣裙,对应的地址如下我们进入连衣裙的href...

2020-10-26 14:34:00 2047 1

原创 终于解决了使用Python装饰器中的一个痛点!

前言如何给装饰器的参数传参,这个问题曾经困扰我好久,虽然Python版本的更新,现在这个问题终于解决了,特此记录。疑问首先我有一个这样的装饰器文件路径helper/log_helper.pyimporttracebackfromfunctoolsimportwrapsfromloguruimportloggerdefmy_logger(count):defstep1(foo):@wraps(foo)...

2020-10-24 16:44:03 204

原创 如何建立一个完美的 Python 项目?

当开始一个新的 Python 项目时,大家很容易一头扎进去就开始编码。其实花一点时间选择优秀的库,将为以后的开发节省大量时间,并带来更快乐的编码体验。在理想世界中,所有开发人员的关系是相互依赖和关联的(协作开发),代码要有完美的格式、没有低级的错误、并且测试覆盖了所有代码。另外,所有这些将在每次提交时都可以得到保证。(代码风格统一、类型检测、测试覆盖率高、自动检测)在本文中,我将介绍如何建立一个可以做到这些点的项目。您可以按照步骤操作,也可以直接跳到 使用 cookiecutter 生成项目部分..

2020-10-24 16:41:04 134

原创 Python爬虫关于过程中错误及问题的记录!

一、安装库需要安装有bs4、re、xlwt、sqlite3和requests问题一:pip install request提示报错ERROR: Could not find a version that satisfies the requirement request (from versions: none)ERROR: No matching distribution found for request原因:需要安装的库是requests,不是request!!!二、利用req

2020-10-24 16:39:18 2916

原创 用python写一个豆瓣短评通用爬虫(登录、爬取、可视化)!

前言在本人上的一门课中,老师对每个小组有个任务要求,介绍和完成一个小模块、工具知识的使用。然而我所在的组刚好遇到的是python爬虫的小课题。心想这不是很简单嘛,搞啥呢?想着去搞新的时间精力可能不太够,索性自己就把豆瓣电影的评论(短评)搞一搞吧。之前有写过哪吒那篇类似的,但今天这篇要写的像姨母般详细。本篇主要实现的是对任意一部电影短评(热门)的抓取以及可视化分析。也就是你只要提供链接和一些基本信息,他就可以分析对于豆瓣爬虫,what shold we 考虑?怎么分析呢?豆瓣电影首页.

2020-10-24 15:21:15 917 2

原创 1024程序员节:向改变世界的程序员致敬

大家好,我是老表~今天和大家分享的内容是数据可视化相关的,利用kepler.gl进行地图可视化,学习了记得点赞、留言、转发,三连哦~这次呢,我想讲讲地图可视化的内容,以前我也写过用Python的内置库绘制地图,但总感觉不够美观。如何才能在短时间内制作漂亮的可视化地图呢,我觉得Python+可视化工具是不错的选择。以下动态可视化地图就是J哥亲手绘制,展现了一段时间内广州市企事业单位在网上商城采购商品的分布及随时间的变化。接下来,将手把手教你如何绘制这个动态图,您可在公众号后台...

2020-10-23 20:14:54 288

转载 Python 分析二手房源信息,揭晓土地交易现状!

本文先熟悉并发与并行、阻塞与非阻塞、同步与异步、多线程、多线程、协程的基本概念。再实现 asyncio + aiohttp 爬取链家成都二手房源信息的异步爬虫,爬取效率与多线程版进行简单测试和比较。基本概念并发与并行并发:指在同一时刻只能有一条指令执行,但多个进程指令被快速的轮换执行,使得在宏观上具有多个进程同时执行的效果,但在微观上并不是同时执行的,只是把时间分成若干段,使多个进程快速交替的执行。 并行:指在同一时刻,有多条指令在多个处理器上同时执行。所以无论从微观还是从宏观来看,二者都是一

2020-10-23 20:12:58 244

原创 头条、油条商标有多像?Python检测发现相似度高达98.4%!

近日,一家名叫“今日油条”的店铺,因被今日头条起诉而广为大众所知,就这样火了一把。这家油条店可是把今日头条从里到外模仿的透透的,无论是logo、配色还是标语都有着极高的相似度,远看还真让人以为是今日头条开了家油条店呢。我们看着都眼熟,计算机就更看不下去了!文摘菌把两家的logo放到一个图片检测的项目里一对比,二者的直方图距离计算结果不仅有着大部分重合,而且平均哈希算法告诉我,两个logo的相似度高达96.9%(62/64),感知哈希算法计算出的相似度则更高,为98.4%(63/6...

2020-10-23 16:53:12 258

原创 Python爬虫获取中国天气网信息——生成xls文件并写入数据库!

获取数据并写入xls文件import csvimport randomimport requestsfrom lxml import etree# 城市列表如下:# http://hebei.weather.com.cn/m2/j/hebei/public/city.min.js# 目前支持北京、天津、重庆三个城市7天天气预报# 支持河南天气更新# 18点后获取天气预报将get_text()方法中的0改为1headers = [ "Mozilla/5.0 (Windows

2020-10-23 15:42:06 758

原创 啃下Python学习中的三块硬骨头!

虽然大家普遍认为Python容易学习且用户友好,但是对于初学者来说,他们在学习和使用的过程中,往往也会遇到不同的挑战。下面,我们从Python基本特性出发,和您一起讨论在编程过程中可能碰到的“三块硬骨头”,及其解决方法。Python的优点与许多其他编程语言相比,Python有着如下优点:初学者友好对于初学者而言,在面对一门新的语言时,往往会产生“知识大爆炸”的不知所措之感。而在碰到某个小错误时,则会产生挫败感。由于Python是为毫无编程背景的人们设计的,因此它简单易学,并不复杂。而且,它通常

2020-10-22 20:03:20 46

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除