Python 中文文件统计词频 + 中文词云 1. 词频统计:import jiebatxt = open("threekingdoms3.txt", "r", encoding='utf-8').read()words = jieba.lcut(txt)counts = {}for word in words: if len(word) == 1: continue else: ...
Python Matplotlib 柱状图加数值 Python Matplotlib 柱状图加数值柱状图加数值也是一项常规操作,这里采用的函数是text,主要获取加入text的位置与数值即可,因此,详细代码如下:这里写了auto_label与auto_text,两个都可以用,本人更喜欢用auto_textimport matplotlibimport matplotlib.pyplot as pltimport numpy as n...
matplotlib之堆积柱状图及百分比柱状图 matplotlib之堆积柱状图及百分比柱状图在博主日常的绘图过程,有一种图也是什么常见的绘图工作,就是堆积的柱状图,其实很简单,就注意几个参数即可。 Here we go!首先是引入数据库:import matplotlib.pyplot as pltimport numpy as npimport pandas as pd然后我创建了一个csv文件,这里随机填写了一些数据,详细如...
Python challenge 挑战1-19关总结 刚学python(今年五月份左右)时候朋友推荐了pythonchallenge这个网站,当时就给自己立下个目标,看看不在网上搜索答案,靠自己想及与朋友讨论,看看能闯到第几关,现在是到了第19关,20关卡得也是很厉害,越到后面脑洞是越来越大了,老阿姨不服老真是不行。做一个阶段性的总结,暂时告一段落,年末肯定是没有时间搞了,将自己的作业做一个传送门放上来:Mission 1:https://bl...
爬取JD格力空调的各种信息 又做了一回爬JD信息的爬虫,但是这次爬取的内容更多更全,其实写代码本身不难,主要费时间的就是找相关信息的url,详细代码如下:import requestsimport reimport timeimport jsonimport osimport tracebackfrom lxml import etreefrom collections import OrderedDict...
Python Challenge第19关挑战 由于工作紧张的原因很久没更新博客,实在对不住,说声抱歉大家了!!!之前立了个flag说要闯一下pythonchallenge看能到哪,后面几关真是越来越摸不着头脑了,好久才搞定了第20关,记录如下:首先是查看源代码,发现里面有超长的一段注释,且告诉了我们使用base64编码,是一个wav文件,因此,首先我们拿到注释,代码中的get_comment函数;接着将其写入wav文件,parse_dat...
批量自动安装第三方库配置Python环境 经常到一个新机上配置python,一个一个pip 第三方库实在是不厌其烦,所以干脆写了一个代码自动安装,与大家共享:注意:有多线程版与单线程版,电脑配置如果非常差,还是用单线程的吧,把多线程代码注释掉。libs中写入自己想要安装的第三方库的名字即可import osimport threading# 安装单个第三方库def install(lib): try: ...
matplotlib 中关键字记录 2019年10月8日更新legend关键字:Legend(parent, handles, labels, loc=None, numpoints=None, markerscale=None, markerfirst=True, scatterpoints=None, scatteryoffsets=None, prop=None, fontsize=...
存一下 import requestsimport reimport randomfrom faker import Fakerfrom lxml import etreedef get_text(url):try:headers = {‘User-Agent’: random.choice(ls)}response = requests.get(url, headers=headers...
Python爬取ps笔刷素材--大文件下载 python 爬取Photoshop素材代码,url还是加密防水了~~import requestsimport reimport osimport randomimport timefrom lxml import etreedef get_text(url): global headers headers = {'User-Agent': ...
Python 爬取无版权美图 这里还是为了温习,这里照例为了放水,涉及网址的地方,采取了url加密,一是scrapy,二是requests,首先是requests方法:import requestsimport reimport osimport base64from lxml import etreefrom urllib.parse import urljoindef get_text(url): ...