python
文章平均质量分 59
平常心19-3-21
一起学习,因为渴望明天
展开
-
conda虚拟环境的常用操作(创建/复制/删除)
conda虚拟环境常用操作原创 2022-09-26 11:26:52 · 315 阅读 · 1 评论 -
Tensorflow英文垃圾邮件分类
data_helpers.pyimport numpy as npimport reimport itertoolsfrom collections import Counterdef clean_str(string): """ Tokenization/string cleaning for all datasets except for SST. Ori...原创 2019-05-17 09:04:29 · 560 阅读 · 0 评论 -
Anaconda下安装Tensorflow和Keras的安装教程
Anaconda3下Tensorflow和Keras的安装说明版本:windows7 64位+python3.6从 https://www.continuum.io/downloads 下载 anaconda, 现在的版本有python2.7版本和python3.6版本,下载好对应版本、对应系统的anaconda,它实际上是一个sh脚本文件。进入网页后选择操作系统windows,然后选...原创 2019-04-05 16:36:42 · 34754 阅读 · 8 评论 -
matplotlib折线图表设置线条颜色、样式、图例样式、位置、添加网格
先来看一下今天的作品实现方法两条折线:plt.plot()绘制图线,通过两次调用绘制两条线。折线样式在plt.plot()中添加color参数设置线段颜色添加linestyle参数设置折线样式plt.figure()中,figsize设置图像大小,dpi设置像素添加网格plt.grid()添加背景网格,alpha参数设置网格透明度(0~1),linestyle参数设置网格...原创 2019-04-10 12:36:47 · 12678 阅读 · 0 评论 -
Using the URLconf defined in test1.urls, Django tried these URL patterns, in this order: ^admin/解决
使用版本:Django2.2 ,运行服务不报错。大体意思是说这样应该就是我们项目的urls文件有问题这是我之前的urls解决办法:把中间的都置空,去掉admin...原创 2019-04-08 19:56:21 · 26771 阅读 · 7 评论 -
Django对数据库中的表进行增删改查
进入python虚拟环境D:\py_env\django_env\Scriptsavtivate进入我们的项目cd test1进入python虚拟命令行python manage.py shell引用一下我们设置的models(注意大小写)from booktest.models import BookInfo生成一个我们BookInfo对象b = BookInfo(...原创 2019-04-08 10:43:02 · 276 阅读 · 0 评论 -
Django通过模型类创建表
创建好项目后,我们就开始创建表。 先看一下项目的目录结构。进入booktest中的models.py文件中进行创建我们的模型class BookInfo(models.Model): btitle = models.CharField(max_length=20) bpub_date = models.DateField()(不知道为什么我的导包会报红,如果有知道的请私信...原创 2019-04-08 10:25:01 · 745 阅读 · 0 评论 -
Python创建并运行第一个Django项目(因为这篇博客真的很适合新手)
今天心血来潮,准备做第一个Django项目,但是毕竟新手,最头疼的就是搭环境,Django还需要创建python的虚拟环境,这就更头疼了!不过还好做出来了,现在赶紧写下来,分享给大家。安装虚拟环境管理工具,打开cmd输入以下命令pip install virtualenvwrapper-win配置环境变量我们先在d盘创建一个文件夹叫py_env右击计算机——属性——高级系统设置—...原创 2019-04-07 10:36:14 · 649 阅读 · 0 评论 -
Python爬取前程无忧大数据57000条详细信息看看你到底适合什么?(requests请求-Xpath处理-csv存储)
前程无忧大数据网址:https://search.51job.com/list/000000,000000,0000,00,9,99,%E5%A4%A7%E6%95%B0%E6%8D%AE,2,1.html入口获取所有的大数据相关岗位招聘信息。如从多个招聘网站获取更多招聘信息更好。提取数据项至少包括以下字段:(1)职位名称(岗位名称)、公司名称、 工作地点、薪资(底薪-上限)、发布时间(月-...原创 2019-06-11 18:43:49 · 2316 阅读 · 5 评论 -
python爬取前程无忧招聘网站信息(requests+bs4+xlwt)
import requestsfrom bs4 import BeautifulSoupimport xlwtheaders = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/53...原创 2019-05-12 21:56:51 · 1617 阅读 · 2 评论 -
python爬取前程无忧招聘信息(urllib正则+xlwt)
import urllib.requestimport reimport xlwtdef get_content(page): url='https://search.51job.com/list/120200,000000,0000,00,9,99,%25E5%25A4%25A7%25E6%2595%25B0%25E6%258D%25AE,2,'+str(page)+'.html'...原创 2019-05-12 21:53:32 · 435 阅读 · 0 评论 -
Python实现12306自动抢票(通过Selnium+Chromedriver 附源码)
今天我们来实现12306抢票功能,话不多说直接开撸。我们实现抢票分为六个步骤:让浏览器打开12306的登录界面,然后我们手动进行登陆登录完成后让浏览器跳转到买票的界面手动输入出发地,目的地,日期。通过代码检测我们输入的信息无误后,自动点击查询。查找到我们需要的车次,然后判断对应的车次是否有余票。如果有,自动预定。如果没有,我们就循环这个查询工作。一旦有票,就执行预定操作,来到预定后的...原创 2019-05-07 20:33:27 · 2976 阅读 · 1 评论 -
pandas_Series基础入门
Series创建import panads as pds_score = pd.Series([80,50,95,96,98],index=["b","c","d","e","f"])访问可以通过一个或多个索引,索引切片以及标签切片来访问(注意:标签切片左右都是闭区间)print(s_score["b"])print(s_score[1])print(s_score[:...原创 2019-05-10 09:14:21 · 203 阅读 · 0 评论 -
from selenium import webdriver报错
from selenium import webdriverselenium包已经安装,但是导入时竟然在webdriver报红线。当时我以为是报的问题或者是路径的问题,或者是我下载的selenium与我的python版本不对应。于是我检查了所有可能的问题,但还是不管用。原来是,我这个代码路径下有一个文件是selenium.py导入的时候,pycharm会优先选择我创建的selenium...原创 2019-05-06 22:25:13 · 3130 阅读 · 7 评论 -
爬取前程无忧招聘信息存入Mysql数据库(Requests+Xpath+PyMysql)
今天我们抓取的信息有:职位名,公司名,工作地点和薪资并保存至数据库中1.我们先连接数据库建表import pymysqldef create_table(): db = pymysql.connect(host='localhost',db='qianchengwuyou',user='root',password='wgy@666666',charset='utf8') ...原创 2019-05-05 13:33:01 · 1762 阅读 · 2 评论 -
Python——Scrapy框架之Logging模块的使用
logging模块的使用Scrapysettings中设置LOG_lEVEL=“WARNING”setting中设置LOG_FILE="./.log"#设置日志保存位置,设置后终端不会显示日志内容import logging实例化logger的方式在任何文件中使用Logger输出内容普通项目中import logging logging,basicConfig(…)#设...原创 2019-03-30 11:48:16 · 419 阅读 · 0 评论 -
Pycharm调整代码颜色以及字体样式
File ——>SettingsEditor——>Color Scheme 选择pythonOK啦!选择你们喜欢的配色吧,给无聊的学习时光,加点颜色!原创 2019-04-04 17:27:14 · 47905 阅读 · 7 评论 -
Python——Scrapy框架搭建与创建项目
今天分享一下Scrapy爬虫框架的安装过程。所需环境python3.x配置好pip环境变量安装好pycharm(方便使用)安装步骤1.安装lxml命令: pip install lxml我事先已经安装好了2.安装win32api命令:pip install win32api3.安装twisted下载地址:https://pypi.org/simple/twiste...原创 2019-03-29 10:27:47 · 819 阅读 · 0 评论 -
Numpy指定/转换数据类型
指定数据类型在创建数组时添加dtype参数t1 = np.array(range(10),dtype=int8)指定t1的数据类型为int8转换数据类型t2 = t1.astype("bool")原创 2019-04-11 21:04:15 · 5519 阅读 · 0 评论 -
Matplotlib中文显示异常解决方案
中文显示异常处理:设置myfont来规定字体from matplotlib import font_managermyfont = font_manager.FontProperties(fname="C:\\Windows\\Fonts\\himalaya.ttf")fname是自己电脑的字体路径,具体寻找方法如下:默认字体存放路径:C:\Users\ls\.matplotlib...原创 2019-04-09 11:35:01 · 1801 阅读 · 0 评论 -
python爬虫实战——前程无忧(requests+xpath+csv)
源码奉上import requestsfrom lxml import etreeimport csvimport pymysql#获取请求def get_response(url): headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Ge...原创 2019-04-16 14:32:54 · 1264 阅读 · 1 评论 -
Numpy的竖直拼接以及水平拼接
竖直拼接np.vstack((t1,t2))水平拼接np.hstack((t1,t2))原创 2019-04-14 18:22:38 · 5788 阅读 · 0 评论 -
numpy知识整理
numpy中的nan的注意点两个nan是不相等的利用以上属性可以判断nan的个数nan和任何值进行计算,结果都为nannumpy中常用统计函数原创 2019-04-14 22:00:35 · 197 阅读 · 0 评论 -
Scrapy框架爬取腾讯招聘信息
# -*- coding: utf-8 -*-import scrapyfrom tencent.items import TencentItemclass HrSpider(scrapy.Spider): name = 'hr' allowed_domains = ['tencent.com'] start_urls = ['http://hr.tencent.c...原创 2019-05-05 09:07:42 · 261 阅读 · 0 评论 -
Scrapy框架爬取阳光政务平台数据
# -*- coding: utf-8 -*-import scrapyfrom yangguang.items import YangguangItemfrom yangguang.settings import MONGO_HOSTclass YgSpider(scrapy.Spider): name = 'yg' allowed_domains = ['sun076...原创 2019-05-05 09:10:19 · 560 阅读 · 0 评论 -
Scrapy框架爬取苏宁图书信息
# -*- coding: utf-8 -*-import scrapyfrom SNBook.items import SnbookItemimport reclass SnBookSpider(scrapy.Spider): name = 'sn_book' allowed_domains = ['suning.com'] start_urls = ['ht...原创 2019-05-05 09:11:47 · 615 阅读 · 0 评论 -
scrapy模拟登陆github
# -*- coding: utf-8 -*-import scrapyimport reclass GithubSpider(scrapy.Spider): name = 'github' allowed_domains = ['github.com'] start_urls = ['https://github.com/login'] def pars...原创 2019-05-05 09:15:45 · 359 阅读 · 0 评论 -
python知识点归纳(一)第三方模块的三种安装方式(简单必会)
1.进入cmd使用命令 pip install 库名2.官网下载源码解码,进入解压后的目录使用命令:python setup.py install3.“ ***.whl ” 文件的安装方法:(比较少见)pip install ***.whl...原创 2019-03-26 13:19:33 · 541 阅读 · 0 评论