![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
python
liweiwei1419
简单、诚实。
展开
-
Python3 Django 框架使用 MySQL 数据库连接
python django原创 2015-08-07 10:09:07 · 982 阅读 · 0 评论 -
如何在 Python3 中操作数据
安装conda install pymysqlimport pymysqlconn = pymysql.connect(host='127.0.0.1', user='root', passwd='123456', db='db_jpa')# drop DATABASE IF EXISTS pymysqlCREATE_DATABASE_SQL = """CREATE DATABASE IF N原创 2017-09-10 01:16:11 · 533 阅读 · 0 评论 -
开发 Flask 站点(1)—— Hello World
安装:conda install flask一个最最简单的 Flask 程序应该包括如下的内容:from flask import Flask# 建立一个 Flask 的 App,应该把模块或者包的名字传给 Flask 构造函数的第 1 个参数# Flask 在运行过程中使用这个参数作为定位模板和其他静态文件的基础# __name__ 是 Python 的一个内置属性,它包含的内容指明了 .py原创 2017-09-10 14:00:27 · 525 阅读 · 0 评论 -
开发 Flask 站点(2)—— 模板的渲染
1、使用 render_template 实现模板渲染(1)代码编写:application.pyfrom flask import Flaskfrom flask import render_templateapp = Flask(__name__)# 一个函数可以通过多个 route() 装饰器绑定到多个 URL 上@app.route("/hello")@app.route("/hel原创 2017-09-10 14:53:52 · 1072 阅读 · 0 评论 -
itertools 的 chain() 方法
# -*- coding:utf-8 -*-from itertools import chainfrom random import randint# 随机生成 19 个整数(在 60 到 100 之间)c1 = [randint(60, 100) for _ in range(19)]# 随机生成 24 个整数(在 60 到 100 之间)c2 = [randint(60, 100)原创 2017-09-10 22:26:18 · 4193 阅读 · 0 评论 -
使用 Python 读写 csv 文件
非关系型数据库中,以文档型的数据库 MongoDB 最为著名。还有一个很好的全文检索引擎 Elasticsearch,基本上也可以当做一个文档型的数据库来使用。创建 csv 文件读取 csv 文件将读取的内容转换为字典创建 csv 文件:import csvwith open("./csv_tutotial.csv", "a") as fw: writer = csv.writer(f原创 2017-09-10 23:13:58 · 9466 阅读 · 1 评论 -
Python 之 Selenium(1)Hello World
使用 FireFox 作为实例。 抓取的首页为电子工业出版社网站(http://www.phei.com.cn/)。了解 Selenium 能做什么像 Requests 一样,抓取网页的源代码。Selenium 模拟了浏览器的行为,我们甚至可以更细粒度地控制浏览器的行为。代码如下:实现的功能为:让程序自动打开浏览器下载网页的源代码,保存到一个文件,然后关闭浏览器。# 利用 webdriver 可以原创 2017-09-11 22:22:33 · 580 阅读 · 0 评论 -
将高德地图的 API 接口返回地址保存到 MongoDB 中
高德地图: http://ditu.amap.com/service/regeo?longitude=116.3225&latitude=39.94403 http://ditu.amap.com/service/weather?adcode=110000下面的例子把 json 字符串转换为 Python 对象(即字典)。import requestsurl = 'http://ditu.am原创 2017-09-11 23:02:07 · 1163 阅读 · 0 评论 -
Python 正则表达式学习笔记
贪婪模式与非贪婪模式方法 findall问号实现可选的匹配reS正则表达式的分组分隔符不一致的情况下,可以使用 re.split() 的方法。虽然字符串对象也提供了 split() 方法。import reline = 'asdf fjdk; afed, fjek,asdf, foo'list = re.split(r'[;,\s]\s*', line)print(list)# ['原创 2017-09-11 16:44:00 · 477 阅读 · 0 评论 -
Python 爬虫 —— 糗事百科爬虫实战
内容选自韦玮著《精通 Python 网络爬虫——核心技术、框架与项目实战》P80import requestsimport redef getContent(url, page): # 模拟成浏览器 headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_3)原创 2017-09-12 10:48:51 · 727 阅读 · 0 评论 -
Python 图片爬虫实战(使用 urllib 库)
例:把京东商城手机类商品的图片全部下载到本地。根据 url 猜测后续页面的 url,这一点并没有什么难度。第 1 页的 ulr:https://list.jd.com/list.html?cat=9987,653,655第 2 页的 url:https://list.jd.com/list.html?cat=9987,653,655&page=2&sort=sort_rank_asc&trans=1原创 2017-09-12 13:35:34 · 585 阅读 · 0 评论 -
链接爬虫实战
import reimport urllib.requestdef getlink(url): # 模拟成浏览器 headers = ("User-Agent", "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome原创 2017-09-12 13:53:55 · 819 阅读 · 0 评论 -
Python 使用 requests、urllib 完成代理服务器的设置
代理服务器,可以在下面的网站中查找: http://www.xicidaili.com/def user_proxy(proxy_addr, url): import urllib.request proxy = urllib.request.ProxyHandler({'http': proxy_addr}) opener = urllib.request.build_o原创 2017-09-12 16:36:48 · 29217 阅读 · 1 评论 -
Django 开发学习笔记(8)- 开发表单页面,让用户添加内容
这一节,我们添加表单项,让用户可以选择自己输入数据。这一节的代码几乎都是模板代码,如果一开始不理解的话,照着抄就可以了。1、在应用路径下新建 forms.py 文件,输入以下代码from django import formsfrom blog.models import Topicclass TopicForm(forms.ModelForm): class Meta: m原创 2017-09-10 02:10:25 · 1382 阅读 · 0 评论 -
Django 开发学习笔记(5)- 关于数据 ORM第 2 讲
1、添加新的数据类class Entry(models.Model): """某个分类下的一篇文章""" # 作为 Entry 的属性 设置了一个外键 topic = models.ForeignKey(Topic) # 文件的具体内容 text = models.TextField() # 文章的关键字 key_words = models.原创 2017-09-09 01:59:06 · 353 阅读 · 0 评论 -
使用 Matplotlib 绘制精美的数学图形
一个最最简单的例子:绘制一个从 0 到 360 度完整的 SIN 函数图形import numpy as npimport matplotlib.pyplot as ptx = np.arange(0, 360)# 如果打印 x ,NumPy 会给你很好看的打印格式# print(x)y = np.sin(x * np.pi / 180)pt.plot(x, y)pt.xlim(0, 360原创 2017-09-07 18:33:03 · 2649 阅读 · 0 评论 -
Python 爬虫模块 bs4 实战一:获取百度贴吧内容
getCommentInfo.py:from bs4 import BeautifulSoupimport requestsfrom mylog import MyLog as mylog# 《Python 网络爬虫实战》胡松涛著 P196class Item(): title = None firstAuthor = None firstTime = None原创 2017-09-15 20:10:23 · 1660 阅读 · 0 评论 -
Python 中 变量的 is 和 == 符号的作用
简而言之: == 符号比较的是两个对象的内容(这一点与 Java 是不同的), is 符号比较的是对象在内存中的地址。使用等号“=”赋值的方式,也叫做浅拷贝。浅拷贝,修改其中一个变量的值,就会影响到另一个。与浅拷贝对应就有深拷贝,使用的是对象的 copy() 方法。原创 2017-09-08 10:56:17 · 756 阅读 · 1 评论 -
Python 爬虫学习 —— Scrapy 入门知识学习
这一节的内容属于 Hello World。Scrapy 是专门用于爬虫的 Python 框架。 官方网站:https://scrapy.org/ 可以在官方网站的页面上找到文档的地址:https://docs.scrapy.org/en/latest/pip -h指定安装 scrapy 的版本:pip install scrapy=1.1.0rc3在我的电脑上,Scrapy 是通过 conda原创 2017-09-08 15:25:31 · 505 阅读 · 0 评论 -
Scrapy 的 Spider 的编写
当然,我们也可以自己写 .py 文件,不过,下面我们要介绍使用 Scrapy 的模板来生成爬虫文件的方法。在 iTerm2 中输入:scrapy genspider iqianyue http://iqianyue.com/从上图中,我们可以看到,默认,使用模板 “basic” 创建了 spider “iqianyue”,程序在 spiders 文件夹下就生成了模板文件:# -*- coding:原创 2017-09-09 00:09:00 · 983 阅读 · 0 评论 -
Python 爬虫框架 Item 的编写
import scrapyclass persion(scrapy.Item): name = scrapy.Field() job = scrapy.Field() email = scrapy.Field()liwei = persion(name='weiwei', job='pythoner', email='121088825@qq.com')print(liwei原创 2017-09-09 00:11:14 · 474 阅读 · 0 评论 -
Django 开发学习笔记(1)- Hello World
首先,让 iTerm2 命令行进入 Python3 指定的环境。我这里使用的是 conda,当然,你可以选择的还有 virtualenv 来建立虚拟环境。source activate ipykernel_py3然后,使用 django 的命令创建一个项目:django-admin startproject myblog是不是感觉这个命令和 Scrapy 创建项目是一样的呢?说明:在创建项目的时候,原创 2017-09-09 00:45:40 · 554 阅读 · 0 评论 -
Django 开发学习笔记(2)- 请求一个自定义的路径,得到一个返回
1、在 myblog 项目名称的文件夹下,有一个 settings.py 文件,在里面的 app 配置中添加我们使用 django-admin startapp 命名创建的 appINSTALLED_APPS = [ 'django.contrib.admin', 'django.contrib.auth', 'django.contrib.contenttypes',原创 2017-09-09 01:09:46 · 1435 阅读 · 0 评论 -
Django 开发学习笔记(3)- 编写自定义的页面
1、在主程序的 urls.py 中添加:url(r'', include('blog.urls', namespace="blog"))表示包含 blog 这个应用下的 urls.py 中的 urls 配置,这样便于我们管理urlpatterns = [ url(r'^admin/', admin.site.urls), url(r'^hello/$', hello), ur原创 2017-09-09 01:27:32 · 467 阅读 · 0 评论 -
Django 开发学习笔记(6)- 开发博客主页和所有话题列表页面
1、在 learning_log/learning_logs/templates/learning_logs 这个目录下添加一个 base.html 文件,这可以认为是一个父模板文件。<p> <a href="{% url 'learning_logs:index' %}">博客主页</a></p>{% block content %}{% endblock content %}2、有了原创 2017-09-09 13:52:19 · 486 阅读 · 0 评论 -
Scrapy 使用 XMLFeedSpider 来分析 XML 源
RSS 是什么? RSS 是一种信息聚合技术,可以让信息的发布和共享更为高效、便捷。 RSS 是基于 XML 标准的。韦玮老师的新浪博客地址:http://blog.sina.com.cn/weiweihappy321 订阅地址:http://blog.sina.com.cn/rss/1615888477.xml我们新创建一个项目:scrapy startproject myxml我们看一看可原创 2017-09-10 01:10:32 · 2407 阅读 · 0 评论 -
Django 开发学习笔记(4)- 关于数据 ORM
1、在应用文件夹的 models.py 文件中创建模型类from django.db import models# Create your models here.class Topic(models.Model): """用户博客的主题""" # 创建类似"Java"、"Python"、"C++" 这样的博客分类字符串,200 个字符足够了 text = models.Ch原创 2017-09-09 01:38:58 · 490 阅读 · 0 评论 -
Python 二分查找 bisect 模块的用法
https://nbviewer.jupyter.org/github/liweiwei1419/blog-article-sources/blob/master/jupyter/bisect 的用法.ipynb原创 2018-11-14 16:32:08 · 454 阅读 · 0 评论