- 博客(17)
- 收藏
- 关注
原创 Django-rest_frameworkserializer中GenericView方式实现商品列表页和分页功能详解与viewsets和router完成商品列表页一些功能
方法一:from .models import Goodsfrom .serializers import GoodsSerializer#自己封装了Responsefrom rest_framework import mixinsfrom rest_framework import genericsclass GoodsListView(mixins.ListModelMixin...
2018-08-03 23:21:02 503
原创 Django-rest_frameworkserializer序列化models的几种方法
首先apps下对应的APP名创建serializers.py文件,在文件中创建序列化类from rest_framework import serializersfrom goods.models import Goods,GoodsCategory#基本的序列化器,每一个字段需要自己写方法一:使用Serializer,序列化models中的指定字段class GoodsCateg...
2018-08-03 22:45:45 754
原创 django的serializer序列化model几种方法
序列化是将对象状态转换为可保持或传输的格式的过程。与序列化相对的是反序列化,它将流转换为对象。这两个过程结合起来,可以轻松地存储和传输数据 方法一:通过继承View类,重写get方法,获取商品的前是前十条数据,通过serialize序列化数据,返回数据响应。from django.views.generic import Viewfrom goods.models import Goo...
2018-08-03 19:42:03 6052
原创 Django实现列表页商品数据返回
采用的是cbv方式,cbv就是在url中一个路径对应一个类rom django.views.generic import Viewfrom goods.models import Goodsclass GoodsListView(View):""" 通过django的view实现商品列表页 :param request: :return: ...
2018-08-03 19:07:42 3210
原创 Django中的FBV和CBV区别
FBV就是在url中一个路径对应一个函数urlpatterns = [ url(r'^admin/', admin.site.urls), url(r'^index/', views.index)] 在视图函数中def index(request): return render(request, 'index.html')CBV就是在url中一个路...
2018-08-03 19:00:28 1154
原创 Django富文本编辑器DjangoUeditor使用及操作
首先现在DjangoUeditor富文本编辑器,网址为github上的 https://github.com/twz915/DjangoUeditor3/将下载好的富文本编辑器拷贝到对应的第三方apps_extra文件夹中 在setting注册app中接下来就是在urls.py文件中配置富文本编辑器的urlpatterns = [""" url(r'^uedit...
2018-08-02 21:16:21 4060
原创 Django-xadmin后台导入json数据及后台显示信息图标和主题更改
Django自带有个强大的后天管理系统,接下来我就给大家介绍一下x的admin一些强大的操作及后台美化。首先给大家介绍一些xadmin的注册创建,首先下载官方xadmin插件包放到对应的第三方apps_extra文件夹中 接下来就是在setting中注册xadmin和crispy_forms到INSTALLED_APPS,接下来就是在我们的urls.py文件中配置路由import x...
2018-08-02 20:33:52 2424
原创 docker安装命令
# docker安装文档```sh$ sudo apt-get update$ sudo apt-get install \ apt-transport-https \ ca-certificates \ curl \ software-properties-common$ curl -fsSL https://download.docker.com...
2018-07-29 22:45:18 285 1
原创 shell脚本命令函数操作大全
$ echo '#!/bin/sh' > my-script.sh$ echo 'echo Hello World' >> my-script.sh$ chmod 755 my-script.sh$ ./my-script.shHello World$上面这段代码中,echo是打印的意思,而>是重定向的意思,chmod是修改权限的意思。shell脚本以.sh...
2018-07-29 22:11:35 419
原创 拉勾网爬取全国python职位并数据分析薪资,工作经验,学历等信息
首先前往拉勾网“爬虫”职位相关页面 确定网页的加载方式是JavaScript加载 通过谷歌浏览器开发者工具分析和寻找网页的真实请求,确定真实数据在position.Ajax开头的链接里,请求方式是POST 使用requests的post方法获取数据,发现并没有返回想要的数据,说明需要加上headers和每隔多长时间爬取 我们可以看到拉勾网列表页的信息一般js加载的都在xhr和js中,通...
2018-07-29 16:07:08 830 8
原创 scrapy爬取新浪网站全栈新闻标题内容,并且分类存入文件夹中
首先我带大家先分析一下新浪网站的整体布局,爬取的内容从新浪网的导航页开始逐层爬取内容,这是新浪网导航页的网址http://news.sina.com.cn/guide/,先带大家看一下新浪网的导航页的页面布局。我们看到新浪网的导航分类,是新闻的标题下面还设置小标题,如新闻下面包括国内、国际、社会等等,点击国内就会进入页面详情,每一条新闻都会呈现在大家面前,点击新闻详情的链接就如进入到每条新闻的详情...
2018-07-15 15:54:14 2769 1
原创 权威发布2018北京春节期间空气质量受烟花爆竹影响几何
据北京环保监测中心官方数据显示,今年春季期间明显好于往年,根据监测数据显示燃放烟花爆竹影响,空气质量在除夕夜间达到272微克每立方米的峰值。...
2018-07-12 23:35:46 427
原创 多线程爬取网站案例
此案例是爬取糗事百科的案例,以下是代码部分from lxml import etreefrom queue import Queuefrom threading import Thread,Lockimport timeimport requestsimport json#是否退出采集线程True,退出,False不退出crawl_exit = Falseparse_e...
2018-07-12 23:16:52 887
原创 scrapy框架规则爬取政务网站案例
首先创建项目 scrapy startproject Dongguan,用pycharm打开项目Dongguan cd到Dongguan项目文件夹,创建规则爬虫 scrapy genspider -t crawl dongguan(爬虫名称) wz.sun0769.com(爬取网页的范围) 在文件夹中创建创建start.py文件,直接运行start .py 文件就可以跑起项目fr...
2018-07-12 22:57:50 1186 1
原创 在scrapy爬虫框架xpath中extract()方法的使用
本案例列举的是爬取腾讯社招中涉及到 extract()使用的总结(1)第一种:position = job.xpath('./td[1]/a/text()')[<Selector xpath='./td[1]/a/text()' data='22989-腾讯云虚拟化高级研发工程师(深圳)'>] 技术类 2 深圳 2018-07-11(2)第二种position = job.xpath...
2018-07-12 17:22:58 12578
原创 pycharm永久破解版详解
在安装目录下的bin文件夹当中加入JetbrainsCrack-2.7-release-str包在安装目录下的bin文件夹内部找到pycharm.vmoptions和pycharm64.vmoptions文件最后添加-javaagent:/opt/pycharm-2018.1.3/bin/JetbrainsCrack-2.7-release-str.jar添加下面注册码,注册成功后查看时间This...
2018-05-28 20:36:27 3451
原创 卸载mysql数据库以下四部曲
sudo apt purge mysql-*sudo rm -rf /etc/mysql//var/lib/mysqlsudo apt autoremovesudo apt autoclean按照以下命令,就可以卸载MySQL了最后在sudo ps –ajx|grep 服务名,查看一下是否卸载成功...
2018-05-24 15:25:22 528
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人