vue2.x集成 swiper轮播图详细教程

1、安装 vue-awesome-swiper npm install vue-awesome-swiper --save 2、使用 vue-awesome-swiper html代码部分 <template> <swiper ...

2018-09-20 10:51:03

阅读数:2620

评论数:0

Python 消息队列rabbitmq使用之 实现一个RPC系统

1、服务端代码 # rpc_server.py import pika # 建立连接 connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost')) channel = connectio...

2018-09-15 18:27:09

阅读数:3419

评论数:0

Python 消息队列rabbitmq使用之 更加细致的 有选择的 发布消息/接收消息-头交换机topic

1、发布端代码 # new_topic_p.py import pika import sys connection = pika.BlockingConnection(pika.ConnectionParameters(host='localhost')) channel = conne...

2018-09-15 18:01:49

阅读数:3417

评论数:0

Python 消息队列rabbitmq使用之有选择的发布消息/接收消息-直连交换机direct

1、发布端代码 # new_direct_p.py import pika import sys # 直连交换机(direct)的使用 # 用来指定某些消费者只收到,它该消费的消息 connection = pika.BlockingConnection(pika.ConnectionPa...

2018-09-15 17:54:16

阅读数:3414

评论数:0

Python 消息队列rabbitmq使用之发布订阅-扇形交换机fanout

1、发布端代码 # new_p.py import pika import sys ''' 什么是发布/订阅: 在上一个实例中,我们搭建了一个工作队列,每个任务只分发给一个工作者(worker)。 在本实例中,我们要做的跟之前完全不一样 即:分发一个消息给多个消费者(consumers)。这...

2018-09-15 17:44:59

阅读数:3417

评论数:0

Python 消息队列rabbitmq使用之工作队列使用多个worker接收消息

前面已经介绍过怎么安装rabbitmq以及要使用的三方库 因此这里直接进入实例 1、发布端代码 # new_task.py import pika # 导入pika import sys # 导入系统模块 # 开启链接,链接本地的rabbitmq connection = pika...

2018-09-15 17:37:57

阅读数:3427

评论数:0

Python 消息队列rabbitmq使用之入门案例

1、在本机上安装好rabbitmq Ubuntu安装rabbitmq 2、安装pika 操作rabbitmq的三方库 建议在虚拟环境中操作 pip install pika 3、入门实例 发布端代码,我这里命名为first_p.py import pika # 建立一个链接...

2018-09-15 17:29:45

阅读数:3414

评论数:0

Ubuntu16.04 18.04 安装rabbitmq 配置、使用详细教程

1、安装erlang 因为rabbitmq是用erlang语言开发的,所以要先安装好语言环境即可。 sudo apt-get install erlang-nox 如果在安装过程中报错:ubuntu18.04 E: dpkg 被中断,您必须手工运行 ‘sudo dpkg –configur...

2018-09-15 17:14:31

阅读数:3429

评论数:0

go语言入门之变量的声明和赋初值

1、单变量声明 package main import "fmt" var a = "我是字符串" //不指定类型的定义变量 var b string = "hello g...

2018-09-09 22:53:54

阅读数:4048

评论数:0

Python爬虫 requests使用post请求登录需要验证码的网站

具体代码为: import requests from bs4 import BeautifulSoup s = requests.Session() get_url = 'http://so.gushiwen.org/user/login.aspx?from=http://so.gushi...

2018-09-09 21:36:17

阅读数:4122

评论数:0

Python爬虫 requests使用post请求分析并登录Chinaunix

import requests from lxml import etree # 使用代理 proxy = { 'http': '219.149.59.250:9797' } # 创建一个会话 s = requests.Session() # 定制头信息 headers = { ...

2018-09-09 16:33:53

阅读数:4106

评论数:0

Python爬虫 requests使用get请求携带参数登录后使用session会话继续请求

import requests # 创建会话 s = requests.Session() # 登录要请求的地址, url = "http://www.jokeji.cn/user/c.asp" # 登录所需要的get参数 # 通过抓包的到需要传递的参数 d...

2018-09-09 16:04:38

阅读数:3987

评论数:0

Python使用requests xpath 并开启多线程爬取西刺代理ip

import requests,random from lxml import etree import threading import time angents = [ "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5...

2018-09-09 15:35:37

阅读数:3920

评论数:0

Python 爬虫 requests使用代理爬取

使用和urllib很相似,直接看代码 import requests # 代理以字典形式写出来 proxy = { 'http': '219.149.59.250:9797' } data = { 'wd': 'ip' } url = 'http://www.baidu....

2018-09-09 15:27:30

阅读数:3928

评论数:0

Python爬虫 requests库使用session会话保存cookies继续请求

import requests # 通过Session类新建一个会话 session = requests.Session() post_url = 'https://passport.weibo.cn/sso/login' # 往下使用requests的地方,直接使用session即可,ses...

2018-09-09 15:25:28

阅读数:3986

评论数:0

Python 自动化部署 fabric 使用详解

写在前面:本文使用的是Python2.7 + fabric1.14 目前fabric还是使用Python2居多 1、fabric入门 建立的文件的文件名尽量为fabfile.py 内容为: # -*- coding:utf-8 -*- from fabric.api import * ...

2018-09-08 18:05:18

阅读数:3911

评论数:0

docker 一文入门

1、安装docker Ubuntu环境下(低版本是安装不了的,建议使用16.04或更高) wget -qO- https://get.docker.com/ | sh 注意:使用这种方式安装,使用docker命令时可能需要sudo 2、镜像命令 查看所有镜像 sudo docker i...

2018-09-08 16:58:52

阅读数:3989

评论数:0

vue 监听路由刷新跳转,根据是否登录设置路由规则

在vue项目中,一个可行的路由规则很重要,它决定着用户是否有权限进入的路由,已经某些路由在刷新时要跳转等等 这部分代码是使用vue全家桶之一的router完成的,下面看具体实例 const whiteList = ['/login'] // 路由白名单,不需要登录的路由放在这里面 rou...

2018-09-08 16:08:14

阅读数:3947

评论数:0

Gitbook 使用入门

1、安装gitbook 注意:前提是你已经安装好了node.js 会使用npm命令 npm install gitbook-cli -g 2、简单使用 这个时候你就可以使用gitbook命令了 首先在你自己的目录下新建一个名为gitbook的目录(可以自定义名字) 然后使用命令 ...

2018-09-08 16:02:02

阅读数:3902

评论数:0

Ubuntu 安装 Scrapy 或Twisted 报错 error: command 'x86_64-linux-gnu-gcc' failed with exit status 1

如果你是Python2.7环境 sudo apt-get install python2.7-dev 如果你是Python3.6环境 sudo apt-get install python3.6-dev 然后再安装 pip install scrapy

2018-09-08 15:33:53

阅读数:3956

评论数:0

提示
确定要删除当前文章?
取消 删除
关闭
关闭