python
文章平均质量分 83
枫雨血痕
初阶农民工,欢迎各位大佬互相探讨IT技术心得体会。
展开
-
修改jupyter保存文件目录
打开 cmd 输入命令 jupyter notebook --generate-config可以看到生成文件的路径,这个就是生成的配置文件jupyter_notebook_config.py然后打开这个配置文件,找到#c.NotebookApp.notebook_dir = ' '把它改成c.NotebookApp.notebook_dir = '你想要设置的路径'如:c.NotebookApp....转载 2018-03-07 12:07:47 · 25281 阅读 · 10 评论 -
安装jupyter的遭遇的问题
配置环境:python3.4,win10,Visual Studio 2017使用pip安装jupyter:命令行命令:pip3 install jupyter一直完美运行,直到Collecting pywinpty>=0.5; os_name == "nt" (from terminado>=0.8.1->notebook->jupyter) Using cached ...原创 2018-03-06 09:58:57 · 12355 阅读 · 3 评论 -
python3爬虫编码问题
使用爬虫爬取网页经常遇到各种编码问题,因此产生乱码今天折腾了一天,全部总结一遍环境:win10,pycharm,python3.41.首先先来网页编码是utf-8的:以百度首页为例:使用requests库import requestsurl="http://www.baidu.com"response = requests.get(url)content = respo...原创 2018-04-01 11:59:21 · 10320 阅读 · 0 评论 -
python面向对象基础
1.类和实例是什么关系?简单理解:类可以认为是一个模具,而通过模具生产出来的产品就是实例举个栗子:class Hello():#Hello类 def wel(self):#wel方法 print("Hello World!") H1 = Hello()#实例H1,这个过程叫做实例化H2 = Hello()#实例2 参考链接:https://www.zhihu.com/ques...原创 2018-04-09 12:59:17 · 131 阅读 · 0 评论 -
猫眼电影Top100实战
今天学习了使用爬虫抓取猫眼电影Top100,特此总结学习途中遇到的问题和知识:1.使用requests请求被禁解决方法1:添加headers参数,使网站以为是浏览器如:headers = {"User-Agent" : "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3...原创 2018-03-27 12:07:48 · 546 阅读 · 0 评论 -
今日头条街拍图片爬取
其中遇到的问题和一些新知识:1.注意页面请求参数:(会改变)即Query String Parameters例:今日头条里街拍综合的数据为'offset': 0,'format': 'json','keyword': '街拍','autoload': 'true','count': 20,'cur_tab': 1,'from': 'search_tab'而实际上图集的为:'offset': 0,'...原创 2018-04-03 14:26:50 · 532 阅读 · 0 评论 -
面向对象之编写一个色子类
本人自己摸索的方法:class Dice: """ 编写一个色子类,要求: 1.具有6个面,每个面为一种颜色 2.每种颜色代表一个数值(1-6) 3.实现一个通过颜色计算两种其代表数值和的静态方法 4.实现一个类方法(gen_dice)用于产生这个类的实例 """ @staticmethod def cal(color1,co...原创 2018-04-11 21:36:17 · 846 阅读 · 0 评论 -
selenium爬取淘宝美食
chrome()版:config.py文件MONGO_URL = 'localhost'MONGO_DB = 'taobao'MONGO_TABLE = 'product'spider.py文件(爬虫具体代码)import refrom selenium import webdriverfrom selenium.webdriver.common.by import Byfrom原创 2018-04-24 21:36:54 · 305 阅读 · 0 评论 -
爬取电影天堂电影信息
思路:使用requests库获取网页源代码,使用BeautifulSoup解析网页源代码,然后使用css选择器获取数据源代码:import requestsfrom bs4 import BeautifulSoupdef get_pages(url): """ 获取网页源代码 """ response = requests.get(url) conte...原创 2018-05-08 15:16:37 · 1656 阅读 · 0 评论