- 博客(6)
- 收藏
- 关注
原创 爬虫日记-scrapy-day2
上篇博客写了爬取静态网页内容,但缺乏永久保存的方法,这篇博客讲述如何通过item,pipeline来保存获取的内容修改爬虫文件夹下的items.py文件item是scrapy保存文件的容器,和字典差不多依照它给的例子修改,在这里,我们保存的是标题和url#修改items.pyimport scrapyclass BiqugespiderItem(scrapy.Item): # define the fields for your item here like: #
2020-11-08 18:45:07
153
原创 echarts-pyecharts1.8版本基础用法
1版和0.5版有很大的不同代码from pyecharts.options import global_optionsfrom pyecharts.charts import Barbar = Bar()ti = 'eeeee'attr = ["衬衫", "羊毛衫", "雪纺衫", "裤子", "高跟鞋", "袜子"]v1 = [5, 20, 35, 10, 15, 90]bar.set_global_opts(title_opts=global_options.TitleOpts(
2020-11-02 10:44:44
248
原创 scrapy-找不到命令
前几天系统更新把电脑更新坏了,昨天刚装好系统,幸好大部分软件装在d盘,不然又得麻烦一天。今天打开pycharm,准备写个scrapy练练手,发现scrapy创建项目失败,告诉我找不到scrapy命令(venv) D:\PyCharm 2019.3.3\cx2\test>scrapy startproject ujSpider'scrapy' 不是内部或外部命令,也不是可运行的程序或批处理文件。得,是我重装系统的问题吗?咱也不知道,从设置里又装了几遍scrapy,还是不行我就随便
2020-10-29 10:11:33
490
1
原创 zookeeper服务验证失败zkServer.sh status报错
启动成功[root@c1 ~]# zkServer.sh startZooKeeper JMX enabled by defaultUsing config: /opt/zookeeper/bin/../conf/zoo.cfgStarting zookeeper ... STARTED服务验证报错[root@c1 ~]# zkServer.sh statusZooKeeper JMX enabled by defaultUsing config: /opt/zookeeper/b
2020-10-23 14:38:05
1080
原创 python连接mysql数据库
使用的库:pymysql连接数据库from pymysql import connectconn = connect( #连接mysqlhost='mysql的主机地址',port=3306,#端口,默认3306user='mysql用户名',passwd='mysql密码',db='连接的数据库名',charset='utf8',#编码connect_timeout=5)连接超时时间,单位秒cur = conn.cursor()获取游标cur.execute(sql语句)
2020-10-22 19:31:35
110
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人