网络爬虫scrapy crawl ticketCrawler修改日志

1、路径问题
import sys
import os
sys.path.append(os.path.dirname(os.path.realpath(__file__)))

2. 格式问题
print err 改为 print (err) (pipelines.py、ticketSpider.py多处)
print "数据表中已有数据" 改为 print ("数据表中已有数据") (pipelines.py)

3. 日志问题
from scrapy import log注释掉(pipelines.py)

4. python3中编码问题
运行时日志提示:Request url must be str or unicode, got bytes。
encode后url会变成bytes,删除所有.encode('utf-8') (ticketSpider.py 10处)

5. mysql支持问题 
python3的pymysql把python2的mysqldb库取代了,让python 3支持mysqldb的解决方法
import pymysql 
pymysql.install_as_MySQLdb()  (pipelines.py)

6. 数据库连接问题
修改 MYSQL_PASSWORD = 'xxxxx' 将密码改成自己MYSQL的密码 (settings.py)
修改 engine = create_engine("mysql+mysqldb://root:xxxxx@127.0.0.1:3306/ticketCrawler?charset=utf8", max_overflow=10000) 密码改成真实密码 (pipelines.py)
代码中未创建库,在MYSQL中创建数据库ticketCrawler。

7. 表格创建问题
item.__class__,TicketCrawlerItem(包含目录名,文件名,类名)
if item.__class__==TicketCrawlerItem:
if item.__class__.__name__==TicketCrawlerItem.__name__:

8.软件安装问题
MYSQL https://blog.csdn.net/u010211877/article/details/105038959
scrapy pip安装

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值