《Python网络爬虫——从入门到实践》第六章将数据存储至MySQL数据库的学习心得与总结(出错与纠正方法)

《Python网络爬虫——从入门到实践》第六章将数据存储至MySQL数据库的学习心得与总结(出错与纠正方法)

作为刚开始入门python的小白,对大数据,网络爬虫比较感兴趣。完全是自我修炼,然后选择了唐松这本《Python网络爬虫——从入门到实践》,可能是这本书编写的内容是属于初初级的知识,所以学起来并没有那么费劲。但遇到的问题还是不少的,于是乎不断的找度娘帮忙。
学习到第六章6.2时,在创建爬虫数据库以及后续的创建表单时都进行的比较顺利,但是!!!!但是在书记表中插入数据时你会发现报错!!
创建数据库及表单:
	CREATE DATABASE scraping;
	#创建完数据库要使用它时就要用到下面命令
	USE scraping;           
	#注意创建表格的格式  
	CREATE TABLE urls(
	id INT NOT NULL AUTO_INCREMENT,
	url VARCHAR(1000) NOT NULL,
	content VARCHAR(4000) NOT NULL,
	created_time TIMESTAMP DEFAULT CURRENT_TIMESTAMP,
	PRIMARY KEY(id)
	);
	上面就是建立一个数据库,然后建立表单的过程,比较顺利。
	#往表格插入数据
	INSERT INTO urls(url,content) VALUES ("www.baidu.com","内容");
	运行上行代码之后,出现错误提示1064

在这里插入图片描述

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值