《Python网络爬虫——从入门到实践》第六章将数据存储至MySQL数据库的学习心得与总结(出错与纠正方法)
作为刚开始入门python的小白,对大数据,网络爬虫比较感兴趣。完全是自我修炼,然后选择了唐松这本《Python网络爬虫——从入门到实践》,可能是这本书编写的内容是属于初初级的知识,所以学起来并没有那么费劲。但遇到的问题还是不少的,于是乎不断的找度娘帮忙。
学习到第六章6.2时,在创建爬虫数据库以及后续的创建表单时都进行的比较顺利,但是!!!!但是在书记表中插入数据时你会发现报错!!
创建数据库及表单:
CREATE DATABASE scraping;
#创建完数据库要使用它时就要用到下面命令
USE scraping;
#注意创建表格的格式
CREATE TABLE urls(
id INT NOT NULL AUTO_INCREMENT,
url VARCHAR(1000) NOT NULL,
content VARCHAR(4000) NOT NULL,
created_time TIMESTAMP DEFAULT CURRENT_TIMESTAMP,
PRIMARY KEY(id)
);
上面就是建立一个数据库,然后建立表单的过程,比较顺利。
#往表格插入数据
INSERT INTO urls(url,content) VALUES ("www.baidu.com","内容");
运行上行代码之后,出现错误提示1064
![在这里插入图片描述](https://i-blog.csdnimg.cn/blog_migrate/c30d6ea28c99f62e9c8ce4a7d612058b.png)