1、首先构造一个函数download_all_htmls()爬取网页信息
通过request函数根据路径获取网页信息,获得请求网页权限(可通过反爬虫机制来获取),构造空列表htmls来填入网页所对应的字符内容。
2、调用download_all_htmls函数获取网页内容
3、解析html所获得的相应数据
定义一个函数parse_single_html(html):用beautifulsoup初始化对象,通过目录路径找到目标总体items。读取items里所有的目标内容,通过正则表达式找到对应的目标对象link和title,并加入已定义的空列表datas,其元素为元组形式。
4、调用函数parse_single_html获取目标对象link和title
并通过pprint批量打印数据,使对象数据更一目了然。再将数据放入已定义的空列表data,最后将data转换为表格型的数据结构DataFrame。
5、将数据存入mysql
首先导入对应的模块create_engine,再设置连接数据库(注意用utf8mb4编码形式来存放较多字符串),最后写入mysql。