Python爬取CNKI论文的信息

学了2天,简单的来总结一下。因为毕业设计是有关于推荐系统的相关内容,利用python爬取文献库是里面最基础的一步。
代码无任何难度,不懂得直接复制代码上网查询也能明白具体代码的意思。

选择CNKI的原因很简单:
1、知网的网页源代码中,查询的结果是存储在iframe里面的,单纯的python+request是很难读取到iframe里面的内容的。我爬了一个晚上没爬出来。。
2、CNKI的网页源代码中,查询的结果没有iframe等框架,相对来说容易爬取。

1、利用post的方法获取网页信息

CNKI和其他文献库不一样,当你在搜索框里搜索相应的内容的时候,跳转的页面的url还是原先未跳转的url,会出现url为定向的问题。此时不能用urlopen的方式采取get方法进行网页的爬取。我最终选择了request的表单数据提交方式。
liyongpost方法提交数据
post所提交的参数

2、利用beautifulsoup进行网页相应标签的爬取

beautifulsoup对于网页源代码中的特定标签的读取特别方便,所以最终采用的还是beautifulsoup的方式。
在这里插入图片描述
对于我个人的需求,我的爬取论文的情况对应的应该是第一种不包含任何图片,且有关键字提示;第二种不在我的爬取范围之内。
1、在beautifulsoup中,这两种链接的爬取区别区分不明显,且tag高度重合,所以此时我不能用beautifulsoup的find方法去读取a标签。
2、我的想法是一个论文的相应条目分开读取;
在这里插入图片描述
可以看出,搜索结果的一条结果,是在一个div class="list-item"里面的;而所有的搜索结果,是在一个div id = "article_result"里面的。所以我们的搜索方案现在就很明确了。
1、先将div id = "article_result"的内容全部爬取,里面包含了所有子的div class=“list-item”
2、针对每个div class=“list-item”,读取里面的论文题目和相关的关键字

为什么我不知觉读取所有的div class=“list-item”?因为通过观察可以发现,并不是所有的div class="list-item"标签里都会包含数据。在div id = "article_result"标签的范围之外,有很多div class="list-item"是不包含数据的。

3、利用beautifulsoup的方法将每个搜索结果读取,存入集合里面

在这里插入图片描述
从图片的代码很容易得出,第一个圈的代码,我们需要从里面得出标题数据,数据在title属性里面;第二个圈得出的是关键词,数据在data-key属性里面。这里的解决方案可以利用正则表达式解决。

代码如下所示:

from bs4 import BeautifulSoup
from urllib.request import urlopen
import re
import random
import requests


url = "http://search.cnki.com.cn/Search/Result"
data = {'searchType': 'MulityTermsSearch', 'Content': '基于内容的推荐系统'}
#此处的data存储的post所提交的参数,从第一步的图片能看的出来
titles =[]
#存储从CNKI读取的所有标题
tags = []
#存储读取的每个标题对应的关键字

res = requests.post(url, data=data)
html = res.text
soup = BeautifulSoup(html,'lxml')

sum_article = soup.find("div",{"id":"article_result"})
sum_div = sum_article.find_all("div", {"class":"list-item"})


for sub_div in sum_div:
#对于article里面的list-item作数据爬取
    if sub_div != None:

        sub_title = sub_div.find("a", {"target": "_blank", "title": re.compile("(.+?)"),
                                   "href": re.compile("http://(.*?).cnki.com.cn/Article/(.*?)")})
        #此处用标签加上相应的正则表达式,可以爬出所有包含论文标题的数据

        sub_tag = sub_div.find("a", {"data-key": re.compile("(.+)")})
        #此处用标签加上相应的正则表达式,可以爬出所有包含论文标题的关键字

        titles.append(sub_title['title'])
        tags.append(sub_tag['data-key'])

print(titles)
print(tags)


print(titles.__len__())
print(tags.__len__())
if tags.__len__() == titles.__len__():
    print("长度相等")
#用来判断爬出的论文标题数量,和对应的关键字数量是否相等。相等即爬取正确`

建议可以去b站看一下莫烦python,讲的挺好的,可以快速入门以下基础。

要使用Python爬取知网参考文献,可以参考以下步骤: 1. 首先,你可以使用Python的requests库发送POST请求来获取网页信息。这是因为知网的查询结果存储在iframe中,所以需要通过POST请求来获取iframe中的内容。\[2\] 2. 在发送POST请求时,你需要使用合适的表单数据来模拟搜索框的输入。这可以通过查看知网网页源代码来确定。\[3\] 3. 一旦你获取到了查询结果的网页内容,你可以使用PythonBeautifulSoup库来解析网页,并提取你需要的参考文献信息BeautifulSoup可以帮助你定位和提取网页中的特定标签。\[3\] 通过以上步骤,你就可以使用Python爬取知网参考文献了。希望对你有帮助! #### 引用[.reference_title] - *1* [【爬虫实战】Python爬取知网文献信息](https://blog.csdn.net/weixin_68789096/article/details/130900608)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* *3* [Python爬取CNKI论文信息](https://blog.csdn.net/qq_41217121/article/details/106104297)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insertT0,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值