科研训练课程1--LetPub与Web of Science(查询工具)

科研训练课程1–LetPub与Web of Science(查询工具)


前言

本系列笔记为记录大二暑期学校课程—— 科研训练与写作,记录一下每天了解了什么吧(苦逼又无聊的学习生涯又开始了。才刚结束啊)

在’亲爱‘的大学想念我那远方的家的第一天(成功度过 ( ̄ω ̄) )


所属目录:科研训练课程

创建时间:2024/7/8

作者:星云<XingYun>

更新时间:xxx

URL:https://blog.csdn.net/2301_78630677/article/details/140278126?spm=1001.2014.3001.5502

课程任务(可跳过)

以下内容皆为tc,请勿模仿

1.第一个任务,写下之前提交的综述和实验课题的名称

课题名称:xxx

综述名称:xxx

2.第二个任务,将综述的大纲,也就是每一个小标题写下来

大纲:
1.xxx
1.1. xxx
2. xxx

3.使用LetPub查询引用论文所属期刊,找到最高的影响因子,发群给老师看

4.使用Web of Science来查询论文

5.按照老师要求,统计在参考文献列表中文献属于近五年来所占的比例,发群(据说,如果近五年来的参考文献很少,说明这个方向不够新,都没人愿意做)

6.最后,要求将综述正文字数修改到4000字左右(据说是因为字太多说明太啰嗦,总结不到位,字太少,则说明你工作量不够啊)

早知如此,当初就不写那么多了,当时写的时候痛苦一次,现在删减又收获一次
double

了解

1. LetPub

如何查询论文所投期刊的影响因子
letPub

例如,我要对以下论文所投期刊的影响因子进行查询:
在这里插入图片描述

将期刊名输入框内,点击查询按钮,即可查询到该期刊的IF值。
在这里插入图片描述

运气真不错,随便找一篇看看综合评分挺高
在这里插入图片描述

点进期刊,便是有关此期刊的详细信息

在这里插入图片描述

在这里插入图片描述

有了这个,就可以对期刊进行筛选了,将不入流期刊拒之门外,提高参考文献的质量。(孩子写论文都写饿了,还不让孩子吃点好的?)

补充

老师推荐了一个插件:easyScholar

插件功能:
可以直接在浏览器中查询论文的所属期刊、被引量、影响因子等指标,方便快捷。

在这里插入图片描述

2. Web of Science

可以根据已知的论文名称、作者等信息去查询论文 web of science

以上面那篇论文为例(假如我只知道论文名称),可以选择对应的"Title"并输入论文名称,然后点击"Search"按钮即可查询到该论文的详细信息。
在这里插入图片描述

查到了,可以下载下来,也可以查看其更多信息
在这里插入图片描述

更多详细的具体使用方法,参考

Web of Science使用说明

(Web of Science) SCI论文检索教程


总结

本文主要了解了用LetPub去查询论文所属期刊的影响因子等信息;以及用web of science 来对论文进行查询。
哎,又是收获满满的一天

这是第一天上课,还有整整七天,距离回家还有…

2024/7/8

### 使用Java编写网络爬虫抓取LetPub期刊数据 要实现通过Java编写的网络爬虫来获取LetPub上的期刊相关信息,可以采用以下方法和技术栈: #### 技术选型 通常情况下,构建一个简单的网页爬虫可以通过`Jsoup`库完成。这是一个非常流行的HTML解析器,能够轻松提取和操作数据[^2]。 以下是具体的技术细节以及代码示例: --- #### 依赖引入 首先,在项目中添加`Jsoup`库作为依赖项。如果使用Maven,则可以在`pom.xml`文件中加入以下配置: ```xml <dependency> <groupId>org.jsoup</groupId> <artifactId>jsoup</artifactId> <version>1.15.3</version> </dependency> ``` 对于Gradle用户,可将下面的内容添加至`build.gradle`文件中: ```gradle implementation 'org.jsoup:jsoup:1.15.3' ``` --- #### 数据抓取逻辑 假设目标是从LetPub网站上抓取特定期刊的信息(如影响因子、分区等),需要遵循以下流程: 1. **发送HTTP请求**:访问指定URL并加载页面内容。 2. **解析HTML文档**:利用`Jsoup.connect()`函数连接到目标站点,并调用`.get()`方法返回响应对象。 3. **定位所需节点**:分析目标网页结构,找到存储期刊信息的具体标签及其属性。 4. **提取数据**:遍历这些节点并将它们转化为有意义的数据形式。 下面是完整的代码实例: ```java import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; import org.jsoup.select.Elements; public class LetPubCrawler { public static void main(String[] args) { try { String url = "https://www.letpub.com.cn/index.php?page=journalapp&view=search"; // 替换为目标网址 Document document = Jsoup.connect(url).timeout(10 * 1000).get(); // 设置超时时间以防卡死 Elements journalEntries = document.select(".search_result_list li"); // 假设期刊条目位于此类名下 for (Element entry : journalEntries) { String title = entry.selectFirst("h3").text(); String impactFactor = entry.selectFirst(".impact_factor span").text(); System.out.println("Title: " + title); System.out.println("Impact Factor: " + impactFactor); System.out.println("-----------------------------"); } } catch (Exception e) { e.printStackTrace(); } } } ``` 上述代码片段展示了如何从LetPub主页或其他子页中检索出每本期刊的名字及其对应的影响因子等内容[^3]。 --- #### 注意事项 - 网络爬虫应遵守robots.txt协议,尊重目标网站的服务条款。 - 如果遇到动态加载内容的情况(即JavaScript渲染后的部分),可能需要借助Selenium这样的工具模拟浏览器行为。 - 对于大规模数据采集任务来说,考虑分布式架构设计会更加高效稳定。 --- #### 总结 综上所述,基于Java开发针对LetPub平台的学术资源收集应用并非难事,只需合理运用现有的开源框架即可达成目的[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

星石传说

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值