计算机科研每日获取最新咨询的方法
前言
大家对AI的内容都非常饥渴,但是有个问题是,AI咨询中有价值的内容,基本都在国外,如果自己不懂英文,只看国内的二手消息的话,寻找咨询比较麻烦,想要获得最新的咨询也比较麻烦。
每日获取最新咨询的方法
我了解的一个博主获取每日咨询的办法
他使用由GPT4o驱动的agent,每日会帮他把AI相关的咨询和讨论,全部整理好。这么做的最大好处是,能够让自己在一个相对完整的时间段内,把今天想要获取的信息整理完毕,那这件事已经做完之后呢,除非今天发生了非常重大的新闻,比如GPT-5发布这种级别的,否则的话,那些杂七杂八的新闻,杂七杂八的文章,今天就不用再看了。
信息来源
- Reddit上LocalLLaMa频道的讨论:
- Reddit localllama这个频道一定要看,它的讨论质量很高,打开以后还有教程,同时也给出了具体的方法,有很多厉害的人带大家进行方法的复习和使用。
- medium频道:这个平台,很多文章的创意到具体方法,都有人在一步一步的教。而且medium这个平台的推荐机制很厉害,它的内容基本都是大家想看的内容。
- youtube频道: 看里面相关的AI博主。
- 最早学RAG,LangChain这些用法,基本都是在这些平台上学的。基本都是从油管上的这两位老哥:Sam Witteveen和James Briggs。
- Sam Witteveen ,(每当有热门大模型出现时,他都会出教学,他的Advanced RAG系列和LangChain系列也都特别好,对自己特别有帮助)。
- James Briggs,他同样也出了RAG和LangChain系列的教学,并且着重介绍了,怎么去接入Pinecone之类的向量数据库之类的方法。
- 所以大家如果要入门的话,把他俩的视频看完基本就OK了,而且他们视频里的代码,都用Google Colab的方式分享出来了。
- 全球各大媒体报道的热门新闻。
脚本
开头说的使用GPT获取咨询的脚本,实际上也不是作者写的,而是从github上找到的。
-
第一个脚本来自于
majacinka
这个小姐姐,顺着她的油管频道,找到了她的github。- 在脚本里,她用了
CrewAI
,搭建一套包含三个Agent的流程,CrewAI是一个Agent框架,特别简单直观,强烈推荐大家上手试一试,这个工具最好的地方,是给Agent配上了获取Reddit数据的工具。 - 作者用了
PRAW
,也就是python Reddit API Wrapper,它是一个python包,允许你以编程的方式,去访问和操作Reddit数据,前面介绍medium,其实作者也尝试过用Agent去抓取数据,但是效果很不好,所以有没有开放数据接口,差别也是很大的。
- 在脚本里,她用了
-
第二个脚本也是现成的,叫
GPT Researcher
,你把它的代码仓库克隆下来,运行之后会得到一个本地链接,打开以后是这样一个可视化界面,然后输入你想让它帮你收集的信息就好,差不多等上10秒钟到15秒钟,一份有模有样的简报就生成了。
-
最后作者会把这两个脚本生成的结果,都贴进一个word文档里,稍微改一改格式就OK了。不过也可以让Agent按照指定的格式,去生成一个文档。
刚才提到的CrewAI和GPT Researcher,在视频号作者黄益贺之前的视频里也有介绍过。大家可以到他的主页找来看,Agent技术非常重要,所以强烈建议,大家一定要详细了解一下。