每天10分钟!自动抓取并生成每日简报的AI方案

        你是否每天为编写简报或日报忙得焦头烂额?

        每天需要浏览多个网站,手动收集各个网站更新的新闻资讯,再逐篇概括为摘要,非常耗费时间和精力!

        面对这些挑战,简数采集器能帮你解决!它能自动监控采集和汇总不同网站的更新内容,并自动调用AI接口对采集的内容生成摘要,你只需从结果摘要中筛选并导出Excel,即可轻松快速生成简报,不仅节省大量时间,还能确保信息的及时性和稳定性!

        下面通过实例来演示配置方法,比如:要制作国内金融经济领域的每日最新政策资讯简报,主要包括下面3个配置:

      1、创建和启动采集任务:配置每个目标网站的采集规则,并启动定时采集(实现监控更新),使任务每天自动采集最新资讯内容;

      2、使用AI接口生成摘要:添加AI接口和AI处理规则,对每天采集到的数据使用AI接口自动生成摘要(采集任务完成后会自动调用AI接口);

      3、汇总数据和导出使用:配置将各个采集任务(不同网站)的数据自动汇总到汇总库,并做筛选处理、导出使用。

详细操作步骤如下:

1. 创建和启动采集任务

在简数配置每个目标网站的采集规则,并启动定时采集(实现监控更新),使任务每天自动采集最新资讯内容;

1)创建采集任务

采集任务即网站的数据采集规则,通常一个采集任务对应一个网站。

使用智能向导模式创建采集任务,只需简单三步即可完成:

 (1)输入网站网址(要采集的栏目网址),点击下一步

(2)系统将智能提取列表页中的多个详情页链接,继续下一步。

如需手动指定链接,可打开【列表提取器】可视化界面上用鼠标点选。

(3)系统将智能提取详情页中关键信息(标题、正文、作者、时间等),下一步完成,启动采集。

如需手动指定采集内容,可打开【详情提取器】可视化界面上点选设置。

以下是银行新闻智能采集结果,包含文章来源、标题、正文及发布时间等内容。

假设需同时采集人民银行、证监会、财政部等不同网站,则需分别创建对应的采集任务。

2)定时监控更新

创建采集任务后,可配置定时采集策略,支持按每天、每周或自定义间隔(如每N小时/分钟)自动抓取目标网站的更新内容,实现全自动化监控。

设置方法:点击【启动采集 | 定时采集】-> 勾选上 “启用定时采集”-> 设置定时方式和时间 ->【开始采集 | 定时采集】。

采集任务列表处,可直观地查看各个任务自动采集的执行时间。

2. 使用AI接口生成摘要

        添加AI接口和AI处理规则,对每日采集到的更新数据使用AI接口自动生成摘要。

1)开通并填写AI接口

开通所需的AI大模型API服务(如DeepSeek AI​),将其API Key填写到简数第三方API接口配置中。

在第三方API接入配置管理,添加对应的AI接口配置。

支持多款主流AI接口:DeepSeek、文心一言、通义千问、Kimi、豆包、星火、智谱等,均有免费版或赠送试用。

2)配置AI处理规则

      在API处理规则,配置基于内容概括生成摘要的AI指令(AI Prompt),支持完全自定义AI指令,灵活满足各类定制化需求。

API处理规则配置步骤:

(1)添加API规则

【第三方API接入】 -> 切换到【API处理规则管理界面】->【添加API处理规则】

(2)自定义API规则

字段名填写内容字段content -> 添加AI处理指令 -> 选择要调用的AI接口。(如前文配置的DeepSeek 接口)

下面为示例图中的AI概括摘要指令,可供参考

角色:领导的助手

任务:将新闻资讯总结概括为不超过100字的新闻摘要,用于汇报给领导与全公司同事。

具体要求:

1. 关键信息完整性:摘要需包含新闻文章的主要事实、涉及的主要人物/机构、事件发生的时间地点等关键要素;

2. 语气风格:正式语气,严肃专业;

3. 客观中立:摘要应完全基于新闻内容,避免添加任何个人观点或情感色彩;

4. 语言精准简洁:语句需通顺连贯,用词精准且尽可能简洁;

以下是新闻资讯内容:

3)配置AI生成摘要自动执行

配置API处理规则自动执行,当任务完成新闻采集时,系统将根据预设规则自动生成AI摘要。

设置方法:在每个采集任务 【自动化配置】-> 勾选【采集后,自动执行API】-> 选择已配置的API处理规则,保存。

API规则执行成功后,在采集结果会新增AI字段,可查看由AI概括生成的摘要内容。

3. 汇总数据和导出使用

可将各个采集任务(不同网站)的数据自动汇总到汇总库,方便做筛选处理与导出使用。

1)创建汇总库

【数据汇总库】-> 【创建数据汇总库】-> 填写库名,保存。

2)配置自动汇总数据

配置自动导入汇总库,当任务完成自动采集和AI摘要生成后,系统将数据结果自动导入到目标汇总库。

设置方法:在每个采集任务 【自动化配置】-> 勾选【自动导入汇总库】-> 选择目标汇总库和导入方式,保存。

3)导出并整理成简报

各个任务数据都自动导入汇总库后,可一键导出所有新闻摘要数据,经筛选整理形成简报。

支持将数据导出为Excel、Word、CSV、TXT、Html、JSON和SQL等文件格式。

比如导出为Excel文件,包含原文链接、标题、正文、时间和AI概括摘要等信息,只需简单筛选整理,即可轻松快速地完成简报编写!

### 如何搭建 DeepSeek 自动工作流 #### 使用 Make 和 DeepSeek-R1 实现自动化信息获取与处理 为了高效地利用 DeepSeek 大模型的能力,可以借助 `Make` 平台来创建个性化的 AI 流程。通过配置特定的任务节点,能够自动完成从数据收集、预处理到最终分析报告生成的一系列动作[^1]。 ```bash # 定义一个简单的 makefile 来调用 DeepSeek API 进行情感分析 sentiment_analysis: curl -X POST "https://api.deepseek-r1.com/v1/analyze-sentiment" \ -H "Authorization: Bearer YOUR_API_KEY" \ -d '{"text": "This is an example sentence."}' ``` #### 结合 Inoreader 提取筛选有价值的内容源 订阅多个 RSS 订阅服务中的高质量资讯频道,设置过滤条件以确保只接收最相关的信息输入给后续的工作流程组件进行进一步加工处理。 #### 利用 Notion 整理结构化知识体系 将经过初步清洗后的资料导入至 Notion 数据库内,按照既定分类标准建立卡片视图或是表格形式的知识条目;同时支持多人协作编辑以及版本管理等功能特性。 #### 推荐实践案例——构建个人专属新闻摘要机器人 - **第一步**:设定定时任务定期抓取目标网站最新文章链接; - 对每篇文章执行自然语言理解 (NLU) 分析提取关键要点; - 将提炼出来的精华部分汇总成每日简报发送给指定邮箱地址列表成员阅读参考。 ```json { "schedule": "* * */12 * *", "tasks": [ { "type": "web_scraper", "target_url": "http://example-news-site.com" }, { "type": "deepseek_nlu", "input_field": ".article-body p" } ] } ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值