新版干货|互联网算法备案办理指南

一、什么是互联网算法备案

根据《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》和《生成式人工只能服务管理暂行办法》相关规定,需要进行互联网算法备案的主体包含具有舆论属性或者社会动员能力的算法推荐服务提供者、深度合成服务提供者、深度合成服务技术支持者和生成式人工智能服务提供者

二、哪些业务场景需要互联网算法备案

根据现行监管规定关于互联网算法备案的要求,无论是大模型还是产品,只要是“应用内含有向中国境内公众提供算法推荐服务功能”的,都需要进行备案,备案义务主体应当在提供服务之日起10个工作日内履行备案手续。

结合上述内容,众森企服小编给大家列了个表格:

三、互联网算法备案包含哪些类型

1、个性化推送类算法:利用用户属性数据或用户行为数据实现信息个性化分发;

2、排序精选类算法:以客观因素或主观因素为依据,设置、调整网络信息内容排列顺序;

3、检索过滤类算法:包括检索算法和过滤算法;

4、调度决策类算法:自动或辅助生成调度决策结果,或提供调度决策依据;

5、生成合成类算法:深度合成技术,利用以深度学习、虚拟现实为代表的生成合成类算法制作信息。

这里面着重给大家讲讲生成合成类算法,这几年比较火的AIGC产品就属于生成合成类的,我给大家详细列一下AIGC相关的产品类型:

  1. 文生文;
  2. 文生图;
  3. 文生视频;
  4. 文生文、图片、视频;
  5. 文生语音/声音;
  6. 语音/声音生文字;
  7. 图生图;
  8. 图生文;
  9. 图生视频;
  10. 多模态:通过文字生成文字、图片、视频或通过图片生成文字、图片、视频或通过视频生成文字、图片、视频等;
  11. 其他:涉及人脸生成、人脸替换、人物属性编辑、人物操控、姿态操控等生成或者编辑图像、视频内容中生物特征的技术;三维重建、数字仿真等生成或者编辑数字人物、虚拟场景的技术;涉及沉浸式拟真场景,是指应用深度合成技术生成或者编辑的,可供参与者体验或者互动的、具有高度真实感的虚拟场景。

四、互联网算法备案的必要性

经营合规:企业如未经审批擅自开展业务,涉嫌违规经营。

罚款:算法推荐服务提供者违反规定将面临一万元以上十万元以下罚款。

追责:构成犯罪的依法追究行政、刑事责任。

下架:涉及算法功能的系统、APP、小程序随时面临下架风险。

五、互联网算法备案所需材料清单

  • 工商营业执照;
  • 算法安全负责人承诺书;
  • 法人与负责人身份证;
  • 算法安全负责人工作证明;
  • APP或网站情况;
  • ICP备案证明/ICP经营许可证;
  • 算法安全主体责任基本情况、备案主体互联网信息服务算法安全管理制度、算法安全自评估报告、拟公示内容等。

六、互联网算法备案流程

第一步:

填报入口:登录互联网信息服务算法备案系统,网址为https://beian.cac.gov.cn ;

第二步

点击主页的“主体信息”进行主体信息填报,按照备案主体的实际情况如实填写主体的基本信息、证件信息、法定代表人信息、算法安全责任人信息等内容,并下载附件模板,严格按照模板要求填写并上传《算法备案承诺书》和《落实算法安全主体责任基本情况》附件。

第三步

点击主页的“备案信息”进行算法信息填报。算法信息填报包括两个步骤:一是填写算法基础属性信息;二是填写算法详细属性信息。

①填写算法基础属性信息

填报人员需选择“生成合成(深度合成)”算法类型,根据实际情况选择“服务提供者”或“服务技术支持者”填报角色。填报人员需下载页面中的模板,按照模板内容填写并上传《算法安全自评估报告》《拟公示内容》等附件。

②填写算法详细属性信息

填报人员可参考当前填报页面右方的说明文字,根据实际情况填写算法数据、算法模型、算法策略和算法风险与防范机制等信息。填报时,如需中途退出,可点击页面下方的“保存至草稿箱”,保存当前已填写的内容,便于后续继续填写。

第四步

在关联产品及功能信息或填报技术服务方式时,“服务提供者”角色的填报人员需关联产品及功能信息,“服务技术支持者”角色的填报人员需填报技术服务方式。

①关联产品及功能信息

“服务提供者”角色的填报人员需根据实际情况勾选应用当前备案算法的产品及功能。需要注意的是,若勾选产品,则表示当前备案算法应用于该产品下所有功能;若勾选功能访问路径,则表示当前备案算法应用于该路径下所有功能;若勾选特定功能,则表示当前备案算法仅应用于被勾选的功能。若当前产品及功能信息不完善,即产品及功能不能覆盖当前备案算法的关联范围,填报人员可点击该界面下方的“保存至草稿箱”按钮,返回主页并点击主页的“产品及功能信息”完善相应的产品及功能信息。

待产品及功能信息完善后,算法备案填报人员可通过草稿箱返回至“备案信息”页面继续进行算法信息填报。其中,草稿箱的进入方式有两种:一是点击主页右上角用户昵称,在下拉菜单中选择“草稿箱”;二是点击主页“备案信息”按钮,从备案信息界面中进入“草稿箱”。

②填报技术服务方式

“服务技术支持者”角色的填报人员需根据实际情况填写当前备案算法的技术服务方式信息,包括技术服务名称、技术访问方式、技术服务对象、技术服务频度等。

七、 互联网算法备案咨询办理服务

服务

内容

内容详细

合规制度搭建

梳理算法治理结构,搭建算法安全机构;建立算法安全自评估制度装算法安全监测制度、算法安全事件应急处
理制度、算法违法违规处置制度、科技伦理审核制度。

互联网算法备案服务

算法备案申报

协助撰写算法基本原理、运行机制、应用场景、目的意图等公示内容;明确算法流程、算法数据、算法模型、干预策略、结果标识等算法情况;明确算法在服务中应用情况;研判算法滥用、算法恶意利用、算法漏洞等算法风险;建立内容生态治理用户权益保护、模型安全保障、数据安全防护等风险防控机制;撰写《算法安全自评估报告》;提交国家网信办备案。

产品功能备案

梳理算法相关产品及功能;准确描述并填报算法与产品及功能之间的逻辑关系。

八、互联网算法备案成功案例

  • 23
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
### 回答1: Spark Streaming 和 Flink 都是流处理框架,但在一些方面有所不同。 1. 数据处理模型 Spark Streaming 基于批处理模型,将流数据分成一批批进行处理。而 Flink 则是基于流处理模型,可以实时处理数据流。 2. 窗口处理 Spark Streaming 的窗口处理是基于时间的,即将一段时间内的数据作为一个窗口进行处理。而 Flink 的窗口处理可以基于时间和数据量,可以更加灵活地进行窗口处理。 3. 状态管理 Spark Streaming 的状态管理是基于 RDD 的,需要将状态存储在内存中。而 Flink 的状态管理是基于内存和磁盘的,可以更加灵活地管理状态。 4. 容错性 Flink 的容错性比 Spark Streaming 更加强大,可以在节点故障时快速恢复,而 Spark Streaming 则需要重新计算整个批次的数据。 总的来说,Flink 在流处理方面更加强大和灵活,而 Spark Streaming 则更适合批处理和数据仓库等场景。 ### 回答2: Spark Streaming 和 Flink 都是流处理框架,它们都支持低延迟的流处理和高吞吐量的批处理。但是,它们在处理数据流的方式和性能上有许多不同之处。下面是它们的详细比较: 1. 处理模型 Spark Streaming 采用离散化流处理模型(DPM),将长周期的数据流划分为离散化的小批量,每个批次的数据被存储在 RDD 中进行处理,因此 Spark Streaming 具有较好的容错性和可靠性。而 Flink 采用连续流处理模型(CPM),能够在其流处理过程中进行事件时间处理和状态管理,因此 Flink 更适合处理需要精确时间戳和状态管理的应用场景。 2. 数据延迟 Spark Streaming 在处理数据流时会有一定的延迟,主要是由于对数据进行缓存和离散化处理的原因。而 Flink 的数据延迟比 Spark Streaming 更低,因为 Flink 的数据处理和计算过程是实时进行的,不需要缓存和离散化处理。 3. 机器资源和负载均衡 Spark Streaming 采用了 Spark 的机器资源调度和负载均衡机制,它们之间具有相同的容错和资源管理特性。而 Flink 使用 Yarn 和 Mesos 等分布式计算框架进行机器资源调度和负载均衡,因此 Flink 在大规模集群上的性能表现更好。 4. 数据窗口处理 Spark Streaming 提供了滑动、翻转和窗口操作等灵活的数据窗口处理功能,可以使用户更好地控制数据处理的逻辑。而 Flink 也提供了滚动窗口和滑动窗口处理功能,但相对于 Spark Streaming 更加灵活,可以在事件时间和处理时间上进行窗口处理,并且支持增量聚合和全量聚合两种方式。 5. 集成生态系统 Spark Streaming 作为 Apache Spark 的一部分,可以充分利用 Spark 的分布式计算和批处理生态系统,并且支持许多不同类型的数据源,包括Kafka、Flume和HDFS等。而 Flink 提供了完整的流处理生态系统,包括流SQL查询、流机器学习和流图形处理等功能,能够灵活地适应不同的业务场景。 总之,Spark Streaming 和 Flink 都是出色的流处理框架,在不同的场景下都能够发挥出很好的性能。选择哪种框架取决于实际需求和业务场景。 ### 回答3: Spark Streaming和Flink都是流处理引擎,但它们的设计和实现方式有所不同。在下面的对比中,我们将比较这两种流处理引擎的主要特点和差异。 1. 处理模型 Spark Streaming采用离散流处理模型,即将数据按时间间隔分割成一批一批数据进行处理。这种方式可以使得Spark Streaming具有高吞吐量和低延迟,但也会导致数据处理的粒度比较粗,难以应对大量实时事件的高吞吐量。 相比之下,Flink采用连续流处理模型,即数据的处理是连续的、实时的。与Spark Streaming不同,Flink的流处理引擎能够应对各种不同的实时场景。Flink的实时流处理能力更强,因此在某些特定的场景下,它的性能可能比Spark Streaming更好。 2. 窗口计算 Spark Streaming内置了许多的窗口计算支持,如滑动窗口、滚动窗口,但支持的窗口计算的灵活性较低,只适合于一些简单的窗口计算。而Flink的窗口计算支持非常灵活,可以支持任意窗口大小或滑动跨度。 3. 数据库支持 在处理大数据时,存储和读取数据是非常重要的。Spark Streaming通常使用HDFS作为其数据存储底层的系统。而Flink支持许多不同的数据存储形式,包括HDFS,以及许多其他开源和商业的数据存储,如Kafka、Cassandra和Elasticsearch等。 4. 处理性能 Spark Streaming的性能比Flink慢一些,尤其是在特定的情况下,例如在处理高吞吐量的数据时,在某些情况下可能受制于分批处理的架构。Flink通过其流处理模型和不同的调度器和优化器来支持更高效的实时数据处理。 5. 生态系统 Spark有着庞大的生态系统,具有成熟的ML库、图处理库、SQL框架等等。而Flink的生态系统相对较小,但它正在不断地发展壮大。 6. 规模性 Spark Streaming适用于规模小且不太复杂的项目。而Flink可扩展性更好,适用于更大、更复杂的项目。Flink也可以处理无限制的数据流。 综上所述,Spark Streaming和Flink都是流处理引擎,它们有各自的优缺点。在选择使用哪一个流处理引擎时,需要根据实际业务场景和需求进行选择。如果你的业务场景较为复杂,需要处理海量数据并且需要比较灵活的窗口计算支持,那么Flink可能是更好的选择;如果你只需要简单的流处理和一些通用的窗口计算,Spark Streaming是更为简单的选择。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

众森企服

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值