SecsGem 1.初识

目录

1.Secs由来

2.关于GEM(specification for the generic model for communications and control of manufacturing equipment)

3.特定于行业或特定于设备的标准

半导体前端

半导体后端

表面贴装技术

光伏发电

4.每个标准都分别定义了什么内容


 

 0.SEMI

SEMI是国际半导体产业协会,主要为半导体制程设备提供一套实用的环保、安全和卫生准则,适用于所有用于芯片制造、量测、组装和测试的设备。

在1970年之前,半导体产业已累积至少10年的发展动能。这新兴的产业全球收益虽仅有几百万美元,却汇聚了许多有远见的领导者,共同开创一个半导体设备及材料供货商的聚焦论坛—这个组织正是「国际半导体设备与材料产业协会」(Semiconductor Equipment and Materials International),也就是大家熟知的SEMI。

1.Secs由来

工厂通常由跨国企业拥有和经营,这些企业从各种设备制造商购买设备。尽管每种设备的控制软件都不一样,但要求工厂对设备进行整合,使设备协调运行。虽然可以独立地将每个设备与定制的软件集成在一起,但是这样做既不节约成本,也不节省时间。  如果能指定统一的标准,那么就解决了这个问题。Secs ()为了解决这个需求而产生的。

2.关于GEM(specification for the generic model for communications and control of manufacturing equipment)

SECS/GEM是由国际半导体设备与材料协会(SEMI)制定的连接性标准。此连接性标准用于在设备和工厂的资讯和控制系统间建立通讯,通过通信接口可以启动和停止设备的加工,收集数据,改变变量以及选择产品的配方。

GEM也称为(SECS / GEM,或简单地GEM)标准定义的消息,状态机,和场景,以使工厂软件来控制和监测制造设备。

Gem标准被正式指定为SEMI标准E30(如果你查手册就要找E30),通常大家都叫GEM或者SECS / GEM。

全球半导体(前端和后端),表面安装技术,电子装配,光伏,平板显示器和其他制造行业中的许多设备在制造设备上提供SECS / GEM接口,以便工厂主机软件可以与机器通信用于监视和/或控制目的。由于GEM标准是用很少的特定于半导体的功能编写的,因此它几乎可以应用于任何行业的任何自动化制造设备。(这个是在1992年提出来了,不就现在我们说的智能化工程吗?不明觉的厉害)

所有符合Gem的制造设备都具有一致的接口和某些一致的行为。 Gem设备可以使用TCP / IP(使用HSMS标准,SEMI E37)或基于RS-232的协议(使用SECS-1标准,SEMI E4)与具有GEM功能的主机进行通信。可以使用GEM指定的一组通用的SECS-II(E05)消息来监视和控制每个设备。

3.特定于行业或特定于设备的标准

还有许多其他的SEMI标准和工厂规范都引用了GEM标准的功能。这些附加标准是特定于行业或特定于设备类型的。以下是一些示例

半导体前端

半导体前端行业定义了一系列称为GEM300标准的标准,其中包括SEMI标准E40,E87,E90,E94E116,并引用了E39标准。每个标准都为GEM接口提供了附加功能,但仍以GEM E30标准中的功能为基础。全球300毫米工厂使用基本的GEM标准的数据收集功能来监视特定的设备活动,例如晶圆移动和工艺作业执行。几乎每一个300mm晶圆制造工具都需要SECS / GEM标准和其他GEM300标准,以实现制造自动化。该行业一直是GEM和相关SEMI标准的最强支持者。

半导体后端

半导体后端行业中的许多设备都执行GEM标准。已经实现了其他标准,例如用于测试仪专用设备模型的SEMI E122标准和用于处理设备专用设备模型的SEMI E123标准。

表面贴装技术

表面贴装技术行业中的许多设备都支持GEM标准,包括芯片放置,焊膏,烤箱和检查设备。GEM标准已在这些设备上使用了15年以上,尽管它没有比其他广泛使用的工业4.0选项优先使用。

光伏发电

2008年,光伏行业正式决定采用SECS / GEM标准,并提交了有关新的SEMI标准(第4557号投票)的提案,作为新的PV行业标准。甚至在采用GEM标准之前,多家光伏设备供应商就已经能够支持GEM标准。新标准称为“ PV设备通信接口(PVECI)指南”,并定义了一个框架,该框架利用SEMI E37(HSMS),SEMI E5(SECS-II),SEMI E30(GEM),SEMI E148和SEMI E10标准

4.每个标准都分别定义了什么内容

//GEM基本标准通信协议

1.e30 specification for the generic model for communications and control of manufacturing equipment(制造设备通信和控制通用模型规范)

2.e04 semi equipment communications standard 1 message transfer(半设备通信标准1信息传送)

3.e05 semi equipment communications standard 2 message content(半设备通信标准2报文内容)

4.e37 high speed secs message services generic sercices(高速secs消息服务通用服务)

//半导体前端使用的通信协议

5.e40    standard for process management (工艺管理标准)

e40 -1   secs-II support for processing managment standard (SECS-ll 支持的工艺管理标准)

6.e87    specification for carrier management(载体管理规范)

7.e94    specification for control job managemnt(控制作业管理规范)

8.e90    sapcefication for secs-ll protocol  substrate tracking (基板追踪协议)

9.e39   object service standard: cocepts behavior and services(概念、行为和服务)

 

//后面会持续更新关于半导体前端GME 300有关协议。

 

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Spark是一种大数据处理的框架,它可以处理大量的数据并进行分析。初学者可以通过学习Spark的基本概念和使用方法,了解Spark的工作原理和应用场景。在学习Spark的过程中,需要掌握Spark的核心组件和API,例如Spark Core、Spark SQL、Spark Streaming等。此外,还需要学习Spark的部署和调优,以及与其他大数据技术的集成。 ### 回答2: Spark是一种基于内存的分布式计算框架,是大数据处理中最流行的技术之一。Spark简单易用,能够快速地处理海量数据,尤其是在机器学习和数据挖掘领域中表现突出。本文将从初识Spark的角度入手,介绍Spark的基本概念和使用。 一、Spark的基本概念 1. RDD RDD全称为Resilient Distributed Datasets,中文意思是弹性分布式数据集,它是Spark的核心数据结构。RDD是一个不可变的分布式的对象集合,可以跨越多个节点进行并行处理。一个RDD可以分为多个分区,每个分区可以在不同的节点上存储。 2. DAG DAG即Directed Acyclic Graph(有向无环图),它是Spark中的一个概念,用来表示作业的依赖关系。Spark将一个作业拆分成一系列具有依赖关系的任务,每个任务之间的依赖形成了DAG。 3. 窄依赖和宽依赖 对于一个RDD,如果一个子RDD的每个分区只依赖于父RDD的一个分区,这种依赖就称为窄依赖。如果一个子RDD的每个分区依赖于父RDD的多个分区,这种依赖就称为宽依赖。宽依赖会影响Spark的性能,应尽量避免。 二、Spark的使用 1. 安装Spark 要使用Spark,首先需要在本地或者集群上安装Spark。下载安装包解压缩即可,然后设置环境变量,即可在命令行中运行Spark。 2. Spark Shell Spark Shell是Spark的交互式命令行界面,类似于Python的交互式控制台,可以快速测试Spark代码。在命令行中输入spark-shell即可进入。 3. Spark应用程序 除了Spark Shell,Spark还支持以应用程序的形式运行。要创建一个Spark应用程序,可以使用Scala、Java、Python等语言进行编写。使用Spark API,读取数据、处理数据、保存数据等操作都可以通过编写代码完成。 总之,Spark是一种优秀的分布式计算框架,能够在海量数据处理中发挥出强大的作用。初学者可以从掌握RDD、DAG、依赖关系等基本概念开始,逐步深入学习Spark的使用。 ### 回答3: Spark是一种快速、分布式数据处理框架,它能够在成千上万个计算节点之间分配数据和计算任务。Spark的优势在于它支持多种语言和数据源,可以在内存中快速存储和处理数据。 在初学Spark时,我们需要对Spark的架构和核心组件有一些了解。首先,Spark的核心组件是Spark Core,它是一个可以用于建立各种应用程序的计算引擎。与此同时,Spark持有丰富的库,包括Spark SQL、Spark Streaming、MLLib和GraphX等,以支持在各种数据类型(文本、图像、视频、地理定位数据等)上运行各种算法。 若想要在Spark中进行任务,有两种编程API可供选择:Spark的核心API和Spark的SQL及DataFrame API。Spark的核心API基于RDDs(弹性分布式数据集),它是不可变的分布式对象集合,Spark使用RDD来处理、缓存和共享数据。此外,Spark的SQL及DataFrame API提供了更高层次的语言,可以处理结构化和半结构化数据。 除了组件和API之外,我们还需要了解Spark的4个运行模式:本地模式、Standalone模式、YARN模式和Mesos模式。本地模式由单个JVM上单个线程(本地模式)或四个线程(local[*]模式)运行。Standalone通常用于小规模集群或开发和测试环境。在YARN或Mesos模式下,Spark将任务提交给集群管理器,并通过管理器分配和管理资源。 总体来说,初学Spark时,我们需要了解Spark的核心组件、编程API和运行模式。熟悉这些概念以及Spark的架构,可以帮助我们更好地理解Spark和构建高效且可扩展的Spark应用程序。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值