传感器的定义和分类

英文名称:transducer / sensor

  传感器是一种物理装置或生物器官,能够探测、感受外界的信号、物理条件(如光、热、湿度)或化学组成(如烟雾),并将探知的信息传递给其他装置或器官。

 

传感器的定义

  国家标准GB7665-87对传感器下的定义是:“能感受规定的被测量并按照一定的规律转换成可用信号的器件或装置,通常由敏感元件和转换元件组成”。传感器是一种检测装置,能感受到被测量的信息,并能将检测感受到的信息,按一定规律变换成为电信号或其他所需形式的信息输出,以满足信息的传输、处理、存储、显示、记录和控制等要求。它是实现自动检测和自动控制的首要环节。

传感器的分类

可以用不同的观点对传感器进行分类:它们的转换原理(传感器工作的基本物理或化学效应);它们的用途;它们的输出信号类型以及制作它们的材料和工艺等。

  根据传感器工作原理,可分为物理传感器和化学传感器二大类 :

  传感器工作原理的分类物理传感器应用的是物理效应,诸如压电效应,磁致伸缩现象,离化、极化、热电、光电、磁电等效应。被测信号量的微小变化都将转换成电信号。

  化学传感器包括那些以化学吸附、电化学反应等现象为因果关系的传感器,被测信号量的微小变化也将转换成电信号。

  有些传感器既不能划分到物理类,也不能划分为化学类。大多数传感器是以物理原理为基础运作的。化学传感器技术问题较多,例如可靠性问题,规模生产的可能性,价格问题等,解决了这类难题,化学传感器的应用将会有巨大增长。

  常见传感器的应用领域和工作原理列于表1.1。

  按照其用途,传感器可分类为:

  压力敏和力敏传感器 位置传感器

  液面传感器 能耗传感器

  速度传感器 热敏传感器

  加速度传感器 射线辐射传感器

  振动传感器 湿敏传感器

  磁敏传感器 气敏传感器

  真空度传感器 生物传感器等。

  以其输出信号为标准可将传感器分为:

  模拟传感器——将被测量的非电学量转换成模拟电信号。

  数字传感器——将被测量的非电学量转换成数字输出信号(包括直接和间接转换)。

  膺数字传感器——将被测量的信号量转换成频率信号或短周期信号的输出(包括直接或间接转换)。

  开关传感器——当一个被测量的信号达到某个特定的阈值时,传感器相应地输出一个设定的低电平或高电平信号。

  

  在外界因素的作用下,所有材料都会作出相应的、具有特征性的反应。它们中的那些对外界作用最敏感的材料,即那些具有功能特性的材料,被用来制作传感器的敏感元件。从所应用的材料观点出发可将传感器分成下列几类:

  (1)按照其所用材料的类别分

  金属 聚合物 陶瓷 混合物

  (2)按材料的物理性质分  导体 绝缘体 半导体 磁性材料

  (3)按材料的晶体结构分

  单晶 多晶 非晶材料

  与采用新材料紧密相关的传感器开发工作,可以归纳为下述三个方向:

  (1)在已知的材料中探索新的现象、效应和反应,然后使它们能在传感器技术中得到实际使用。

  (2)探索新的材料,应用那些已知的现象、效应和反应来改进传感器技术。

  (3)在研究新型材料的基础上探索新现象、新效应和反应,并在传感器技术中加以具体实施。

  现代传感器制造业的进展取决于用于传感器技术的新材料和敏感元件的开发强度。传感器开发的基本趋势是和半导体以及介质材料的应用密切关联的。表1.2中给出了一些可用于传感器技术的、能够转换能量形式的材料。

  按照其制造工艺,可以将传感器区分为:

  集成传感器薄膜传感器厚膜传感器陶瓷传感器

  集成传感器是用标准的生产硅基半导体集成电路的工艺技术制造的。通常还将用于初步处理被测信号的部分电路也集成在同一芯片上。

  薄膜传感器则是通过沉积在介质衬底(基板)上的,相应敏感材料的薄膜形成的。使用混合工艺时,同样可将部分电路制造在此基板上。

  厚膜传感器是利用相应材料的浆料,涂覆在陶瓷基片上制成的,基片通常是Al2O3制成的,然后进行热处理,使厚膜成形。

  陶瓷传感器采用标准的陶瓷工艺或其某种变种工艺(溶胶-凝胶等)生产。

  完成适当的预备性操作之后,已成形的元件在高温中进行烧结。厚膜和陶瓷传感器这二种工艺之间有许多共同特性,在某些方面,可以认为厚膜工艺是陶瓷工艺的一种变型。

  每种工艺技术都有自己的优点和不足。由于研究、开发和生产所需的资本投入较低,以及传感器参数的高稳定性等原因,采用陶瓷和厚膜传感器比较合理。

 

 

转载于:https://www.cnblogs.com/yuyuyu4401/archive/2009/03/07/1405688.html

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值