电力电子技术笔记(2)——电力二极管

本文详细介绍了电力二极管的工作原理,包括其静态和动态特性,以及主要参数如正向平均电流、正向压降、反向重复峰值电压等。还探讨了不同类型如普通二极管、快恢复二极管和肖特基二极管的特性差异。电力二极管在不可控整流、电感性负载回路等场景中有广泛应用。
摘要由CSDN通过智能技术生成

2.2 不可控器件——电力二极管

2.2.1 电力二极管的工作原理

2.2.2 电力二极管的基本特性

2.2.3 电力二极管的主要参数

2.2.4 电力二极管的主要类型

2.2.5 小结

2.2.1 电力二极管的工作原理

电力二极管(Power Diode)也称为功率二极管或半导体整流器(Semiconductor Rectifier,简称SR),属于不可控电力电子器件。

应用范围:不可控整流、电感性负载回路、电压源型逆变电路无功回路电流源型逆变电路中的换流隔断等场合。

基本结构和工作原理与信息电子电路中的二极管一样。

由一个面积较大的PN结和两端引线以及封装组成的。

PN结的几个概念:在P和N区交界面附近,形成一个空间电荷区耗尽层,无多数载流子);正负电荷相互作用,形成内电场;薄层形成的空间电荷区称为PN结;电位差对载流子而言是一种势垒。 

从外形上看,有螺栓型、平板型,还有模块等封装。

a)外形:螺栓型、平板型; b)基本结构;c)电气图形符号

整流二极管及模块

电力二极管其结构和原理简单,工作可靠,大量应用于许多电气设备中。

快恢复二极管肖特基二极管:开通和关断速度很快,应用在中、高频整流和逆变场合。 

 PN结的状态:

 二极管的基本原理就在于PN结的单向导电性。

PN结的反向击穿(两种形式(可逆),均可能导致热击穿(不可逆)):

雪崩击穿:碰撞电离,倍增效应;

齐纳击穿:稳压二极管。

 PN结的电容效应——PN结的电荷量随外加电压而变化,呈现电容效应,称为结电容\large C_{J},又称为微分电容;结电容按其产生机制和作用的差别分为势垒电容\large C_{B}(在外加电压变化时起作用)和扩散电容\large C_{D}(在正向偏置时起作用);结电容影响PN结的工作频率,特别是高速的开关状态。

2.2.2 电力二极管的基本特性

静态特性:

主要指伏安特性

门槛电压\large U_{TO},指正向电流才开始明显增加,处于稳定导通状态。

\large I_{F}对应的电力二极管两端的电压即为其正向电压降\large U_{F}

电导调制效应:随着电流增大,伏安特性曲线的斜率增大,等效电阻变小;存在于两种载流子都参与工作的情况。 

承受反向电压时,只有少子引起的微小而数值稳定的反向漏电流

电力二极管的伏安特性

 动态特性:

电压—电流特性是随时间变化的,因为存在结电容线路电感

电力二极管的等效电路图

 关断过程:

结电容:有反向电流,开始阶段电压极性未改变,图中1。

电感:反向电流突降,图中2,明显的反向电压过冲,图中3。

延迟时间:\large t_{d} =  \large t_{1}(最大反向电流)  \large - t_{0}(正向电流为0),

电流下降时间:\large t_{f}  \large = t_{2}(di/dt趋近0,稳定反向电流)  \large - t_{1}

反向恢复时间: \large t_{rr} = t_{d}+ t_{f}

恢复特性的软度:下降时间与延迟时间的比值 \large t_{f}/t_{d},或称恢复系数,用\large S_{r}表示,值越大,恢复特性越软。

电力二极管的动态过程波形——正向偏置转换为反向偏置

开通过程:

正向压降出现一个过冲\large U_{FP},经过一段时间才接近稳态压降的某个值(如2V)。

过冲的原因:1)少子储存时间,稳态导通之前管压降较大;2)正向电流的上升会因器件自身的电感而产生较大压降(u = di/dt)。电流上升率越大,\large U_{FP}越高。 

正向恢复时间\large t_{fr}

电力二极管的动态过程波形——零偏置转换为正向偏置

2.2.3 电力二极管的主要参数

正向平均电流\large I_{F(AV)}

额定电流:指电力二极管长期运行时,在指定的管壳温度(简称壳温,用\large T_{C}表示)和散热条件下,其允许流过的最大工频正弦半波电流的平均值\large I_{T(AV)}

\large I_{T(AV)} = I_{m}/\pi,        有效值\large I = I_{m}/2,        两者之间的关系\large I_{T(AV)} = 1/1.57I

 \large I_{AV} = \frac{1}{2\pi }\int_{0}^{\pi }i(wt)dwt,        \large I = \sqrt{\frac{1}{2\pi }\int_{0}^{2\pi}i^{2}(wt)dwt}

对于工频正弦半波电流波形来说,波形系数\large K_{f} = I/I_{T(AV)} 。波形不同比值不同。

\large I_{F(AV)}(平均值)是按照电流的发热效应来定义的,使用时应按有效值相等的原则来选取电流定额,额定100A的二极管可以通过157A的电流有效值,并应留1.5—2倍的裕量。

正向压降\large U_{F}:指电力二极管在指定温度下,流过某一指定的稳态正向电流时对应的正向压降。

反向重复峰值电压\large U_{RRM}:能重复施加的反向最高峰值电压。留有2—3倍的裕量。

反向漏电流\large I_{RRM}:当器件承受\large U_{RRM}时的反向电流。 

最高工作结温\large T_{JM}:PN结所能承受的最高平均温度。通常125~175℃。

反向恢复时间\large t_{rr}\large t_{rr} = t_{d} + t_{f}

浪涌电流\large I_{FSM}:所能承受最大的连续一个或几个工频周期的过电流。最大允许非重复浪涌电流,体现了二极管抗短路冲击电流的能力。

2.2.4 电力二极管的主要类型

按照正向压降、反向耐压、反向漏电流等性能,特别是反向恢复特性的不同,介绍几种常用的电力二极管。

普通二极管(General Purpose Diode):

又称整流二极管(Rectifier Diode),多用于开关频率不高(1kHz以下)的整流电路中;其反向恢复时间较长,一般在5\mu s以上;其正向电流定额反向电压定额可以达到很高。等级齐全,有等级很高的品种。

快恢复二极管(Fast Recovery Diode——FRD):

恢复过程很短,特别是反向恢复过程很短,一般在5\mu s以下;快恢复外延二极管(Fast Recovery Epitaxial Diodes——FRED),采用外延型P-i-N结构,其反向恢复时间更短(可低于50ns),正向压降也很低(0.9V左右),其反向耐压多在1200V以下;从性能上可分为快速恢复超快速恢复两个等级,前者反向恢复时间为数百纳秒或更长,后者则在100ns以下,甚至达到20~30ns。

肖特基二极管(Schottky Barrier Diode——SBD):

以金属和半导体接触形成的势垒为基础(以贵金属金、银等为正极,以N型半导体为负极)的二极管称为肖特基势垒二极管,属于多子器件。

优点反向恢复时间很短(10~40ns),正向恢复过程中也不会有明显的电压过冲;在反向耐压较低的情况下其正向压降也很小,0.3V左右,明显低于快恢复二极管;因此,其开关损耗正向导通损耗都比快速二极管还要小,效率高。

弱点:当所能承受的反向耐压提高时其正向压降也会高得不能满足要求,因此多用于200V以下的低压场合;反向漏电流较大且对温度敏感,因此反向稳态损耗不能忽略,而且必须更严格地限制其工作温度。

  • 14
    点赞
  • 40
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论
### 回答1: 好的,下面是SparkSQL代码笔记03——连接Hive的中文回复: 在SparkSQL中,我们可以通过以下步骤连接Hive: 1. 首先,需要在SparkSession中启用Hive支持,可以使用以下代码: ``` from pyspark.sql import SparkSession spark = SparkSession.builder \ .appName("SparkSQL Hive Example") \ .config("spark.sql.warehouse.dir", "/user/hive/warehouse") \ .enableHiveSupport() \ .getOrCreate() ``` 其中,`enableHiveSupport()`方法启用了Hive支持,`config("spark.sql.warehouse.dir", "/user/hive/warehouse")`指定了Hive元数据存储的目录。 2. 接下来,我们可以使用`spark.sql()`方法执行Hive SQL语句,例如: ``` spark.sql("show databases").show() ``` 这将显示所有的Hive数据库。 3. 如果需要在SparkSQL中访问Hive表,可以使用以下代码: ``` df = spark.sql("select * from my_hive_table") ``` 其中,`my_hive_table`是Hive中的表名。 4. 如果需要在SparkSQL中创建Hive表,可以使用以下代码: ``` spark.sql("create table my_hive_table (id int, name string)") ``` 这将在Hive中创建一个名为`my_hive_table`的表,包含两个列:`id`和`name`。 以上就是连接Hive的基本步骤。需要注意的是,连接Hive需要在Spark集群中安装Hive,并且需要将Hive的JAR包添加到Spark的CLASSPATH中。 ### 回答2: SparkSQL是Apache Spark的一个组件,它提供了用于分布式数据处理的高级SQL查询引擎。SparkSQL支持连接多种数据源,其中之一就是Hive。 如何连接Hive? 在开始连接Hive之前,我们需要确保Hadoop和Hive的配置已经被正确的设置好了,以便Spark能够访问Hive元数据和数据。 首先,我们需要在Spark环境中添加Hive支持。运行下面的代码: `from pyspark.sql import SparkSession spark = SparkSession.builder \ .appName("hive_support") \ .enableHiveSupport() \ .getOrCreate()` 其中,`.enableHiveSupport()`将启用hive支持。 接下来,我们可以使用SparkSession连接Hive。运行下面的代码: `hive_df = spark.sql("SELECT * FROM default.student")` 其中,“default”是Hive的默认数据库,“student”是Hive数据库中的表名。 如果你要访问非默认的Hive数据库,可以使用下面的代码: `hive_df = spark.sql("SELECT * FROM dbname.student")` 其中,“dbname”是非默认的Hive数据库名。 我们还可以使用HiveContext来连接Hive。运行下面的代码: `from pyspark.sql import HiveContext hive_context = HiveContext(sc)` 其中,“sc”是SparkContext对象。 我们可以像这样从Hive中检索数据: `hive_df = hive_ctx.sql("SELECT * FROM default.student")` 现在你已经成功地连接Hive并从中检索了数据,你可以使用SparkSQL的强大功能对数据进行分析。而在连接Hive之外,在SparkSQL中还可以连接其他数据源,包括MySQL、PostgreSQL、Oracle等。 ### 回答3: Spark SQL是一个强大的分布式计算引擎,它可以支持处理多种数据源,并可通过Spark SQL shell、Spark应用程序或JDBC/ODBC接口等方式进行操作。其中,连接Hive是Spark SQL最常用的数据源之一。下面,将介绍如何通过Spark SQL连接Hive。 1、在Spark配置中设置Hive Support 要连接Hive,首先需要在Spark配置中开启Hive Support。在启动Spark Shell时,可以添加如下参数: ``` ./bin/spark-shell --master local \ --conf spark.sql.warehouse.dir="/user/hive/warehouse" \ --conf spark.sql.catalogImplementation=hive \ --conf spark.sql.hive.metastore.version=0.13 \ --conf spark.sql.hive.metastore.jars=maven ``` 这里以本地模式为例,设置Spark SQL的元数据存储在本地文件系统中,设置Hive为catalog实现,以及为Hive Metastore设置版本和JAR文件路径。根据实际情况,还可以指定其他参数,如Hive Metastore地址、数据库名称、用户名和密码等。 2、创建SparkSession对象 在连接Hive之前,需要先创建SparkSession对象。可以通过调用SparkSession.builder()静态方法来构建SparkSession对象,如下所示: ``` val spark = SparkSession.builder() .appName("SparkSQLTest") .config("spark.sql.warehouse.dir", "/user/hive/warehouse") .enableHiveSupport() .getOrCreate() ``` 这里通过builder()方法指定应用程序名称、元数据存储路径以及启用Hive Support,最后调用getOrCreate()方法创建SparkSession对象。 3、通过Spark SQL操作Hive表 通过Spark SQL连接Hive后,就可以通过Spark SQL语句来操作Hive表了。例如,我们可以使用select语句查询Hive表中的数据: ``` val df = spark.sql("SELECT * FROM tablename") df.show() ``` 其中,select语句指定要查询的列和表名,然后通过show()方法来显示查询结果。 除了查询数据之外,Spark SQL还可以通过insertInto语句将数据插入到Hive表中: ``` val data = Seq(("Alice", 25), ("Bob", 30)) val rdd = spark.sparkContext.parallelize(data) val df = rdd.toDF("name", "age") df.write.mode(SaveMode.Append).insertInto("tablename") ``` 这里先创建一个包含数据的RDD对象,然后将其转换为DataFrame对象,并指定列名。接着,通过insertInto()方法将DataFrame对象中的数据插入到Hive表中。 总之,通过Spark SQL连接Hive可以方便地查询、插入、更新和删除Hive表中的数据,从而实现更加灵活和高效的数据处理。
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

欲读万卷书,不入愚昧途

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值