Carsim-Simulink联合仿真实现倒车

Carsim、Simulink联合仿真实现倒车

3.6.1 导入参数

​ 需要的import参数为:IMP_MODE_TRANS ,是用来设置车辆的挡位。参数介绍如下:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-TAYbCYQR-1644312919455)(img/image-20220208171600741.png)]

IMP_MODE_TRANS:变速箱控制器模式:-1->倒档,0->空档,1->开环档位选择,2 - 18->闭环限位(可选最大档位)。通过查找帮助文档也可以得知,要实现倒挡的话需要让IMP_MODE_TRANS = -1

​ 关于导入参数的三种模式(MULTIPLYADDREPLACE),官方有以下介绍(没兴趣的直接跳过看 3.6.3 Continue…):

3.6.2 官方的介绍

​ 默认情况下,所有潜在的导入变量都将被忽略,除非它们被激活。在VS求解程序读取的数据文件中,指定导入变量的语法 是:

[Import]关键词[mode[initial_value]]

​ 关键字是导入变量的名称,模式是使用导入(添加、重复或替换)的三种可能模式之一,initial_value是一种可能不再有用的表达式,如下所示。

​ 注意,模式和initial_value是可选的。关键字模式决定了如何将导入变量与嵌入在VS模型中的本机值相结合。例如,如果导入的变量是制动控制,而模式是替换的,那么在VS模型内的制动控制将被替换为导入值。如果是Add模式,则将内部值添加到导入变量。如果模式是相乘,那么内部值就乘以进口值。如果没有指定,则默认是添加模式。

​ 并不是所有的导入变量都支持这三种模式。选项卡文本和电子表格文件指示是否支持这三种模式,或者是否只有内部变量和导入只能添加。这在下拉下拉控件15(图14)的导入屏幕中表示;在电子表格中,由E列是否为变量或0(图15)表示。

​ 如果是0,MULTIPLY模式没有效果(import 0 = 0);在这种情况下,ADDREPLACE模式导入变量的效果相同(即:import + 0 = import)。因此,变量只有0,因为内部变量只在下拉控制中显示添加选项。

3.6.3 Continue…

​ 我直接拿工具翻译过来的,有误差,个人没有搞懂啥意思。根据我做仿真的结果来看,大致的内容是:只能为Add模式的变量,其有自己的默认值(或初始值),如果再给这个参数导入一个值,那么有:

最终值 = 当前值(默认值) + 导入值。

​ 而在Carsim2019版本下 , IMP_MODE_TRANS为0时,导出变量(即最终的结果)MODE_TRANS的值是6,所以要想最终结果为 -1(倒车) 在simulink上导入的值应该为 -7(因为 -1 = 6 - 7)。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-UZpKux0e-1644312919457)(img/image-20220208172543676.png)]

导出参数

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-GuGvEom3-1644312919458)(img/image-20220208172115660.png)]
ModeTran:主要用于调试,查看最终的挡位结果。根据以上的介绍,如果ModeTran > -1 ,那就让simulink端导入的值一直调低(不一定都是-7),直到ModeTran = -1 为止。
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-68BrQGG3-1644312919458)(img/image-20220208172732764.png)]

仿真结果

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-TsBlkgRD-1644312919459)(img/%E5%8A%A8%E7%94%BB-19.gif)]

  • 9
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
基于tensorflow2.x卷积神经网络字符型验证码识别 卷积神经网络(Convolutional Neural Networks, CNNs 或 ConvNets)是一类深度神经网络,特别擅长处理图像相关的机器学习和深度学习任务。它们的名称来源于网络中使用了一种叫做卷积的数学运算。以下是卷积神经网络的一些关键组件和特性: 卷积层(Convolutional Layer): 卷积层是CNN的核心组件。它们通过一组可学习的滤波器(或称为卷积核、卷积器)在输入图像(或上一层的输出特征图)上滑动来工作。 滤波器和图像之间的卷积操作生成输出特征图,该特征图反映了滤波器所捕捉的局部图像特性(如边缘、角点等)。 通过使用多个滤波器,卷积层可以提取输入图像中的多种特征。 激活函数(Activation Function): 在卷积操作之后,通常会应用一个激活函数(如ReLU、Sigmoid或tanh)来增加网络的非线性。 池化层(Pooling Layer): 池化层通常位于卷积层之后,用于降低特征图的维度(空间尺寸),减少计算量和参数数量,同时保持特征的空间层次结构。 常见的池化操作包括最大池化(Max Pooling)和平均池化(Average Pooling)。 全连接层(Fully Connected Layer): 在CNN的末端,通常会有几层全连接层(也称为密集层或线性层)。这些层中的每个神经元都与前一层的所有神经元连接。 全连接层通常用于对提取的特征进行分类或回归。 训练过程: CNN的训练过程与其他深度学习模型类似,通过反向传播算法和梯度下降(或其变种)来优化网络参数(如滤波器权重和偏置)。 训练数据通常被分为多个批次(mini-batches),并在每个批次上迭代更新网络参数。 应用: CNN在计算机视觉领域有着广泛的应用,包括图像分类、目标检测、图像分割、人脸识别等。 它们也已被扩展到处理其他类型的数据,如文本(通过卷积一维序列)和音频(通过卷积时间序列)。 随着深度学习技术的发展,卷积神经网络的结构和设计也在不断演变,出现了许多新的变体和改进,如残差网络(ResNet)、深度卷积生成对抗网络(DCGAN)等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

码农菌

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值