SK18752功放板

你学过电路吗?

你学过模电吗?

你学过数电吗?

你想自己做一个功放机吗?

跟着我们一起来学习一下呗!

在这里插入图片描述
首先来了解一下SK18752芯片:
在这里插入图片描述
SK18752功放芯片

最大不失真功率为25W,

电压在AC18~25V范围内均可正常工作,

音质比较均衡且中音比较迷人,

整流后电压在DC 25~33V正常工作。

模块2调音量:

在这里插入图片描述
音量定位器箭头向上滑动,音量变大,

音量定位器箭头向下滑动,音量变小,

滑到最底,没有声音。

在这里插入图片描述
2.2uF电容与22k电阻组成高通滤波器,

其允许信号中的高频或交流分量通过,

而将低频或直流分量抑制住。

即滤除低频、保留高频。

当频率低于f。的信号输入这一滤波器时,

由于C1的容抗很大而受到阻止,输出减小,

且频率愈低输出愈小。

当频率高于f。的信号输入这一滤波器时,

由于C1容抗已很小,故对信号无衰减作用,

这样该滤波器具有让高频信号通过,

阻止低频信号的作用。这一电路的转折频率f。

模块3电源滤波:

在这里插入图片描述
220uF电容并0.1uF电容

低高频滤波

电容并联放在IC电源脚到地,

一般是为了滤除那些对系统不利的交流信号。

220uF的电容和0.1uF一起

是为了使电源(或者是信号)对地的交流阻抗在很宽的频率范围内都很小,

这样交流成分能可以被滤除得更干净。

模块4负反馈电路:

在这里插入图片描述
22k为负反馈电阻,

输出放大倍数为:A=1+R22/(R1+1/wc),

1k与22uF的电容串联,对低频信号有衰减作用,

从而运放对低频信号有一定的提升作用。

模块5消除自激电路:

在这里插入图片描述
自激振荡:输入信号为零,输出端有一定频率一定幅值的交流信号

消除自激振荡:RC滞后补偿

  • 5
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
SK Attention是一种注意力机制,它在图像处理中被广泛应用。SK Attention借鉴了SENet的思想,通过动态计算每个卷积核得到通道的权重,然后动态地将各个卷积核的结果进行融合。这种注意力机制可以让网络更加关注待检测目标,从而提高检测效果。 以下是SK Attention的示例代码: ```python import torch import torch.nn as nn import torch.nn.functional as F class SKConv(nn.Module): def __init__(self, in_channels, out_channels, stride=1, M=2, r=16, L=32): super(SKConv, self).__init__() d = max(in_channels // r, L) self.M = M self.out_channels = out_channels self.conv = nn.ModuleList() for i in range(M): self.conv.append(nn.Sequential( nn.Conv2d(in_channels, out_channels, kernel_size=3, stride=stride, padding=1 + i, dilation=1 + i, bias=False), nn.BatchNorm2d(out_channels), nn.ReLU(inplace=True) )) self.global_pool = nn.AdaptiveAvgPool2d(1) self.fc = nn.Sequential( nn.Linear(out_channels, d, bias=False), nn.ReLU(inplace=True), nn.Linear(d, out_channels * M, bias=False) ) self.softmax = nn.Softmax(dim=1) def forward(self, x): batch_size = x.size(0) output = [] for i, conv in enumerate(self.conv): output.append(conv(x)) U = sum(output) s = self.global_pool(U).view(batch_size, -1) z = self.fc(s).view(batch_size, self.M, self.out_channels) a_b = self.softmax(z) a_b = list(a_b.chunk(self.M, dim=1)) V = sum([a * b for a, b in zip(output, a_b)]) return V # 使用SK Attention sk_conv = SKConv(in_channels=64, out_channels=128) input = torch.randn(1, 64, 32, 32) output = sk_conv(input) print(output.shape) # 输出:torch.Size([1, 128, 32, 32]) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值