关于稠密的一些思考

离散度量空间中存在稠密集吗

我们常说实数集是稠密的,有理数集是稠密的,从直观上理解稠密集就是这个集合里的点是密集分布的,任何一个点的任意小的领域里都至少包含一个其他的点。

那在推广到一般度量空间中时,有以下定义,若 A A A是度量空间 χ \chi χ的子集,且 A ‾ = χ \overline{A}=\chi A=χ,则称A是稠密集。我们自然的想到,离散度量空间中也具有稠密集吗?这似乎是反直觉的,实际上是我们的直觉使我们陷入了思维误区,我们习惯于用欧式距离去思考,但离散度量空间中的度量与欧式距离大相径庭,因此我们需要严谨的去思考。

首先给出离散度量空间的定义:
若E是一个离散度量空间,则E中没有聚点,每一个点集都是孤立点。
举一个离散度量空间的例子:
D x y = { 1 x ≠ y 0 x = y \begin{equation} D_{xy}=\begin{cases} 1 &x\neq y\\ 0 & x=y \\ \end{cases} \tag{1} \end{equation} Dxy={10x=yx=y(1)
显然, E E E本身就是一个稠密集。
但我们可以证明的是,离散度量空间的真子集都不是稠密集

稠密集与稠密子集的区别

在学习稠密集时我遇到了这样一个问题,一个集合是稠密集的充要条件是 A A A是度量空间 χ \chi χ的子集,且 A ‾ = χ \overline{A}=\chi A=χ,那么在实数域 R R R中,开区间 ( 1 , 2 ) (1,2) (1,2)的闭包 ( 1 , 2 ) ‾ \overline{(1,2)} (1,2)等于 [ 1 , 2 ] [1,2] [1,2],并非整个度量空间 R R R,那么 ( 1 , 2 ) (1,2) (1,2)不是稠密集吗,这显然是有问题的。实际上出现这种错误的原因是对定义的混淆。

下面我们引出稠密集与稠密子集的定义
稠密集
定义1.若 A A A是度量空间 χ \chi χ的子集,且 A ‾ = χ \overline{A}=\chi A=χ,则称A是稠密集。
定义2.若 A A A是度量空间 χ \chi χ的子集,且对 ∀ x ∈ χ \forall x\in\chi xχ, x x x的任意领域与 A A A的交集都不为空,则称 A A A χ \chi χ中稠密,
即对 ∀ ε \forall \varepsilon ε, ∀ \forall x ∈ χ x \in\chi xχ, 有 ∪ ( x , ε ) ∩ A ≠ ∅ \cup(x,\varepsilon)\cap{A}\neq \varnothing (x,ε)A=

稠密子集
A , B A,B A,B是度量空间 χ \chi χ的子集,且对 ∀ x ∈ B \forall x\in{B} xB, x x x的任意领域与 A A A的交集都不为空,则称 A A A B B B的稠密子集。

因此我们可以看见在说明一个集合是否为稠密集时,要先强调它所在的度量空间,我们前面的疑问也得到了解答,及一个集合是否稠密,实际上是看它是否为度量空间 χ \chi χ的稠密子集。因此前面所说的 ( 1 , 2 ) (1,2) (1,2)是度量空间 [ 1 , 2 ] [1,2] [1,2]上的稠密集,我们简称其为稠密集。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
稠密稀疏Transformer是一种改进的Transformer模型,旨在解决移除下采样带来的感受野问题。传统的Transformer模型在计算全局自注意力时的计算成本较高,而局部自注意力又会限制每个词向量的交互域。为了兼顾计算效率和全局信息的捕捉,研究人员提出了稠密稀疏Transformer的方法。 稠密稀疏Transformer采用了基于自注意力机制的单步长稀疏Transformer(SST)的思想。该方法通过减少注意力头的数量,来降低计算复杂度。这样可以在一定程度上缓解全局自注意力计算成本过高的问题。另外,稠密稀疏Transformer还引入了局部自注意力机制,以增加词向量之间的交互范围,从而提高模型在处理长序列任务时的性能。 由于Transformer模型在深度学习领域具有广泛的应用和影响力,因此对其进行改进和优化的研究工作也很活跃。稠密稀疏Transformer是其中的一种变体,通过减少注意力头的数量和引入局部自注意力机制,来平衡计算效率和模型性能。这种模型在常见的视觉任务上已经取得了一定的成果。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [CVPR 2022 | 基于稀疏 Transformer 的单步三维目标识别器](https://blog.csdn.net/Yong_Qi2015/article/details/124054589)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [谷歌研究院出品:高效 Transformer 模型最新综述](https://blog.csdn.net/weixin_42137700/article/details/112345715)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [CSWin Transformer](https://download.csdn.net/download/qq_36758270/88233972)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值