39字推翻百年集论2

 39字推翻百年集论2
黄小宁
(广州市华南师大南区9-303  邮编510631)
摘要 仅用39个字符就推翻了百年无穷集论。
关键词 推翻一系列数学定理;百年集合论;重大错误:将部分误为全部
 
1 G的真扩集K={a}∪G必显示K比G多一个元素a
两无穷数集A与B=A∪{a}≠A是否分别包含同样多(个)元素?规定一个数只能“拉”一个数,A的各数x均将B内与己相同的数y=x“拉”出来,于是B的一部分:A的元素全都给“拉”出来后,A内就再也无数将a“拉”出来了。为什么?原因一目了然:B比A多包含了一个元素a。关键是A的各数x均有与己相同的对应数x=y∈B。总之,若A的所有元x与B的一部分——真子集的各数y一一对应,就表明B至少比A多含一个元素。康脱就断定无理数比自然数多;…。
两集不对等的原因是一集至少比另一集多或少一个元素。两集不对等就更谈不上相等。
任何可有真扩集的集G~G。给G增添一个元素a得G的真扩集K={a}∪G就极显然不~G了:K的一部分G的各数与原G的所有元一一对应成双配对“结婚”,而另一部分:一个数a就“单身”,表明K比G多出了一个元素。所以应有集合常识:
任何可有真扩集的集G与其真扩集KÉG不对等、更不相等,原因是K至少比G多出一个元素,即K的一部分G包含不了K的全部元素。
2 39字推翻百年集论——凡无穷集都不能与其任何真子集对等
H定理:任何至少有两元素的集J都不能与其任何一部分对等;故凡~J的集或=J,或≠J,都不是J的真子集。
证明:任何至少有两元素的集J都可是其两不相交非空部分的并。设E是J的任一非空部分,J-E=V也非空,则J=E∪V,即J是E的真扩集,E与V不相交。E极显然不~J:
P={0,1,2}与Q=P∪{3}的一部分P对等,就不可与Q对等了。同样,原E各元与J的一部分E各元一一配对了,哪还来多余的数与J另一部分V各元相配对?——这里39个字符数就推翻了百年集论!证毕。
关键是J的任何一部分E的各数均有与己相同的对应数∈J,若E内有数再与V内数相对应,那就是重复对应了。
D =E=(0,1)的各元x均有对应数y=2x与其成双配对;所有对应数y组成的Z~D.康脱由此错误地断定J=(0,2)可~它的一部分D。问题是如[1]所述,
Z≠D∪[1,2)=J!
即“定义域为D的y=2x的值域Z=J”是自有直线函数概念以来的几百年重大错误!如以上证明所述,Z的各元2x全都有“对象”x∈J的一部分D了,从而全都不能与J的另一部分[1,2)的各元x“搞对象”。否则就是“搞重婚”。可见Z与J不对等!从而更不相等。所以Z~D=E与D一样是J的真子集,康脱的百年集论是建立在几百年重大错误:将部分误为全部之上的更重大错误。
以上推翻了一系列的“定理2  在可数无限集中增加或减少有限个元素,还是可数无限集。…。定理3  两个可数无限集的并集是可数无限集。…。推论  如果A是无限集,B是可数集,那么A∪B~A。…。定理4 …[2]”例如书上的自然数集N不~它的真扩集{0.1}∪N。
可见,数学引以为豪的被“最伟大数学家”希尔伯特断定任何人都不能推翻的百年无穷集论,是重大的百年之误!建立在此重大错误之上的理论必是错上加错的更重大错误。不及时纠正会使人在错误的泥坑里越陷越深以致无力自拔。
对占统治地位的集合论,1908年著名数学家庞加莱富有远见卓识、高瞻远瞩地作出极其惊人的超凡越圣的伟大科学预见:“下一代人将把(康脱尔的)集合论当作一种疾病,而且人们已经从中恢复过来了。”(张锦文等,连续统假设,辽宁教育出版社,1988:20)。
3 百年集论是建立在病句之上的病态理论
若所有已知自然数组成的N的各元n都有对应数n+1,则所有的n+1都∈N吗?数学断定N的各元n都有对应数y=n+1。N的各元n都有对应数n-1,但并非所有的n-1都∈N。同样,以下揭示…。
S式:代表数的y=n+1> n = 0,1,2,…,表达式中数列N的各数n都有对应数n+1,同时也一目了然地直接表达有数y>数列的一切数n,即y必可代表N外的数n+1>N的一切数。式中n可一个不漏地遍取N的一切数使代表数的y必可一个不漏地遍比N的所有n都大而成为(代表)N外的数,即y必可代表N外的数。否定此常识者暴露出其是数盲(学数学最关键的是须明白代数式所代表的全部内容,否则就是鹦鹉学舌,从而成为数学王国里的睁眼瞎。)。若限制式中y只能在N内取值,则式中数列≠N!
然而自然数公理断定S式中的y只能在N内取值即断定N的任何元n<y=n+1∈N——一目了然的重大病句:说N中有数y>N的任何(所有)元n。说式中n可一个不漏地遍取N的一切数,就是说代表数的y>n必可一个不漏地遍比N的所有n都大。关键是对数学表达式所表达的内容不能只有一知半解,对式中各字母的含义不能只有一知半解。
函数论断定:S式的y= n + 1的定义域D=N,N的任何元n均有对应数y= n + 1∈N与n成双配对“结婚”,所有对应数y组成的Z={1,2,…,n+1,…}是N的真子集而且~D=N。
其实这是错误的,根据H定理,若Z~D=N,则Z不是N的真子集,即Z中至少有一 n+1不∈N;若Z是N的真子集,则不可有Z~N。不明此理使函数论一直隐含重大病句——百年集合论就是建立在此类病句之上的病上加病的病态理论:断定N的真子集可~N;…。
周光召精辟指出:“中国目前最需要的是颠覆性创新。”(南方周末报,2007.12.6,A8)
4 说明与鸣谢
说明:本文实际上是获中国教育学会一等奖的文献[1]的一小部分。
鸣谢:衷心感谢众多敢于实事求是、坚持真理、有正义感的合格教育工作者多年来对作者的极为难能可贵的教育与鼓励:这不是少数人搞的学问而是亿万人学习研究的集合论,企图封锁其错误真相者如当年对无理数发现者的“杀人灭口”,是利令智昏!
参    考    文    献 
1 黄小宁  50字推翻五千年科学“常识”:无最大自然数,科技信息,2007年第36期:31.
2 田开璞  现代科学数系论,济南:山东科技出版社,1998.4:12-13。
3  黄小宁 “最伟大创造之一”的康脱集论最让数学脱离健康,见:左庆润、蒋峰主编,中华素质教育理论与实践新探(4), 北京:中国戏剧出版社,2006.2:423.
    电联:020-88506843(下午)  初稿完成于2008.2.13。E-mail:hxl268@163.com(hxl中的l是英文字母)
 
 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
1 目标检测的定义 目标检测(Object Detection)的任务是找出图像中所有感兴趣的目标(物体),确定它们的类别和位置,是计算机视觉领域的核心问题之一。由于各类物体有不同的外观、形状和姿态,加上成像时光照、遮挡等因素的干扰,目标检测一直是计算机视觉领域最具有挑战性的问题。 目标检测任务可分为两个关键的子任务,目标定位和目标分类。首先检测图像中目标的位置(目标定位),然后给出每个目标的具体类别(目标分类)。输出结果是一个边界框(称为Bounding-box,一般形式为(x1,y1,x2,y2),表示框的左上角坐标和右下角坐标),一个置信度分数(Confidence Score),表示边界框中是否包含检测对象的概率和各个类别的概率(首先得到类别概率,经过Softmax可得到类别标签)。 1.1 Two stage方法 目前主流的基于深度学习的目标检测算法主要分为两类:Two stage和One stage。Two stage方法将目标检测过程分为两个阶段。第一个阶段是 Region Proposal 生成阶段,主要用于生成潜在的目标候选框(Bounding-box proposals)。这个阶段通常使用卷积神经网络(CNN)从输入图像中提取特征,然后通过一些技巧(如选择性搜索)来生成候选框。第二个阶段是分类和位置精修阶段,将第一个阶段生成的候选框输入到另一个 CNN 中进行分类,并根据分类结果对候选框的位置进行微调。Two stage 方法的优点是准确度较高,缺点是速度相对较慢。 常见Tow stage目标检测算法有:R-CNN系列、SPPNet等。 1.2 One stage方法 One stage方法直接利用模型提取特征值,并利用这些特征值进行目标的分类和定位,不需要生成Region Proposal。这种方法的优点是速度快,因为省略了Region Proposal生成的过程。One stage方法的缺点是准确度相对较低,因为它没有对潜在的目标进行预先筛选。 常见的One stage目标检测算法有:YOLO系列、SSD系列和RetinaNet等。 2 常见名词解释 2.1 NMS(Non-Maximum Suppression) 目标检测模型一般会给出目标的多个预测边界框,对成百上千的预测边界框都进行调整肯定是不可行的,需要对这些结果先进行一个大体的挑选。NMS称为非极大值抑制,作用是从众多预测边界框中挑选出最具代表性的结果,这样可以加快算法效率,其主要流程如下: 设定一个置信度分数阈值,将置信度分数小于阈值的直接过滤掉 将剩下框的置信度分数从大到小排序,选中值最大的框 遍历其余的框,如果和当前框的重叠面积(IOU)大于设定的阈值(一般为0.7),就将框删除(超过设定阈值,认为两个框的里面的物体属于同一个类别) 从未处理的框中继续选一个置信度分数最大的,重复上述过程,直至所有框处理完毕 2.2 IoU(Intersection over Union) 定义了两个边界框的重叠度,当预测边界框和真实边界框差异很小时,或重叠度很大时,表示模型产生的预测边界框很准确。边界框A、B的IOU计算公式为: 2.3 mAP(mean Average Precision) mAP即均值平均精度,是评估目标检测模型效果的最重要指标,这个值介于0到1之间,且越大越好。mAP是AP(Average Precision)的平均值,那么首先需要了解AP的概念。想要了解AP的概念,还要首先了解目标检测中Precision和Recall的概念。 首先我们设置置信度阈值(Confidence Threshold)和IoU阈值(一般设置为0.5,也会衡量0.75以及0.9的mAP值): 当一个预测边界框被认为是True Positive(TP)时,需要同时满足下面三个条件: Confidence Score > Confidence Threshold 预测类别匹配真实值(Ground truth)的类别 预测边界框的IoU大于设定的IoU阈值 不满足条件2或条件3,则认为是False Positive(FP)。当对应同一个真值有多个预测结果时,只有最高置信度分数的预测结果被认为是True Positive,其余被认为是False Positive。 Precision和Recall的概念如下图所示: Precision表示TP与预测边界框数量的比值 Recall表示TP与真实边界框数量的比值 改变不同的置信度阈值,可以获得多组Precision和Recall,Recall放X轴,Precision放Y轴,可以画出一个Precision-Recall曲线,简称P-R
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值