简单梳理一个历史脉络

B 站上王山水老师的一个视频引发的思考:没有司马篡国,能避免300年的大乱世吗?

我的答案如下:

视野放宽到欧亚大陆,广义上公元184年黄巾军起义开启内乱,狭义上公元220年正式进入三国,280年晋统一结束三国,但不久之后开始又是五胡十六国,一直到隋唐才再度统一,这都300年后了,再看西边,广义上五贤帝后康冒德被杀的公元192年开启内乱,狭义上公元235年赛维鲁王朝后进入三世纪危机,公元284年戴克里先四帝共治短暂和平,但不久后日耳曼人以及境内边民再次卷成一锅粥,一直到帝国崩溃,查理曼在西北边再度统一以及查士丁尼在东南边再度稳定,这也得300年后了。。。两边时间线高度一致维持几百年,一定有一个共同的原因,而不仅仅是人为的偶然事件.

此外,我还另外写了点:

戴克里先皇帝在公元284年类似司马家在 280 统一三国一样结束了罗马帝国三世纪危机(时间线精确对应三国),就像西晋好景不长,不久就八王之乱,永嘉之乱一样,戴克里先的四帝共治也没撑多久就内部打起来了,最后居士坦丁击败马克森提乌斯,时间在公元313年,精确对应永嘉之乱到西晋灭亡(316)的前后五年。此时欧亚大陆东部,北方早已被东北西北西南的民族渗透(他们此前只是名义归附,实际都是独立的势力,比如六镇集团,自东汉末年到曹魏和蜀汉政权就经常雇佣这些外来民族当兵甚至做军事顾问,导致更多民族内迁),西边的罗马帝国西部北部也几乎一样被日耳曼人渗透,大量蛮族人(罗马人对外人的称谓)进入帝国内部,和晋这边一样,都是一个集团一个集团的进入,不得已,司马睿南迁到了南京,时间在317年,而居士坦丁于323年成为唯一统治者后也于330年在居士坦丁堡建立新都,此后各自看造化。东晋自南朝四度更迭,保留了传统,东罗马也始终保持了独立。中国北边和罗马帝国西部就没这么幸运,五胡十六国统一于鲜卑北魏,而日耳曼曼诸部最终凝聚在墨洛温,再往后,隋唐统一全国,时间在570年代,但查士丁尼试图再一统,于565年去世,而西边的墨洛温直到加洛林却未能再造罗马,在百年后空留一个既不神圣,也不罗马,更不帝国的神圣罗马帝国以及边上的法兰克卡佩,波旁,大概就是中国的唐宋元明清了,时间流过千年…

我不想把自己归为唯物主义范畴,也不是什么 “内亚史观” 的粉丝,我是一个地缘主义者,所以我一般用地缘说话,为此,我梳理了一下 3000 年来中国(为避免民族主义误会,我一般称东亚大陆)和欧洲的脉络,这张图还会不断细化更新,我今天可是没出去跑步散步做的这个图,画了一个小时时间:
在这里插入图片描述

我是在没有查阅任何资料的情况下盲画的这张图(年代可能有误,但大差不差)。同时希望能传导一个理念,学历史不是背年代和人名,要用学物理的方法学历史,本质上都是数学。

请看图中被框起来的部分,时间线惊人一致,你觉得西晋换一名贤帝可能躲过五胡乱华吗?

我非常不赞同中国传统的历史观,总认为人治大于一切,长平之战不是赵括白起就一定能逆转,殊不知秦赵战争已经有制度代差和技术代差了,换谁上结局都一样,可能时间长短不同,体面不体面罢了。

说回五胡乱华和罗马三世纪危机,根源都在公元 180 年前后,东汉突然就民不聊生了,罗马五贤帝好好的突然也民不聊生了,难到都因腐败,不贤能?眼界要放宽,放眼看整个欧亚大陆,原因就两个,一个是这两个帝国从稳定开始大约都是公元元年,光武中兴和罗马和平,大约都经历了将近 200 年,在那个时代一个帝国的大限就是 200 年,就像无论法国人还是印度人,大限都是80岁左右一样,另一个原因就是气候变迁,小冰期让游牧渔猎民族无法生活,不得已入侵农耕民族,东汉和罗马当局都曾有雇佣游牧渔猎民族参军甚至允许部落入境的记录,多民族渗透,结局也就惊人一致了。换谁上也阻止不了五胡乱华。

正如我之前论述过的,城市大小取决于人们的一小时生活圈,交通工具一小时能到多远,城市就能多大,因此古长安,洛阳,罗马,君堡规模都差不多,现如今的纽约,东京,伦敦,上海规模也大差不差。

浙江温州皮鞋湿,下雨进水不会胖。

1. PyTorch是什么? PyTorch是一个基于Python的科学计算库,它支持动态图和静态图的混合式编程。它主要用于深度学习领域的研究和应用。 2. 张量(Tensor) PyTorch中的张量是一种多维数组,类似于NumPy中的数组。张量是PyTorch中最重要的数据结构之一,也是深度学习中数据的基本单位。 3. 自动微分(Autograd) PyTorch的自动微分机制可以自动地计算张量的梯度,从而实现反向传播算法。自动微分是PyTorch的核心功能之一,也是PyTorch与其他深度学习框架的区别之一。 4. 模型构建 PyTorch提供了一种简单而灵活的方式来构建深度学习模型。可以使用Python编写模型,然后通过PyTorch提供的API将其转换为张量和运算符,从而构建深度学习模型。 5. 模型训练 PyTorch提供了几种不同的方法来训练深度学习模型,包括传统的随机梯度下降(SGD)和Adam优化器等。在训练过程中,可以使用PyTorch提供的各种损失函数来计算模型的损失值。 6. 模型保存和加载 在训练完成后,可以将模型保存为文件,以便在以后的应用程序中加载和使用。PyTorch提供了几种不同的模型保存和加载方法,包括保存和加载模型的权重和参数。 7. 分布式训练 PyTorch还支持分布式训练,可以在多台计算机上同时训练深度学习模型。分布式训练可以加快模型的训练速度,并且可以处理更大的数据集。 8. PyTorch生态系统 PyTorch生态系统包括许多不同的库和工具,如TorchVision、TorchText、TorchAudio等,这些库和工具能够帮助研究人员和开发人员更轻松地构建和部署深度学习模型。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值