长而不宰是谓玄德



《道德经到底在说什么》(十二)长而不宰是谓玄德

载营魄抱一,能无离乎?

载,乘也;上覆之则下载之,引申之谓所载之物曰载。营,币居也。币,古体为幣,从敝从巾;幣,帛也。说明,古代曾以缠的密密匝匝的丝帛作为通货。此处的营,指的是密密缠绕之意。这里引申为人的肉体形质。

魄, 阴神也。营魄,是说,作为形质的肉体,密密匝匝的缠绕起来,才能把魄守存在体内。载营魄,则是指,人承载着他的形质,才能去抱一。抱一,即抱神。

能无离乎,强调的是,形神不离。在老子看来,人之为人,就在于形不离神,神不离形。营魄有形质,可以承载。神无形质,性好飞扬,所以需要合而抱之,神才会宁静。载营魄抱一,和后面章节里面说的万物负阴而抱阳,是一个意思。

后世的内丹术,和老子的这个修真思想,是相反的。它们主张割裂阴阳,形神离决,追求出阳神,出离并抛弃肉体。违背了老子的教诲,并反其道而行,所以后世修炼内丹术的人,寿命大都并不是很长。

在前面的章节中,道德经里讲了虚心实腹弱志壮骨,这是修真基本原理。而本章讲的,则是具体的方法。

负阴抱阳,载形抱神,须臾不离,则能精之至也。

专气致柔,能婴儿乎?

专,甲骨文的专字,是一只手,在操作一个纺砖,也就是纺锤。一个人在绕线,引申为专心致志。

本句承接上句,在做到精之至的基础上,进一步,要像绕线那样的去行气守气,才能做到气之纯。纯气之人,就如同婴儿那样。

专气致柔,比若赤子,气之纯也。

涤除玄览,能无疵乎?

涤除,万物俱寂。玄览,天地洞明。能无疵乎,视而不见。神全而静。

本句接上面两句,进一步讲圣人的修真之道。精之至,气之纯,方能神之静。

涤除玄览,能无疵乎?神之静也。

后世治身事道之人,则多失老子之道,大都拘泥于搬弄心思,奇技淫巧,矫揉造作,非不能治身延年,更不要说白日飞升,还反落得疾患害命。

更有浅人妄人俗人,言修道,必言修心。似乎心比道大,不然,如何能修了心,便能成得了道呢。道者,一也,以心捐道者,二也。二者,非道也。

爱民治国,能无为乎?

接上句,进一步阐述圣人的修真之道。

精至气纯神静则成圣。入圣则无己,而以天下为身。

圣人治身以纯,事道以朴,故爱民治国,以正。

天门开阖,能为雌乎?

天下既已治。圣人又失其身,继而以道为身,同于大道。同于大道,则见天门开阖。天门开阖,见前面的章节,“玄牝之门,是谓天地根。”

圣人同于大道,见道生万物,如同己出。此谓,雌之意也。

明白四达,能无知乎?

天地生万物,圣人视为己出。故圣人见万物,如见自己,明白而无不达。无不达,则无蔽,亦无知;无知,亦无为。

生之,畜之,生而不有,为而不恃,长而不宰,是谓玄德。

宰,罪人在屋下执事者,从宀从辛。辛,辠也,古指奴隶和罪人。玄德,合道之德,谓德之大也。

萌生万物,养育万物,皆为天地自然之。天之功也,非人之为也。

不贪天之功,不居自然之为。见万物欣欣向荣,更不会把万物当成自己的造物而肆意代替万物自己,人为的去主宰它们的生命。

得此道者,是谓玄德。

====================================================
附:《道德经》第十章
载营魄抱一,能无离乎?
专气致柔,能婴儿乎?
涤除玄览,能无疵(cī)乎?
爱民治国,能无为乎?
天门开阖(hé),能为雌乎?
明白四达,能无知乎?
生之,畜之,生而不有,为而不恃(shì),长而不宰,是谓玄德。
=====================================
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值