第二章 求之不得,寤寐思服。悠哉悠哉,辗转反侧

第二章 求之不得,寤寐思服。悠哉悠哉,辗转反侧

《关雎》
一位情男子对河边采摘荇菜的美丽姑娘的恋歌

关关雎鸠,在河之洲。窈窕淑女,君子好逑。
参差荇菜,左右流之。窈窕淑女,寤寐求之。
求之不得,寤寐思服。悠哉悠哉,辗转反侧。
参差荇菜,左右采之。窈窕淑女,琴瑟友之。
参差荇菜,左右芼[1]之。窈窕淑女,钟鼓乐之。

%E5%85%B3%E5%85%B3%E9%9B%8E%E9%B8%A0%EF%

【注释】:
雎鸠:水鸟名,即鱼鹰。传说它们情意专一
逑:(雔)之借字,(雔),双鸟之意
荇菜:水草名
寤:睡醒,寐:睡眠
[1]:音帽,有选择之意
1.关关:水鸟叫声。雎(音居)鸠:水鸟,一名王雎,状类凫鹥,生有定偶,常并游。
2.洲:河中沙洲。
3.窈窕:美心为窈,美状为窕。淑:善,好。
4.好逑(qiú):理想的配偶。逑,配偶。
5.参差:长短不齐。荇(xìnɡ杏)菜:多年生水草,夏天开黄色花,嫩叶可食。
6.流:顺水势采摘。
7.寤(wù务):睡醒;寐:睡着。
8.思:语助。服:思念、牵挂。
9.悠:忧思貌。
10.辗:半转。反侧:反身,侧身。
11.友:交好。
12.芼(mào):选择,采摘。
译文:雎鸠关关在歌唱,在那河中小岛上。善良美丽的少女,小伙理想的对象。长长短短鲜荇菜,顺流两边去采收。善良美丽的少女,朝朝暮暮想追求。追求没能如心愿,日夜心头在挂牵。长夜漫漫不到头,翻来复去难成眠。长长短短鲜荇菜,两手左右去采摘。善良美丽的少女,弹琴鼓瑟表爱慕。长长短短鲜荇菜,两边仔细来挑选。善良美丽的少女,钟声换来她笑颜。

《关雎》乃《风》之始也,《诗经》第一篇。

古人在仲春之月会合男女,催生恋情,以繁衍后代,壮大种族。《周礼·地官·媒氏》云:“媒氏(即媒官)掌万民之判(配合)。……中春(二月)之月,令会男女,于是时也,奔者不禁(不禁止奔);若无故而不用令者,罚之,司男女之无夫家者而会之。”《关雎》所咏未必仲春之月,但是那男女相会、互相爱慕并希望成婚的心理情感确是此也。诗者,无非生活也,在男女之情,家国之怀,山水之间也。

古之儒者颇为重视夫妇之德。其一,家庭是社会组织的基本单元,这一基本单元的和谐稳定对于整个社会秩序的和谐稳定,意义至为重大。其二,所谓“夫妇之德”,实际兼指有关男女问题的一切方面。“饮食男女,人之大欲存焉”(《札记·礼运》),孔夫子也知道这是人类生存的基本要求。饮食之欲比较简单(当然首先要有饭吃),而男女之欲引起的情绪活动要复杂、活跃、强烈得多,它对生活规范、社会秩序的潜在危险也大得多。

孔老夫子也曾感叹:“吾未见好德如好色者。”(《论语》) 所以一切克制、一切修养,都首先要从男女之欲开始。但克制到什么程度为合适,却是复杂的问题,非一言两语道清。

男女之爱是自然而正常的感情,社会伦理道德却又要求我们对这种感情加以克制,使其符合于社会的美德,后世之人有“淋漓尽致”者——反抗封建礼教的非人性压迫。更多的是屈从在压抑人性的封建礼教下的痴男怨女。譬如,南宋著名朱淑真。淑真自幼聪慧好学,善绘画,通音律,尤攻诗词,是一个有姿有色、亭亭玉立的大家闺秀。然而,在那个遵循父母之命、媒妁之言的封建制度下,她被迫嫁给一个市井商人。只为嫁了一个庸俗的丈夫,嫁的老公是个粗人,不懂诗词,粗鄙不堪,又不知道怜香惜玉。长久的苦闷生活使她意志消沉,终日郁郁寡欢。朱淑真无法与丈夫情感相通,只好寄情于诗词,写下大量作品。她所留下的诗词怨气就大多了。只能在‘独行独坐,独唱独酬还独卧。伫立伤神,无奈轻寒著摸人。此情谁见,泪洗残妆无一半。愁病相仍,剔尽寒灯梦不成’这些断肠词中寻找精神寄托,最后终于忧郁而死。 婚姻不幸的还有一个袁玫的妹妹袁素文。相对于朱淑真而言,她就更加可悲了。两宋流行程朱理学,说什么饿死是小,失节是大。在家从父,出嫁从夫,夫死从子等等对妇女的迫害思想,明清更甚。袁素文从小和袁枚一起读书,受这种思想熏涛,明知嫁的丈夫是个无赖,可还是执意要嫁,结果婚后丈夫吃喝嫖赌什么都干,还差点把她给卖了。袁枚的祭文中写道:予幼从先生授经,汝差肩而坐,爱听古人节义事;一日长成,遽躬蹈之。呜呼!使汝不识诗书,或未必艰贞若是。 袁素文的悲哀是在于其受封建礼教的毒害性上。

《溱洧》

溱与洧,方涣涣兮。士与女,方秉蕑[1]兮。
女曰观乎?士曰既且,且往观乎?
洧之外,洵訏[2]且乐。
维士与女,伊其相谑,赠之以勺药。
溱与洧,浏其清矣。士与女,殷其盈兮。
女曰观乎?士曰既且,且往观乎?
洧之外,洵訏且乐。
维士与女,伊其将谑,赠之以勺药。
【注释】:
溱、洧:河名
[1]:音坚,一种兰草
[2]:音虚,广大无边
浏:音刘,水深而清
光剑曰:一对小情侣追逐打闹,河边走,你说我笑心花放,送你一把勺药可芬芳?

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值