九张机与雁邱词

看神雕侠侣的时候,非常喜欢其中的两段词,一是“四张机,鸳鸯织就欲双飞,可怜未老头先白。春波碧草,晓寒深处,相对浴红衣。”,还有就是那段著名的“问世间情是何物,直教生死相许,天南地北双飞客......”

一张机,织梭光景去如飞,兰房夜永愁无寐。
呕呕轧轧,织成春恨,留着待郎归。
两张机,月明人静漏声稀,千丝万缕相萦系。
织成一段,回纹锦字,将去寄呈伊。
三张机,中心有朵耍花儿,娇红嫩绿春明媚。
君须早折,一枝浓艳,莫待过芳菲。
四张机,鸳鸯织就欲双飞,可怜未老头先白。
春波碧草,晓寒深处,相对浴红衣。
五张机。芳心密与巧心期。合欢树上枝连理。
双头花下,两同心处,一对化生儿。
六张机。雕花铺锦半离披。兰房别有留春计。
炉添小篆,日长一线,相对绣工迟。
七张机。春蚕吐尽一生丝。莫教容易裁罗绮。
无端翦破,仙鸶彩凤,分作两般衣。
八张机。纤纤玉手住无时。蜀江濯尽春波媚。
香遗囊麝,花房绣被。归去意迟迟。
九张机。一心长在百花枝。百花共作红堆被。
都将春色,藏头裹面,不怕睡多时。
轻丝。象床玉手出新奇。千花万草光凝碧。
裁缝衣着,春天歌舞,飞蝶语黄鹂。
春衣。素丝染就已堪悲。尘世昏污无颜色。
应同秋扇,从兹永弃。无复奉君时。

一张机。采桑陌上试春衣。
风晴日暖慵无力。桃花枝上,啼莺言语,不肯放人归。
两张机。行人立马意迟迟。
深心未忍轻分付,回头一笑,花间归去,只恐被花知。
三张机。吴蚕已老燕雏飞。
东风宴罢长洲苑,轻绡催趁,馆娃宫女,要换舞时衣。
四张机。咿哑声里暗颦眉。
回梭织朵垂莲子。盘花易绾,愁心难整,脉脉乱如丝。
五张机。横纹织就沈郎诗。
中心一句无人会。不言愁恨,不言憔悴。只恁寄相思。
六张机。行行都是耍花儿。
花间更有双蝴蝶,停梭一晌,闲窗影里。独自看多时。
七张机。鸳鸯织就又迟疑。
只恐被人轻裁剪,分飞两处,一场离恨,何计再相随。
八张机。回纹知是阿谁诗。
织成一片凄凉意。行行读遍,厌厌无语,不忍更寻思。
九张机。双花双叶又双枝。
薄情自古多离别。从头到底。心萦系。穿过一条丝。

这两段九张机非常难找,一般介绍诗词的书上都没有,这是后来在网上搜索到的,金大侠还真是博闻啊!

问世间 情是何物 直教生死相许 天南地北双飞客 老翅几回寒暑 欢乐趣 离别苦 就中更有痴儿女 君应有语 渺万里层云 千山暮雪 只影向谁去                          横汾路 寂寞当年萧鼓 荒烟依旧平楚 招魂楚些何嗟及 山鬼暗啼风雨 天也妒 未信与 莺儿燕子俱黄土 千秋万古 为留待骚人 狂歌痛饮 来访雁丘处

问莲根 有丝多少 莲心知为谁苦 双花脉脉娇相向 只是旧家儿女 天已许 甚不教 白头生死鸳鸯浦 夕阳无语 算谢客烟中 湘妃江上 未是断肠处                          香奁梦 好在灵芝瑞露 人间俯仰今古 海枯石烂情缘在 幽恨不埋黄土 相思树 流年度 无端又被西风误 兰舟少住 怕载酒重来 红衣半落 狼藉卧风雨  

这两首词就相对好找了,词牌名都是摸鱼儿,第一首名为雁邱词,第二首名为双蕖词,作者元好问(1190~1257)字裕之,号遗山,太原秀容(今山西省忻县)人,金代著名诗人、史学家。

深度学习是器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些题。
深度学习是器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值