我看我自己系列——痛苦扭曲了我的思维:累人的生活

前言:痛苦让我悲观,痛苦让我紧张,痛苦让我恐惧不再相信人。毁掉了我,毁掉了大学生活。

一、不了解,那就应该算了。无论发生什么,我都不想再理会,不想知道。
没有话可说,不了解的何必纠缠。所有一切还是算了吧。懒得去理解。这太他妈的煎熬了,心太累了。痛苦和疲惫,我的思维都扭曲了。为这种人操心,看别人。太他妈的累了,还是做好自己吧。本来没什么好说的,算了吧。得了吧。而我,再也不会看别人,随便你他妈的怎么着,我先做好我自己。我都懒得去理会。几年了,我永远不会看别人了。随便吧。我再也不会忍受这种痛苦。要的是行动,是看自己,而不是看别人。
。。。。。从此不会那么紧张和痛苦了。

这种极度的疲惫和痛苦,让我痛苦不堪。我不想搭理这样的生活,但我却拒绝不了,我不敢拒绝,我害怕、恐惧舆论(我自己的弱小)。这样的痛苦和消耗毁了我。一切本就应该算了,但人性的贪婪和自私没有结束这一切,而我嫉妒恐惧没法反抗。一切本就应该算了。不了解,我太累了。没什么可说的。那就应该算了。我看不到什么情,我看到的是对我的折磨。

何必要在理会?我虽然不满这样的待遇,但我也不想再掺和——我眼睁睁看着自己的生活毁掉却无能为力,我是想一心高考的。我明明不像掺和进去,又不是对我有利我不必理会——但我却拒绝不了。我从此害怕别人破坏我的生活,我害怕人群这样对我。这是我恐惧的来源,我痛苦的原因。
显然,我是永远不想搭理王先云、周盼。我不想受那样的折磨。——但我被打压住了,理由是要让着女生(那也不用牺牲我的人生吧?)。理由是要让着女生。我是为了我自己,至少我不会看别人的脸色,不会让别人高高在上,不会去满足别人的虚荣心,不会去满足别人的贪婪。我愤怒,是因为没人理会我回馈我,不回馈就算了,但看别人的脸色不是什么好的感受。显然我的这种要求是不符合实际的。我当初要的,只是简单、自由、快乐、祝福,不是沉重,我没有打算过别的——也不感觉有谁是我一定要这样对她的人。

我感觉有人强迫我加入我不想搭理的事情。但我却没有胆量我智慧去面对——我根本就不想理。无论怎样,我只想说:关我屁事。
但我却拒绝不了。这样的打击刺痛了我,我的生活破坏了。我反倒成了自私的小人。我想要的只是奋斗和快乐,我根本不想说这些废话——我根本不想追女生和女的纠缠。我只要现在和未来,就算我未来有爱的人,我不会看别人活着。
我早就受够了,我消耗够了。不了解,那就应该算了。无论发生什么,我都不想再理会,不想知道。

二、我是这样的人,我需要战胜自己。
为什么那么在意?本来就很好。在外靠同学,靠朋友。不要紧张~怀疑李大鹏在朋友圈发的消息。找到自己紧张~恐惧~防备的点。~~~~那紧张的心理原因~历史原因。不要嫉妒~怀疑~紧张。
找到自己恐惧女人~人的根源所在。去实践,去说话。我不是那么强大,心累。几年缺少与外界互动。
我长期活在恐惧和无助之中。
我没有那么强大,先做好自己吧。把自己能得的先得到吧。其他的根本管不了。

三、并不是所有人都这样。
我唯一的感受是,个人是很难和集体对抗的。但人是智慧的,他们知道要追随强者,要站在自认为有利的一边,有道理的一边。
1、我想这是我心中的阴影。一朝被蛇咬,十年怕井绳。
那样的痛苦,我可能忘不了了。但不是所有人都那样的,每个人是不同的,现在跟过去不同。
再也没有恐惧着看别人。从上大学开始的没有激情,数年的折磨,结束了,折磨,那他妈的,根本不是我想搭理的事。

再也没有恐惧着违背自己。我他妈的,根本不想理会。这就是我痛苦的原因。我以后再也不会理会,一切都关我屁事。
再也不会头痛。会好好对身边的人。

2、我原本有的样子。

不是所有人都那样,不是所有的人群都那样。我需要结束自己的紧张、亢奋、防备。要笑出来,说话的时候笑出来,这就是和郭亚兰说话的感受——当与外界接触的时候,知道自己原本应该有的样子,笑呵呵地享受竞争的滋味,即使输了那也是开心。一切凭实力,看自己。
这几年说真的,周围的同学跟我这样的人打交道,真的过得太苦了。东北,我在这里醒悟,这里的人,为我承受。

当我解除心中的紧张情绪,当我了解到我自己,当我跟受到东北的气息、周围人的美好,当我自然地笑出来。但我看我自己。我知道,一切开始了。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值