心觉:你感觉很难的事情,可能是感觉错了

Hi,我是心觉,与你一起玩转潜意识、脑波音乐和吸引力法则,轻松掌控自己的人生!

挑战每日一省写作165/1000天

一件事情你感觉难做,还是容易做

是由什么决定的呢

很多人觉得是由事情本身决定的

其实并不是

可以说99%的事情,是由我们的心态,认知和情绪决定的

除非你做的事情是颠覆性,前无古人的才有可能是由事情本身的难度决定

为什么对于这种事情,还是用“有可能”,而不是“肯定”

因为就算是颠覆性的,前无古人的的事情,很多我们也可以拆解成我们熟悉的,已知的小事情,我们也可以从自然界中,从其他领域找到答案

比如,莱特兄弟发明飞机,看似是一项颠覆性的、前无古人的创新,但实际上它是通过对自然界鸟类飞行原理的观察、对已有技术的优化、以及将不同领域的知识灵活应用而完成的

所以,一件事情是难还是容易,主要是由这三个核心要素决定的:

  • 信念系统:你是否相信自己能完成这件事?如果你有一个“我能做到”的信念系统,那么事情就会变得容易。反之,如果你心里充满了“我不行”“我做不到”的自我设限,那么任何事情都会变得无比艰难

  • 看事情的角度:你的角度是消极的还是积极的,消极的人容易专注于问题和障碍,而积极的人则更关注解决方案和机会

  • 变通思维:是否有变通思维非常重要,如何变通,就是举一反三和触类旁通的思维,这两个思维可以帮助你把问题化陌生为熟悉,化复杂为简单(拆解),化难为易

当然,经验和技能,外部环境和支持重不重要,重要,但是不是核心的

有了上面三个核心的要素,经验技能以及外部支持也会变得非常简单

所以,平时我们应该修炼核心要素对应的能力

打造强大的信念系统,建立无条件自信

永远保持积极乐观,看到事情好的一面

日常多修炼举一反三,触类旁通的能力

有了这三个宝藏,经验和技能堆量就能习得;没钱了,讲讲故事,风投都跟着你跑

成事也是水到渠成,自然而然的事情

图片

  • 6
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
确实,对于剪枝后的模型与原始模型,它们的结构已经发生了变化,因此在加载剪枝后的模型时,需要考虑多个因素,如何正确地加载模型参数和 mask,以及如何将 mask 应用到剪枝后的模型上,等等。 不过,如果你使用 PyTorch 自带的剪枝工具,那么在剪枝模型时,PyTorch 会自动为模型保存一个 mask,用于记录哪些参数被剪枝掉了。在加载模型时,你只需要同时加载模型参数和 mask,并将 mask 应用到剪枝后的模型上即可。以下是一个示例代码,展示了如何加载 PyTorch 剪枝后的模型: ```python import torch import torch.nn as nn import torch.nn.utils.prune as prune # 定义一个简单的模型 class MyModel(nn.Module): def __init__(self): super(MyModel, self).__init__() self.fc1 = nn.Linear(10, 5) self.fc2 = nn.Linear(5, 2) def forward(self, x): x = self.fc1(x) x = torch.relu(x) x = self.fc2(x) return x # 加载剪枝前模型的定义 model = MyModel() # 加载剪枝后模型的参数和 mask model.load_state_dict(torch.load('pruned_model.pt', map_location='cpu')) prune_state_dict = torch.load('pruned_model.pt', map_location='cpu') # 应用 mask 到剪枝后的模型上 for name, module in model.named_modules(): if isinstance(module, nn.Conv2d) or isinstance(module, nn.Linear): prune.CustomFromMask.apply(module, 'weight', prune_state_dict[name + '.weight_mask']) # 将模型加载到 CUDA 设备上 device = torch.device('cuda:0') model.to(device) # 对输入数据进行计算 x = torch.randn(3, 10).to(device) output = model(x) # 检查输出数据的维度 print(output.size()) # 输出为 torch.Size([3, 2]) ``` 在这个示例代码中,我们加载剪枝前模型的定义,并使用 `load_state_dict()` 方法加载剪枝后的模型参数和 mask。然后,我们遍历剪枝后的模型的每个模块,如果模块是一个卷积层或全连接层,就从 mask 中加载相应的 mask,并将其应用到剪枝后的模型上。最后,我们将模型加载到 CUDA 设备上,并使用输入数据对模型进行计算。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值