从总经理喝咖啡想到的一些事情,闲体制与个体

  昨天总经理去中关村喝咖啡了,大意是鼓励创业,我觉得这个很好,无聊闲谈一下我发散想到的一些事情。

  咖啡是利率控制者送给利率奴隶的迷药,本质是压榨剩余劳动力的的毒药,被冠以文化、艺术、美食的外表,迷惑打工仔卖命。

  这里衍生出一个话题,就是年薪的问题,年薪是一个很虚伪的东西,很多人年薪几十万,其实根本没得休息,真正的薪酬制度应该是时薪,按小时计价的,8小时的正常时间其实很多小白领一天起码干活10-12个小时,但年薪却掩盖了这个事实,很多所谓高新者其实被压榨得最厉害,公司还送你免费咖啡,以为占到便宜。

  说真的要是法律不禁止服用兴奋剂,资本的逐利性肯定会让公司给员工提供可卡因,或者类固醇类物质,或者在空调里面喷神经兴奋剂,小白领进去就兴奋拼命干活,压榨完了跟药渣一样丢掉,一身毛病,也有公司会反其道行之,有的基金公司的经理会私下服用雌性雌激素,为的就是降低兴奋指数不被波动干扰。

  所以按照平均小时贡献计算,其实很多所谓的高薪族很可怜的,年薪20万的一天干活12-14小时的多了了去,按照12小时算,还当不到年薪13万的,但是人家有生活,这帮年薪20万的有什么呢?这是一个很有趣的话题,古代奴隶主还提供食物保证给奴隶,现代资本奴隶主连这个都不提供,你的吃食要自己去找,很可怜。

  体制一定是反对并且恐惧碎片化的,为什么,体制就可以压榨剩余劳动力,体制是不喜欢小商小贩的,因为人家为自己活着,体制压榨不到,当然宏观来看,小商小贩也要为体制买单,比如你得躲城管,这就是为什么个体户这么多年以来活着很累但是其实比大多数体制人要舒服的原因,人家是真活,为自己,拒绝剥削。

  当体制发展到一定的阶段,就是靠体系不靠个人了,这是个永不停歇的榨汁机,进去的是小鲜肉,出来的都是油渣,这是个非常有趣的话题,很多高达上的职业经理人其实离开了他的体制是完全无法存活,因为其技能是螺丝钉化的,首先他的成功自己决定不了,体制认为个人是在揩油,赚钱不靠你。

  因此长期看为什么国有企业的人呆久了根本不敢动?道理非常简单,因为体制有你无你都可以,这样就衍生出一个话题,就是辞职的问题,很多朋友经常私信说我不相干了我要辞职,我要跟领导谈谈,其实我会告诉他,你不要谈,要走就走,你的离开并不会对你当前的体制造成任何损失,你的功能化的,换个人一样干。

  很多人不明白这个道理,认为自己非常厉害,其实一点都不重要,体制内是一个效率化的剥削链,是你在揩油而不是你在做贡献,组织的演进的终点就是靠体系不靠个人,个人英雄在庞大的组织内只能当癌细胞处理而不是当精英供养,精英,特别是突破类的精英只能创业,组织会欢迎你的离去而不是挽留。

  我曾经做过很多类似的项目,比如餐饮业,餐饮业本身就是要靠厨师的,但竞争演进到最后创始人只需要搞好配方,标准包装装好,去厨师化,最后搞成连锁了,在摄影行业也是,摄影师是很好的职业,但目前的趋势就是去艺术家化,创始人自己创作出样品,让稍微懂点摄影的人去按照一定的标准拍摄好就行了,未来可能还会出现自助拍照,拍完了传到修片公司自动处理跟出相册,都是有可能的,当然要更高端的磨皮服务,那就要交费了,这个行业就靠体系不靠艺术家了。

  体制对效率的追求是极其饥渴的,就像机器一定会对转速的要求越来越高一样,效率是润滑油,任何提高效率的工具一旦被体制发现,加之宏观环境也迫使其主动去追求润滑油,比如利率的长期压制,那么体制就会展现出近乎饥渴的对润滑油的疯狂,任何可以舍弃的都可以不要,因为体制的商业模式是靠组织不靠个人。

  所以当利率长期压制的时候,一切可以提高效率,抛却一切浪费的工具或者方法都会得到追求,整个体制就会抖动,将揩油的小白领或者小领导全部抖下去,体制是有生命的,法人公司永远会存在,这东西就是一个有机体,任何具备输入、输出、增肥的体系都是生命体,没有长存的肉体,只有永生的机构。这也是为什么一旦利率出现压制的可能,效率化产业在资本市场立刻成为最为追捧的对象,对效率的渴求是体制的刚性需求,出多少钱都愿意。

  因为体制的商业模式是靠组织不靠个人的,所以你在体制内所能得到的一定是有一定约束的,说白了就是你不可以找体制要价,只有体制负责定价,包括你的工资、待遇、总现金收入、养老保险,这种人生的总财富其实早就计算妥当了,是一种基于自由竞争下出于某种默契的计算,所在的阶层决定了你的总现金收入。

  所以有本事的都会自己去干,因为看上去好像风险很大,但收益近乎无限了,你去拥抱0,那么你有可能得到1,但你去死抱1,你可能会得到2,0到1的增量是无限的,1到2的增量才1点,这也是为什么其实个人根据自己的特长发挥出最大效能服务社会,往往会得到很多无限回馈的原因,因为你脱离了体制的束缚。

  脱离体制的束缚的本质是自己对最为珍贵的时间拥有了定价权,并且因为你自己说了算,只要你脑子灵光你可以最大化的发挥你应该可以发挥的极限,考虑到未来是碎片化的社会,再小的个人极限都会因为世界是平的这个大的原则拥有几乎无限的买单人,那么你的人生其实就碎片化,只要不是违法的事情,你就致富了。

  拥有0到1转变的个人,反过来一定会处于人性的暗面去设计自己的一体体制去剥削那些没有拥有0到1的人,这是非常简单的道理,拥有0到1的转化的人,他不可能天天0到1,打江山容易守江山难,不管是出于本意还是无意他一定会去构建0到1结束后的12345的过程,否则江山打下来很快也会搞光。

  所以这个世界本身就是一个生命体,基于这种合久必分分久必合的原理运转,一沙一世界,刹那成永恒,体制跟个体永远是博弈的,互相纠葛牵扯不清,相互交易,各自瓜分各自的利益。那么问题来了,个人的选择该怎么办,你自我的塑造跟选择就极其重要,你适合干什么,有什么特长,有无可能创业,就要想清楚。


转自【http://weibo.com/p/1001603840207802773489】

1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
应用背景为变电站电力巡检,基于YOLO v4算法模型对常见电力巡检目标进行检测,并充分利用Ascend310提供的DVPP等硬件支持能力来完成流媒体的传输、处理等任务,并对系统性能做出一定的优化。.zip深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值