不在杠杆中爆发,就在杠杆中灭亡

cd62fc70e38b2ce404285f848df620af.jpeg

前几天有个热点新闻,技术圈一位腾讯云数据库专家借了很多同事的钱炒股,但遭遇市场持续下跌,最终纸包不住火,爆了出来。

借钱炒股,本质就是上杠杆,而都说杠杆是把双刃剑,我觉得更准确的比喻应该是把无柄的双刃剑,当使用杠杆时就是直接握在了剑刃上,挥舞着剑,但手会一直在流血。毕竟现实中几乎没有免费的杠杆,所以,能使用杠杆的时间与失血的速度有关,杠杆与时间为敌。

...

使用杠杆的人,一般比较自信,自信往往来自于过去的成功。

说几个著名的杠杆爆仓案例,近的就是去年韩国人比尔·黄5倍杠杆炒美股,整体下跌只需要达到20%就会爆仓。而他的持仓中正好一只股出现大跌,保证金不足,就需要卖股补充保证金。如果是一般人,这样不会爆仓,但他不是一般人,他的市值规模有800亿美金,但多数持有的又是市值不那么大的中概股,这一卖就引发了连锁反应:卖出股价下跌,股价下跌,保证金不足,就需要继续卖出,恶性循环,最终就爆仓了。

远一点的例子是上世纪九十年代美国长期资本的故事。长期资本的团队号称“梦之队”,有两位诺贝尔经济学奖得主,负责人是华尔街债券套利之父。长期资本聚集了一堆顶级聪明人,用数学模型和算法数据,通过对冲的方式来进行市场中性套利。一开始很顺利,前三年回报率高达:28%,42%,40%。

对冲中性套利,其实每一笔交易赚的钱都很少,之所以有这么高的年回报率就在于上了极高的杠杆,杠杆率在3倍到100倍之间。如果不用杠杆,正常情况中性套利波动极小,是赚不到什么钱的。与正常情况相对应,总会有不正常的情况,1998年就发生了俄罗斯主权债务违约的危机,市场波动大幅放大,直接击穿了长期资本的对冲模型,一夕破产。

...

日常生活中我们也经常使用杠杆,主要是消费。比如,分期买手机、买车和买房。使用杠杆消费,消耗未来的收入,提前获得享受和满足,这就是它带来的好处,坏处是未来存在不确定性,坏的情况出现时可能会背上沉重的负担。

还年轻时,对未来充满希望和信心,所以那时我也用杠杆消费。第一辆车就是三年分期买的,刚提了车(2014年中),熊了好几年的股市突然爆发了一场牛市,但那时除了一身负债也没有资金可投入参与这场牛市。犹豫了一阵,想出了一个办法,透支未来一年的工资收入来投入股市。但有点晚了,牛市的泡沫很快破裂,迎来了股灾之旅。

用了杠杆的股灾旅途是很难受的,但还好一年的透支很快也就填平了,买了一个教训。过了几年(2017年底),因读书和改善的原因又买了套房,而那时也正是我职业生涯感觉最好的时候,收入和职级都到了历史最高,公司股价也刚创造了历史新高,经济形式感觉很不错,没有想到下一年会有一个巨大的落差。

贷款买房是用杠杆撬动未来20年收入的一次性花费,但未来还能保持多久这个历史新高的收入水平呢,现在回过头来看,原来没几年了。2018年的落差于我而言算是一次去杠杆的预演,从那时开始国家开始推动去杠杆,我也开始了去杠杆:分期消费再也没有了,除了房贷以外的负债全部填平,再留够预计两年以上的生活储备金,就这样来到了一个比2018感觉还要糟糕些的2022。

...

很多人不仅用杠杆消费,还用杠杆投资炒股。在股市取得年化8%的指数平均收益已经非常难了,那么扣除杠杆的资金成本,还能有多少容错或盈利空间呢?新人入市,总在牛市(我作为新人是在2006年的牛市入市的),新人往往无所畏惧和迷之自信,一般最后不是被消灭就是被打服。十多年过去,我还在股市没被消灭,那应该就是被打服了。

被打服的结果就是变得保守,关注风险更多一些,特别是“尾部风险”。什么是尾部风险呢?如果用了杠杆,尾部风险就会是让你爆仓的风险。在正态分布曲线里面,尾部就是概率看似很小的那一段,但发生后的后果很严重,俗称“黑天鹅”事件。

但其实生活中的一切都有尾部风险,比如,坐飞机就有空难的尾部风险。我们只能尽量去避免无法承担的结果,同时考虑这个尾部风险的概率。

如果想用杠杆投资,就趁年轻又没太多钱的时候。这时上杠杆的尾部风险无非就是亏完(钱不多),边际收益可能更大,无论赚或亏都能更真实的学到一些东西。投资这条路,我觉得就是“听过很多道理,依然过不好这一生”的典型情况,还得自己亲自经历。

...

杠杆,只是一个工具;有时不是用不好工具,而是控制不了自己。

8b4eb920f1e31cde24033b5520d16dc2.jpeg

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值