黄峥:我先退了!

点击“技术领导力”关注∆  每天早上8:15推送
来源:字母榜  作者:蒋晓婷

颠覆性的好消息和坏消息,拼多多今天同时放出,惊掉了无数人的下巴。好消息是,拼多多年活跃买家达到7.884亿,超过阿里巴巴。坏消息是,黄峥宣布辞任拼多多董事长,交棒给现任CEO陈磊。未来黄峥手里的1:10的超级投票权将失效,名下股份的投票权将委托拼多多董事会以投票的方式来进行决策。

 

按照黄峥的说法,辞任董事长后,是想去“寻找幸福”:未来将投身食品科学和生命科学领域的基础研究,做科学家的助理。为消除外界顾虑,黄峥明确承诺,个人名下的股票在未来3年内继续锁定,不出售。

 

黄峥辞任突然,但按照股东信中的说法,其实早有计划:“去年7月1日我卸任了CEO,原本计划在一年整的时候和陈磊完成董事长职位的交接。”

 

去年身价刚超越马云,黄峥就卸任拼多多CEO,将手里的股份捐赠出来,成立“繁星慈善基金”,以推动社会责任建设和科学研究;又拿出个人名下拼多多7.74%的股份分给拼多多合伙人集体。时过半年,卸任董事长,放弃“超级投票权”,符合黄峥不愿台前亮相的性格。

 

“黄峥退居幕后是避免成为众矢之的。”接近拼多多的人士告诉字母榜。以今年年初22岁女员工凌晨3点猝死为导火索,拼多多的公众形象遭遇危机,最终失去了春晚的独家合作。

 

而在拼多多内部,由于工作强度超高,员工对高层不满的杂音也在各种论坛社区时有冒出。

 

在某种程度上,黄峥辞职,可以视作是对内外部质疑和批评做出了一个交待。

 

尽管急流勇退,但黄峥的实权并未被削弱,只是从董事长变成了实控人。目前黄峥在拼多多拥有29.4%的股份,控制的股权超过40%,新董事长陈磊则是黄峥创业的多年铁杆伙伴。

在黄峥辞职之后,中国三大电商创始人都走入幕后状态。此前字母榜(ID:wujicaijing)在《夺D大战,京东、拼多多、阿里的台前与幕后》提到,尽管黄峥卸任,马云退休,刘强东暂居幕后,走上台前的徐雷、陈磊和蒋凡表现如何精彩,他们打的终究是一场代理人战争。马云、刘强东、黄峥从未放下权杖,让出日常管理权,也是为了“确保10年后的高速高质量发展”。

 

归根到底,黄峥们是为了换个更舒服的位置,以便更好地应对未来。

 

截至目前,市场对黄峥辞任董事长的消息给出的反馈是:短短一小时内,拼多多股价在大涨6%后,转向大跌超过6%。

 -END- 

加入读者群,跟老K、及100位大咖学习交流?
加群助理微信,注明:加群


快领取,火爆全网的《老K说中台》.pdf 

点击下方“技术领导力”关注,回复:老K


美团、字节的《人人都要学的架构思维》.pdf 下载

点击“BAT架构”,回复:架构


大家在看:

1.阿里彭蕾:向上管理,不是跪舔老板!

2.如何搞垮一个技术大牛?

3.为什么CTO/总监不写代码,还这么牛逼?

4.终于有人把“低代码”说清楚了!

5.为什么技术越牛逼的人,越得不到提拔?

6.阿里彻底拆中台了!

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值