亚马逊是怎么开会的,为什么 PPT 不如备忘录文档

亚马逊创始人贝佐斯在节目中透露,亚马逊会议禁止使用PPT,提倡六页备忘录,因其可保证会议参与者深度阅读、减少打断、提高沟通质量。备忘录的逻辑清晰和真实性优于PPT的销售工具特性。
摘要由CSDN通过智能技术生成

原文阮一峰的网络日志-科技爱好者周刊(第 285 期):为什么 PPT 不如备忘录

莱克斯·弗里德曼(Lex Fridman)是一个非常有名的美国主持人,他的播客节目影响很大,很多名人都愿意上他的节目,接受专访。
12月15日的节目嘉宾,是亚马逊公司的创始人贝佐斯。他们一共谈了两个多小时。

主持人问贝佐斯:“我听说亚马逊开会时,不准使用 PPT,发言人必须提交一份六页的备忘录。这是真的吗?”

贝佐斯亲口承认确实如此。“新来的人可能会大吃一惊,我们的开会方式与众不同。”
“会议的前30分钟,我们是不说话的。大家在会议室中安静地坐在一起,阅读这份六页的备忘录,在空白处做笔记,过了30分钟才开始讨论。”

这真的很奇怪,你见过半个小时没人说话的会议吗?

贝佐斯解释:“你可以说,更好的做法是,大家都提前阅读这些备忘录。但问题是,人们没有时间这样做,他们参加会议只是因为必须出席。”

“我们索性在会议上留出时间,让大家现场阅读材料,然后就可以进行真正高层次的讨论了,所有人都跟得上讨论的主题,不会搞不清一些基本的事实。”

那么,为什么一定要当事人提交六页的备忘录,而不是现场主讲 PPT 呢?

贝佐斯说,书面的备忘录要比 PPT 演示,效果好得多,主要有以下几点原因。

(1)PPT 的设计目的是说服,这是一种销售工具。但是在公司内部,你想要的是真相,而不是业务主管的推销。

(2)PPT 的缺点是,它对作者相对容易,对观众来说却很难抓住要点。备忘录正好相反,写好一份六页的备忘录,对于作者是很难的。

你可能需要两周的时间,先写出初稿,然后再重写,不断加工,确保你的文字是准确和可靠的。所以,备忘录对作者非常困难,但对观众就好多了,半小时的阅读就能搞清楚事情的来龙去脉,也看得出作者对这个问题的熟悉程度。

(3)备忘录可以节省会议时间。如果是 PPT 演示,高管们会不停地打断提问,结果发现答案就在下一张幻灯片。

但是,阅读备忘录时,你必须先把所有问题写在空白处,当你读到最后一页时,发现很多问题已经得到了解答,这就节省了当众提问的时间。

(4)PPT 演示过程中,主讲人也许会根据现场情况,临时决定隐藏或修改一些讲法。备忘录就没有这个问题,主讲人必须事先给出完整描述,你更能了解他的真实想法。

(5)PPT 通常只是一些要点,不是完整的句子,有利于隐藏很多草率的想法。而备忘录是完整的段落,必须有主题句,有动词和名词,你很难隐藏自己的草率思维。

备忘录迫使作者处于最佳状态,你能得到一个人真正最好的想法。如果 PPT
演示,你们可能要讨论很久,发言人才能进入最佳状态。从长远来看,备忘录节省了你的时间。

评论

潭渊 说: 为什么大家都喜欢 PPT ?

  1. 很多人没有阅读大段文字的能力,难以长时间将注意力集中在一段文字上;
  2. 很多人也没有撰写大段有逻辑文字的能力,难以将他们的想法和细节有逻辑地、图文并茂地写出来;
  3. 很多人认为与演讲者讨论和追问可以更好地理解细节。

PPT 更适合什么场景?

演讲,广告,推广,展示等强情绪、低互动的场景。

文档更适合什么场景?

需要讨论、互动,敲定细节的会议。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值