曾滨源先生谈项目风险管理

7月29日,PMI广州志愿者团队邀请到爱立信的曾滨源先生,跟大家聊项目风险管理的相关话题。由于是访谈式的节目,所以没有完整的ppt。还好我拿到了当时的录音,把录音整理成思维导图。

虽然知识点比较离散,但是交谈的过程中不乏很多经验汇集之谈,我用红色标注起来,希望读者细细体会。

 

1 风险识别

  1.1 忌讳漫无边际得找风险

  1.2 需要找一条主线去寻找风险

  1.3 可以用时间轴作为主线

  1.4 什么是专家

    1.4.1 掌握你项目所需资源的人

    1.4.2 客户也是专家

  1.5 专家判断

    1.5.1 delphi法

    1.5.2 建议多种方法结合

    1.5.3 项目经理主导,列提纲,再汇总

  1.6 分类找风险

    1.6.1 例如项目的类型

    1.6.2 外围因素,如法律

    1.6.3 公司政策

    1.6.4 客户特有规定

2 风险管理是贯穿始终的

  2.1 没有风险控制,项目失败几率会达到85%

  2.2 做得比较好的情况下,会达到95%

3 中国人的风险管理理念比较薄弱

  3.1 中国人偏向框架性思维

  3.2 不喜欢step by step考虑问题

4 如何确定某个风险应该进行定性还是定量分析

  4.1 优先做定性,在做定量

  4.2 对于关键风险才进行定量

  4.3 因为要考虑到管理成本

  4.4 公司考核时,应该关注风险分解后谁去跟进

  4.5 希望精确计算风险概率意义不大

5 项目中的不确定性都是风险

  5.1 实际中,着重关心消极风险

6 风险应对的方式

  6.1 对下,将风险责任分摊

  6.2 对上,建立良好的沟通计划来应对

  6.3 通过老板所关心的问题,将风险转让他关心

  6.4 老板要关注的问题很多,不要期望老板也是项目管理专家

7 如何看待风险的成本

  7.1 不是所有的风险都需要关注

  7.2 识别的风险越多越好,管理的风险要有限

  7.3 老板不会担心关心风险

  7.4 高层关心的是什么

    7.4.1 收益

    7.4.2 成本

    7.4.3 资金利用率

    7.4.4 其他资源利用率

  7.5 跟高层沟通风险

    7.5.1 第一步讲这些风险会造成多少成本的增加

    7.5.2 第二步将“我”能够搞定!

    7.5.3 第三步,“我”需要你的支持!

  7.6 人都有趋利避害的倾向

8 以何种程度来应对各种风险

  8.1 小型项目以PM为中心找风险

  8.2 大型项目将风险分类,然后让不同的人去处理

  8.3 不熟悉某一块业务或者技术的情况下,让专家处理

  8.4 风险的过滤

    8.4.1 风险已经发生了,就从列表中删除

    8.4.2 如果一个风险不影响项目走向,那么也剔除

  8.5 对不同客户的态度不同

    8.5.1 企业客户的风险较小

    8.5.2 企业客户有时即使发生了风险,也并不十分关注

9 组织结构对风险应对的影响

   9.1 项目型组织,便于风险管理

   9.2 矩阵型对风险管理有影响

10 风险识别的经验

  10.1 不要过多追求工具

  10.2 不一定需要公司级的历史数据归档

      10.2.1 以前的项目经理有很多资源

  10.3 项目风险的数据来源很重要

  10.4 沟通计划才是关键

  10.5 公司的流程制度是项目风险的一大来源

11 如何应对客户意图的大范围变动

  11.1 风险和沟通很难剥离

  11.2 一般说明项目中没有好的机制保证干系人对项目的理解是透彻的

  11.3 大部分是因为干系人对项目的理解不透彻

  11.4 大部分项目失败的原因是内部

12 风险登记册的管理

  12.1 每次打的阶段完成需要评估

  12.2 把沟通计划和风险计划放入甘特图进行关注


录音下载链接

http://www.vdisk.cn/down/index/3649880A8352

http://www.vdisk.cn/down/index/3649878A4533

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值