小步快跑才是王道

小步快跑才是王道

                                                                                                                     ———别总想搞个大新闻

导读:与其闭关三年,立志研发出一款惊天地泣鬼神的颠覆性产品,不如踏踏实实的先把MVP做出来再说。

功能

人天

价值

A

10

5

B

10

5

C

5

2

D

5

3

 

假如有ABC三个功能需求,等待我们开发,相关数值如图所示,你会怎么画原型,安排开发?

传统软件开发:先做AB,到第20,可以发布一个价值为5+5=10的产品。

敏捷开发:先做A,再做B。这样,到第10,就可以发布一个价值为5的产品,再做B,到第20天依然可以发布一个用户价值为5+5=10的产品。

到了这时在,有人能明白这两种开发方式的优劣了吗?

如果不明白,那我继续再讲深一点:

采用传统软件开发方法,我们再做C功能,用时5天,花了15天,得到一个价值为5+5+2=12的产品,能理解吧?

采用敏捷开发的时候,我们通过第110天,发布了一个版本,开始收集数据,再用第210天,继续收集数据,用比采用传统软件开发模式多出的10天,通过数据分析,发现一个用时大约5天,但价值为3D功能, 这个D功能是新的,以前不知道的。这样,我们还是花了25天,得到一个价值为5+5+3=13的产品。

在两样的25天时间里,我们获得了比原计划价值更高的产品,收集了更多次数的数据,获得了更多试错机会。一年有12个月,如果1月迭代一次,则有13次改正的机会,如果半月迭代一次,就有26次试错后改正的机会,所以为了发挥敏捷开发的优势,所以我们要有懂得放弃一些功能,不管有没有票,先上车再说。当然,这里的放弃不是要把更多功能丢掉,而是不要集中完成,分批次地迭代实现。

这里借用一个真实的案例:QQ,当时还叫OICQ,因为各种考虑和限制,无法全部实现,如果是你,你会怎么去规划安排。怎么选?,我们不去回答什么是标准答案,但我们可以通过分析下面的12个功能的意义,来理解一个产品到底应该如何去进行功能的选择和迭代,从而知道:哪些功能我们应该先做,哪些功能该缓一缓。

序号

名称

序号

名称

1

卡通头像

7

聊天记录管理器

2

不可窃听的安全通讯

8

语音

3

聊天室

9

视频

4

很小的exe文件

10

看谁在线上

5

皮肤Skin

11

传文件

6

速度超快0.5秒反应

12

QQ表情

 

1个功能“卡通头像”,QQ比较早做的

那个年代,用户在大多数网络应用里只有一个ID,分不清男女老少。要知道,那会儿还很少有数码相机和摄像头,更别提可以拍照的手机,所以真人头像很难实现。

QQ的卡通头像,让用户活了起来。当时,头像用了一批迪斯尼的卡通动物和漫画人物,唤起了早期用户对小时候看过的动画片的记忆乙,产生了情感连接。而用户自己选择的头像,也帮助用户在沟通时能大概知道对方的性格、性别、年龄,是个萌妹子,还是女汉子,是个小鲜肉还是个成熟大叔

2个功能“不可窃听的安全通讯”,安全通讯主要用于商务场合的,对信息安全要求比较高;QQ,其实是一个偏娱乐、生活化的产品,早期对安全的要求并没有想象得那么高。

3个功能“聊天室也是最核心的基础功能,也确实是QQ最早就有的。社交次品都要解决用户在网上如何找到第一批聊天对象的问题,第一版QQ的用户大多是孤独的极客,缺少足够的熟人用户,所以要解决“能找到陌生人聊天”这个迫切需求。而聊天室正好可以提供一个有共鸣的主题,让彼此陌生的人在一起天南海北地聊。很多人的打字速度都是当年在聊天室里练出来的。

早期的网络用户,更熟悉的是Web聊天室这种陌生人交友模式,很难在迁移到客户端的聊天工具QQ,一下子习惯熟人社交。所以先从聊天室开始,这样更尊重用户习惯,让他们适应起来更加顺畅。陌生人聊熟了,再互加一下好友,也解决了用户QQ上没有好友的问题。一旦有了好友,用户就会被黏住,有了持续使用QQ的动力

10个功能“看谁在线上”,也是很早实现的特性。因为原因与上一个类似,所以提前说一下

QQ是即时通讯工具,强调实时性。要立即找人聊天,就得知道当时谁在线上,

QQ有在线、离线、隐身等状态,这和后来微信的“永远在线”是完全不同的概念。查找谁在线上这个功能,还经常被早期用户用来定向添加好友,比如设定好友查找条件为“北京市海淀区”+“女”+1822岁”。(是不是和后来的陌陌很像?)

4个功能“很小很小的exe文件”,是一个并不需要投入太多资源去做的特性。

当年的电脑、网络性能确实很差,要求安装文件尽可能小一点。但QQ的第一个版本,没有经过任何版本迭代,安装文件只有几百K,优化的必要性和空间都很小。真正需要优化安装包大小,要等到若干版本之后,exe文件膨胀到几十M,才值得专门投入资源去做的。

5个功能“皮肤Skin",明显是一个锦上添花的功能。

我一直有个观点,当一个产品开始考虑“换肤”,就说明这个产品进入了成熟期,可以把资源抽调出来去做更重要的事情了。

段子里是这样说的:

公司有个技术牛人,某产品助理向他提需求,牛人一看内容很扯,质问“你觉得这个需求有价值吗?

对方诚恳回答:“没价值,但是我总得写周报啊。”

牛人想了一分钟,回答说“好吧,我帮你做,因为我也得写周报啊。”

“换肤”就是这样的需求,一个能满足产品技术团队“写周报”的需求,能满足老板“识别投入过剩”的需求。

6个功能“速度超快0.5秒反应”,是针对网络的优化,需要尽早做。

当年很多人家里还在使用33.6K56K的猫°,访问网络速度慢、不稳定。当时的网络的确有明显的延时,哪怕是用QQ传输文字。所以,将网络优化的优先级设为很高是合理的。

7个功能“聊天记录管理器”,早期并没有做。

仔细区分一下,聊天记录其实有两种,存储在客户端的本地聊天记录和存储在服务器端的漫游聊天记录。限于当时的网络带宽,下载漫游记录纯属奢望,只能考虑客户端聊天记录的备份和管理。但,那个时候很多用户都没有个人电脑,去网吧上网是常态。因为经常需要换电脑,保存本地聊天记录并无实质意义。更为甚者,当时很多用户聊一次QQ就重新注册一个QQ,完全不理解“个人账号”的含义,以为和登录某些Web聊天室,进房间之前取个昵称是一样的,也就更不会有对备份“聊天记录”这种个人信息的强需求。

8个“语音”、第9个“视频”和第11个“传文件功能”,都很类似,没有在早期做。以当时的网络速度,这些功能就算实现了也不会有很好的用户体验,要等到宽带普及才有必要考虑。

12个功能“QQ表情”,因为满足这个需求有可替代的现行途径-颜文字,,所以也可以先搁置。

颜文字,可以用标点符号及英文表示一些十分简单的面部图案。

 

每次的需求管理,功能管理,都.要足够轻,轻到能套用敏捷开发,太“重”的产品,会拉长开发周期,会影响团队的敏捷灵活,一但迭代后用户不喜欢,损失就会更大,所以敏捷开发成为了目前化联网行业非常流行的开发方式,而能让产品少做点堆叠的功能,多做点简单但实用的功能才会考验一个产品经理高超艺术的标准。

 

                                                                                                                          部分素材引用自苏杰的《人人都是产品经理》


深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值