小米生态链负责人说,小米手环是这样打动用户的

编者按】利益相关:作者孙鹏,小米生态链产品规划总监

小米手环是我在小米生态链参与的第一个产品,负责手环研发的核心团队都是我的校友。相关介绍我就不废话了,网上太多了,大家可以自行找到。回头来总结的话,有各种偶然,却又很幸运。

放弃利润,按照百万产能的成本来定价。这个是典型的小米模式,就不展开了,将来会专门写一篇产品定价的心得。

高等级防水和一到两个月超长待机,只能确保用户短期内不会因为要充电和洗澡摘下手环。但用户再戴上,就需要让用户觉着这个产品有用。

所以如何让用户觉着手环有用,或者比其它手环更有用,是关键。

第一个,小米特色功能。

为了提高粘性,我们在基本功能做好的前提下,重点做了用户ID的尝试,就是为小米手机屏幕解锁,主打安全、方便、优雅。

说个真事:要不就一开始雷总是不看好手环的,好几次表示这个产品不做了,每次我遇到他只有一句话,等你用了再下结论吧。直到我们把手环解锁功能做好,让雷总用上了,然后有一天他忘记戴手环,每次解锁都要输密码,感觉生活没有以前那么幸福了,才突然认可了这个产品。

这个功能并不是小米首创,三星和Google也都想到了这一点,用在了手表上。但是他们并没有认真宣传,加上其它手环确实也不支持,所以大家觉着是小米手环的特色功能。

第二个,定制化。

手环可以刻字,这是偶然的发现,偶然到简直非常偶然,必须好几个条件都满足:

1)生态链的夏勇峰老师是从隔壁的路由器团队转过来的;

2)我司坚持创业公司的风格,在行政采购上一向非常抠门,而且员工也很克制,有些设备能不申请就不申请。路由器团队比较新,很多同事是新来的,没有我们早期员工这么抠门,花了大价钱买了一个镭雕机,其实并不知道要干什么用;

3)有一天,夏老师拿着研发中的小米手环到镭雕机上刻了几个字,刻完后发现效果非常好,严重超出预期。

当然,并不是所有人都喜欢刻字,定制化需求本来就是差异化的。比如我就不喜欢刻字,有同事建议大家都配一个刻字版手环,我当时就说希望刻“空格”。

现在这个功能,已经是很多企业团购的最爱,更是淘宝商家加价的法宝。其它手环由于不是金属材质,没法刻字,确实吃了不少亏。

第三个,接入社交网络。

小米手环正在做的时候,微信刚好也在做手环接入,得到这个消息后我们的决策是必须接入,把微信做成小米手环的主场,这就是小米特有的自信。但是当时国外的手环都是拒绝接入的,包括某些国内已经成名的手环也不愿意接入微信,他们更喜欢用户在他们的小圈子里面做社交。而一些比较小的手环厂商,希望微信能够帮他们买硬件,完全放弃了自己的app,则是另外一个极端。现在来看,那些起初拒绝微信的都后悔了。

我们在接入微信的时候,并不是完全按照微信的要求来做。比如微信要求每个手环有不同的二维码,使用微信扫描一下就能接入微信,这个是我们不能接受的,因为损伤了app的独立性,而且微信里面入口也不容易找到。最终的解决方案是从小米手环app提供入口来接入微信,当时是微信专门给小米手环提供的接口,现在则是标准接口。

很多用户全家一起购买手环,七大姑八大姨在微信里面比排名,为了提高步数把手环放到小朋友身上、放到宠物身上。这已经成为了社会现象,如果小米手环不接入微信,就很难发生。

第四个,来电提醒。

这是很多商务人士的最爱。很多人为了不打扰别人,把手机设置成静音或者震动,结果是经常错过电话。手环来电提醒可以解决这个痛点。

小米手环开始并没有设计这个功能,振动马达是为无声闹钟设计的,震动强度是很强的,为了确保可以把人叫醒。但是后来我们发现用户更喜欢来电震动这个功能,尤其是iOS用户,有点出乎预料。

但是有些手环,为了省电,取消了震动马达,或者设计的震感很弱,根本无法把来电提醒做好,也失去了一个大好机会。

第五个,老年用户。

中国的老年用户特有的养生需求和手环的结合,是我们没有想到的。我们发现有很多老年用户,老两口一起使用手环,每天观察步数和睡眠时间,比年轻人都有粘性。我猜测在老年市场一定会产生一个细分的穿戴产品,到养生堂节目里面推广一下就能火起来。

大家都知道,好多老年人除了自己喜欢养生,还推荐别人养生,这也加快了小米手环的普及。

扯了这么多,其实我想表达一个观点:

像小米手环这样的智能硬件,未必是只有刚需才能成为大众消费品。也可能是一堆打动用户的小点成就了这个产品。目前这个领域还没有不能突破的壁垒,那些别人做好的地方,只要你能做得更好,那就有大把的机会,毕竟整个市场是在快速增长的。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值