不要轻易挑战用户的习惯,否则会被用户打脸!

该引导用户习惯,还是顺应用户的习惯? 这是很多产品汪纠结的问题。

不要轻易挑战用户的习惯,否则会被用户打脸!除非你的改版、“创新”带来的用户价值足够大。

那些著名的被用户打脸的产品设计:

1. QQ

QQ用户对于“在线状态”都很熟悉了,在多年的使用中养成了习惯。2013年,QQ for iphone 4.0正式上线,这个版本弱化了用户在线,将“在线状态”这一标志性设计放入“动态”入口,模仿微信主推联系人列表。既然微信成功了为什么手机QQ不可以这么做呢?然而结果却是收到了用户在App Store的五万多个一星差评。

1eccaf72

0a1a43b1

2. 豆瓣

2015年5月17日,豆瓣网将其特有的用户通信工具“豆邮”更名为“私信”,引发大量用户不满。
当日晚上,由用户自发组织发起的名为“还我豆邮!!!”的线上签名抗议活动,活动诉求为将“私信”改回“豆邮”。

6177693
后来豆瓣创始人阿北道歉,把豆瓣PC端的“私信”恢复成“豆邮”:

19a7aa9
3. 微信

微信下拉可以拍小视频,你一定看过那个大眼睛。
下拉操作可以刷新内容,是用户在使用各种新闻类app养成的习惯,微信下拉拍小视频经常引起我的错愕,还好,现在微信新版本下拉时已经看不到这个大眼睛了。

aac4bff1
产品设计不要轻易挑战用户的使用习惯,因为用户是懒惰的,改变习惯去学习新事物是有成本的。

那什么情况下可以引导用户的习惯?

当你的改版、“创新”带来的用户价值足够大,足以吸引用户去改变原有的习惯。

我认同一个观点:设计=有价值的创新。

亨利·福特的名言:如果问用户想要什么,用户会说,要一匹更快的马。
而福特从用户价值出发,给了用户一辆车。

5535865
汽车刚出来时,你猜,哪个部件最容易坏?
方向盘。
用户的原有习惯是骑马,习惯在停车时像拉马的缰绳一样去拉方向盘。
开车要改变用户原来骑马的习惯,要花很多时间精力去学开车,但用户不会因为这个就去排斥汽车,因为汽车对用户而言是很有价值的,用户愿意为这个产品改变习惯。

另一个例子,大家熟悉的键盘。

美国人克里斯托夫·拉森·肖尔斯(Christopher Latham Sholes),打字机之父,1868年发明了大家目前最熟悉的QWERTY键盘布局。这个键盘布局获得了很大的成功,但是它并不是最优的一种布局方法。
经过数据统计,在QWERTY这类布局上面,我们相对力量较小的左手(左撇子除外),要负担57%左右的工作量,而且小拇指的工作量也很大,力量较大的键盘中间区域平时只不过负担了30%左右的工作量,从这些数据上表明,QWERTY布局并不省力。甚至有人称:这是历史上最愚蠢的发明之一。

782b3b2
在1934年,德沃拉克(Dvorak)针对QWERTY键盘布局的缺陷发明了更加科学的DUORAK键盘,这类键盘在布局方面遵循了:尽量左右手交替击打,避免单手连击;越排击键平均移动距离最小;排在导键位置应是最常用的字母,这三大重要原则。这种键盘问世后可以让文字录入工作者提高了近1/2的工作时间。

7145f4a

还有这种ABCD布局的键盘,方便记忆,对刚学打字的人容易上手。

12c8bee
但是由于QWERTY键盘已经有百年以上的使用历史,这些改良的设计带来的价值,还不足以撼动用户的习惯,所以大家看到的最多的键盘还是QWERTY键盘。

但是,为什么语音输入法、手写输入法用户愿意为之改变使用习惯,愿意被引导?
因为语音输入法、手写输入法给用户带来的用户价值足够大。

当你的产品带来的用户价值足够大时,可以引导用户养成习惯。

当你的设计需要用户去改变习惯、需要被你“引导”时,你要思考:你的设计,值得用户为你改变习惯吗?

如果仅仅只是界面布局的调整、风格的变化,需要用户去学习、适应,而没有给用户更多的价值,那就不要轻易挑战用户的习惯。

当然,如果你足够牛x,能够像苹果的扁平化设计、微软的Metro设计一样,引领设计潮流与方向,那就另当别论。

产品设计改版时,关于引导用户习惯的建议:

a)加强新手引导,新手引导也要符合用户的使用场景,在用户需要用到某功能时才引导与提醒,没有用户会有耐心在软件一启动就看个几分钟的引导页面,也记不住。

b)尽量用渐进式的方式逐步改变与改进,给用户一个过程去适应,慢慢养成新的习惯

c)如果一定要大改动,可以采用“灰度发布”、A/B测试的方式,先小范围试验,得到验证后再大范围推广

d)要符合相关的设计规范,如:android设计规范、iOS HIG等,会降低用户的学习成本,应用商店在审核时也有这方面的要求。

 

本文作者:

张在旺,创业者、投资机构顾问,scrum中文网教练!

本文转自:Leangoo.com



深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值