简约至上-交互设计策略-总结语

一、话说简单

1.为什么安装打印机不能像插电源插座那么简单?

2.人们喜欢简单、值得信赖、适应性强的产品。

3.所有不必要的功能都是要付钱的。

4.是比自行车简单,但是你自己骑一骑试试?

5.都简单,但各自有独一无二的特征。

6.简单可不是这种能够粘在用户界面上的装饰。


二、明确认识

1.先理解用户,再思考合适的设计。

2.软件使用环境是观察用户的最佳地点。

3.在家里、在公司、在户外,你的设计必须能够适应各种干扰。

4.专家想要的功能往往会吓到主流用户。

5.想吸引大众必须要关注主流。

6.主流用户不愿动手从头组装。

7.即使是任务列表,也要满足感情需求。

8.简单就是感觉在掌握一切。

9.绝对不要漏掉关键环节。

10.想象一下,你正站在大街上,突然.....

11.现在就讲个故事。

12.设计简单的体验意味着要追求极端的目标。

13.尽可能用最简单的词汇描述你的想法。

14.评估你的故事并追问:什么因素对用户的行为影响最大?

15.真正伟大的人还会继续向前,直至找到问题的关键和深层次原因,然后在拿出一个优雅的、堪称完美的有效方案。

16.讲故事吧。


三、简约四策略

1.删除-去掉所有不必要的按钮,直至到不能再减。

2.组织-按照有意义的标准将按钮划分成组。

3.隐藏-把那些不是最重要的按钮安排在活动仓盖之下,避免分散用户注意力。

4.转移-只在遥控器上保留具备最基本功能的按钮,将其他控制转移到电视屏幕上的菜单里,从而将复杂性从遥控器转移到电视。


四、删除

1.简化设计最明显的方式就是删除不必要的功能。

2.砍掉功能有时候是一个血腥无情的过程。

3.与新增功能相比,客户更关注基本功能的改进。

4.人们都舍不得扔掉东西,即使它已经破烂不堪。

5.不要猜测用户可能会或者可能不会怎样。

6.要倾听客户的意见,但决不能盲从。

7.如果一个小的变化导致了复杂的流程,就应该退一步去寻找更好的解决方案。

8.从长远来看,增加功能有害无益。

9.删除一项功能,对不同的用户影响不同。

10.给那些轻易就能够满足主流用户需求的功能排定优先次序。

11.选择有限,用户反而更欢喜。

12.雷克萨斯汽车网站的默认比较项大多数情况下对大多数客户都是有用的。

13.主流用户不喜欢为设置选项和首选项费心劳神。

14.减少不必要的说明。

15.电梯里没有按钮,可是人们更想当导航员,而不是过路人。

16.删除混乱的要素可以让用户聚焦于真正重要的功能。


五、组织

1.组织往往是简化设计的最快捷方式。

2.组织成一小块一小块。

3.画出用户的行为有助于理解如何组织你的软件产品。

4.好的分类是非分明。

5.字母表经常会把事情搞乱。

6.无论是设计还是使用,搜索都比浏览困难得多。

7.时间线是组织活动的通用方式。

8.改变球的大小可以表明,每项运动都同等重要。

9.要吃很多寿司才能记住每种颜色的含义。

10.人们并不总是走你为他们铺好的路。


六、隐藏

1.隐藏部分功能是一种低成本的方案。但是,到底该隐藏哪些功能呢?

2.个性化设置不会经常改变因此非常适合隐藏。

3.在word里,用户可以自定义所有这些按钮。但是,用户愿意在这上面花时间吗?

4.一旦搞错,用户的感觉就像是被推下了滑滑梯。

5.《纽约时报》提供的字典功能在选择单词之后才会显示。

6.细微的线索足以提示出隐藏的功能。

7.保证用户在前进的过程中能够遇到提示。但不要挡住他们的去路。

8.只要不让人找太久,隐藏就是有效的。


七、转移

1.为什么不把一些按钮精简掉,让屏幕菜单取而代之呢?

2.手机上的PunKeeper应用最适合记录数据,而网站最适合浏览这些数据。

3.今天的移动设备非常适合记录用户的所见所闻和移动路线,但通过它输入大量文字则不方便。

4.用户指挥,计算机操作,就会给人简单的感觉。

5.在有些汽车中,给后挡风玻璃加热的电阻丝,同时也是收音机天线。这是简化设计的一种方法。

6.菜刀符合专家和主流用户的预期和需求。

7.苹果的“数据检查器”能够在邮件中找到地址,并提醒你将其添加到通讯录中。

8.简单的体验需要信任。计算机之所以搞得用户不舒服,就是因为它们总是控制和指挥用户。


八、最后的叮嘱

1.到了最后,顽固的复杂性会让你觉得“按下葫芦浮起瓢”。

2.坐9号线--可是朝哪个方向坐呢?

3.给用户留下足够的想象空间。




深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和音识别、自然言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值