作者 / Google Design 插画 / Oscar Gronner
先关注用户,其他一切自会水到渠成。
这句话是 Google 在理论和实践上的核心姿态。这种姿态也影响着我们所做的每件事,尤其体现在对 2019 年设计项目的调研里。我们在很多设计中,都围绕用户设计总览与首页功能,从而确保日常任务的界面简化,以及提升网站整体的健康程度 (这一点尤其重要),并将这些改进迭代到各个产品的各处细节。回首 2019,设计的成果可谓繁多,这里我们总结成几组和大家分享: 帮助我们更好地进行交流的设备、让我们更接近艺术的工具/平台,释放全新自我表达方式的工具。
我们和大家接触的介面也更多了。出版了第一本《Google Design》杂志,开通了 Instagram 帐户 (@googledesign),还把 SPAN (Google 的年度设计与技术大会) 带回了纽约。在进入 2020 年时,我们每一个人都觉得灵感爆棚,希望您也一样。
△ 《Google Design》
设备,读懂你我
滑动、点击和捏合,这些操作我们已经在智能手机上司空见惯。那,如何 "翻" 看呢?——当您突然意识到自己刚才的想法不太靠谱的时候,您可能会下意识地用手在眼前挥过—— Pixel 4 就可以读懂这种下意识的动作。这项新功能就是 Motion Sense,它由雷达传感器芯片 Soli 提供支持,让您可以使用更自然的手势暂停闹钟、跳过歌曲以及静音铃声。Google 的高级技术与项目 (ATAP, Advanced Technology and Projects) 团队在这个技术上投入了 5 年的时间,目标正是让设备可以 "感性地" 理解我们的需求。
雷达传感器芯片 Soli
https://atap.google.com/soli/
如果您想要更进一步做到 "感性地" 所见即所得,全新的 Nest Hub Max 智能屏幕可以活用内置的摄像头和 Face Match 技术, 让 Google Assistant 得以更主动、更个性化地服务您和家人——是的,Google Assistant 可以认出家人的面孔。您需要做什么?走过去就行了。屏幕上会适时出现个性化的提醒、消息、天气和交通状况。
Nest Hub Max 智能屏幕
https://www.blog.google/products/google-nest/hub-max-io/
一定需要说 "嘿,Google" 吗?现在不说也可以,我们懂。
Soli 的雷达芯片可以读懂人类的手势 Google’s Advanced Technology and Projects (ATAP) (滑动图片查看更多) |
Motion Sense (由 Soli 提供支持) 让用户只需挥手即可跳过歌曲 ATAP (滑动图片查看更多) |
Pixel 能针对手势提供视觉反馈 (由 Soli 提供支持) ATAP (滑动图片查看更多) |
Soli 拆解图 ATAP (滑动图片查看更多) |
Recorder 应用内置 AI 驱动的搜索功能 Pixel Essential Apps & Google Creative Lab |
想象一下这三种体验: 随时可用的语音文本转换 (不需要在线);整理采访录音时不需要费力点击前进或者倒带按钮;听力障碍人士也能毫无压力地与他人交流,无需手语翻译。这些现在都成为了现实。
如果您不方便听声音,Live Caption 功能可以给所有您想看内容添加实时字幕,包括朋友的 Instagram 视频或者 YouTube 上的烹饪教程都没问题,而且无需联网。由 Pixel Essential Apps 和 Google Creative Lab 共同构建的 Recorder 应用,可以准确地记录与识别语音内容,并拥有 AI 搜索功能。在一段 90 分钟的采访录音中,只需输入想搜索的任意单词或声音,或是更加模糊地搜索 "讲话" 或 "音乐",Recorder 就可以把您带到对应的时间点。Live Transcribe 则由 Gallaudet 大学 (专门服务于听障人士) 的研究人员推出,它可以将音频实时转换为文本,不论用户是想和街边咖啡厅的咖啡师聊天,还是想和外国酒店的服务生聊上几句都没有问题—— Live Transcribe 支持 70 种语言!
Live Caption
https://www.blog.google/products/android/live-caption/
Recorder
https://www.youtube.com/watch?v=RVMqB4W_EH4