Surface Computing在学术界里已经研究了良久,最让人震撼的是MIT天才学生(来自印度)的那个介绍自己作品的视频(链接)。Surface Computing其实是一种新的人机交互范式,撇开了传统的人机交互设备:鼠标键盘等。而是通过触摸以及手指的动作来进行操作,用一个投影仪讲界面投影在任何一个地方,桌子上,墙上,地板上,公交车上。呵呵。 神奇的是,可以手指拽着照片的两角就可以放大和缩小了,而且可以用手指来进行摄影。者等等就是surface的概念。
据国外媒体报道,微软和卡内基梅隆大学正在研发一种电子设备,可将人体手臂当作触摸显示屏。
这项被称为Skinput(意为“皮肤输入”)的系统包括一个可在手臂或手上投影键盘的投影工具,以及一个包括感应工具的类似于臂章的设备,在用户敲击手臂上的“键”时,该感应设备可以感知不同的振动,然后将其转化为指令,通过无线连接传送给设备。
开发人员表示:“这一技术可以提供一种随时随地、自然便携的人体输入系统。我们的实验已经表明,这一系统可以有效地识别很多手势,甚至是在人体处于运动状态的时候。”
这一系统使用两种感应技术:第一种感应技术可以感知一种特殊的、低频率波段,通过皮肤的颤动进行传播;另一种感应技术可以感知高频率的波段,捕获通过骨骼传播的信号。
开发人员使用了不同的触摸显示设置,包括分级菜单、滚动菜单和数字键盘。研究人员发现,通过敲击手臂上十个不同的“键”,这一系统的准确率可以达到80%以上,敲击的键越少,准确率越高。甚至在人体慢跑时,这一系统仍然有效,只是准确率略有下降。
微软推出桌面计算机 掀起界面操作革命
在《华尔街日报》的“D: All Things Digital”会议上,微软演示了一种“Surface Computing”(表面计算)技术,并由此组建了一个“Surface”平台,无需鼠标和键盘,只用双手和触摸屏,就能即时、交互地轻松管理自己的数字内容。
所谓“Surface”,就是一个表面安装了30英寸显示器的工作台,分辨率1024×768,刷新率60Hz,内部驱动硬件包括Pentium 4 3GHz处理器、2GB内存、标准桌面独立显卡、电源、立体声扬声器、红外照明灯等,成像部分则是五个重叠的镜头和一个短焦广角DLP投影仪,镜头距离桌面21英寸,也就是半米多。
该显示器可以直观地显示各种数字内容,用户只需伸出手指,就能轻松浏览各种图片、音乐、视频文件,而且Surface可以接收多个触摸输入信号,因而支持多人同时操作,最多可以十来个人一起分享。
想想《少数派报告》里汤姆-克鲁斯的操作,Surface跟那个就很类似,可以触摸、拖拽对象,只不过虚拟显示屏换成了实体显示器。
如果是在餐馆、饭店里,一旦有了Surface,再也不用拿着菜单翻来翻去,轻轻一点就能得到饭菜或饮料,而且Surface可以读取条形码,从而提供更多信息,“这就意味着客户只要把酒杯放在桌子上,餐馆就能提供他们想要的酒的信息,包括它产自哪家葡萄园,甚至给出适合这顿晚餐的食物。这种体验是非常真实的,可以让客户直接在餐桌上了解葡萄种植地区的情况,甚至查看推荐的旅馆,制定旅游计划”。
微软还指出,Surface同样可以传输数字内容,所以可以把你的Zune播放器放在Surface上,把你的播放列表或者要播放的视频文件传到显示器上。
其实,这并不是一种全新的技术,苹果的iPhone上就有该技术的简化版,纽约大学计算机系的Jeff Han也在去年演示过更灵活的“多触点”(multi-touch)技术,但微软决定在Surface上大规模采用这一技术。
微软Surface已经秘密研发了五年之久,现在已经基本成熟,很快就会投入实用,确切地说是今年11月份,首批供应赌场连锁哈拉斯娱乐、喜来登度假酒店、T-Mobile零售商店、国际游戏科技公司(IGT)等。
微软CEO鲍尔默表示:“有了Surface,人们就可以借助更直观的方式与科技进行交互。这是一个价值数十亿美元的新领域。我们可以想象,在未来的某个时候,表面计算技术将普遍深入人们的生活,从桌面到走廊无处不在。Surface是实现这一梦想的第一步。”
微软已经为Surface开设了官方网站,在那里可以形象地体验Surface技术的奇妙。另外微软还给出了一段长达18分钟的视频,讲解Surface技术。
下面是Surface的立体透视图:
1.屏幕 2.红外传感器 3.CPU 4.投影仪
Surface操作演示:
Surface运行截图:
参考自:网易
表面计算在维基百科的解释:
Surface computing is the term for the use of a specialized computer GUI in which traditional GUI elements are replaced by intuitive, everyday objects. Instead of a keyboard and mouse, the user interacts directly with a touch-sensitive screen. It has been said that this more closely replicates the familiar hands-on experience of everyday object manipulation.[1][2]
Early work in this area was done at the University of Toronto, Alias Research, and MIT.[3] Surface work has included customized solutions from vendors such as GestureTek, Applied Minds for Northrop Grumman,[4], and SmartSurface. Major computer vendor platforms are in various stages of release: the iTable by PQLabs,[5] Linux MPX,[6] and Microsoft Surface.