标签归档:交互设计

强尼·李演示超酷的Wii遥控手柄改造

今天要介绍的是卡耐基梅隆大学的一个胖子博士的人机交互系统的演示。这是我所看的第一个TED演讲,也是最喜欢的演讲之一。这个系统便宜、简单、可靠,并且非常好玩。

这个胖子叫强尼·李(Johnny Chung Lee),现在在微软工作,负责Xbox360的Project Natal(网站上有段演示,蛮好玩的) 的研究工作。在进入微软之前,他在卡耐基梅隆大学人机交互学院(Human-Computer Interaction Institute)读博。他在TED介绍的就是他在卡耐基梅隆大学时所做的工作。他改装了任天堂公司的Wii游戏机的遥控手柄(Wiimote),实现了可触摸交互式白板和3D观看器。他所用到的东西即便宜又容易获得,并且非常有趣。如果大家愿意,可以从他的网站上下载相应的软件,在自己的家里或办公室里使用他的作品(当然,你得有台Wii)。他希望这样的实现方式能让更多的人接近科技。

任天堂的Wii是一个里程碑式的产品。它的遥控手柄Wiimote使用户能通过自己的身体动作控制游戏中的人物,比如,像真实的网球运动员一样挥动手臂击球,而不是用手指按下手柄上的方向键。Wiimote上主要有三轴加速度传感器和红外摄像芯片,与Wiimote搭配的传感器棒(Sensor Bar)上有红外发射器,通过这些设备的相互协作,游戏机系统可得知玩家动作的方向和力道。如果想要了解更多关于Wiimote的技术,可以看这里

强尼·李在演讲中首先演示了电子白板。当时市面上的交互式的电子白板,售价极高,而强尼·李通过Wii改装而来的电子白板,成本只会增加5美金。他的系统原理如下图:

用户可以使用红外笔在投影布上做画或做笔记。这是一个非常实用的功能!在学校或公司里,演讲者可以一边向听众们展示PPT,一边手握红外笔在PPT上画上附加内容,而不是用鼠标来画出拙劣的图形。另外,这个系统也可以实现近年来时髦的多点操作,使用多支红外笔,便可同时操作。

强尼·李第二个演示的是3D观看器。它的原理和交互白板差不多,只是红外发光管装到了眼镜上。当检测到眼镜的位置后,系统会调整显示器中的画面内容,让观看者觉得眼前物体是三维的物体一样。3D观看器模拟了全息图像,比《阿凡达》的效果还要酷一些。因为,要是你在电影院里走动,你看到的都只是影片中物体的同一个面。比如画面中是阿凡达面朝你站着,你走到哪他都还是面朝你,你看到的一直是他的正面。而《阿凡达》如果使用了强尼·李的3D演示器的技术,当你朝左或朝右走的时候,你会看到原来看不到的东西,比如阿凡达的尾巴。

快来看看强尼·李的演示吧!


Johnny Lee demos Wii Remote hacks

强尼·李在“投影仪+红外传感”这个组合上做了很多工作。事实上,他的博士论文(这里还有一些好玩的视频)就是关于可靠且易用的交互式投影设备的,这个设备有位置发现和追踪的功能。他的网站上还有很多好玩的东西,值得一看。比如,在下面这幅图中,仓库的工作人员把投影仪朝向货物,货物的表面就会出现货物的属性。

如果看过普拉纳夫“第六感”的读者可能会发现,“第六感”和强尼·李的作品之间有相似之处,他们都使用了投影来进行交互(如果你看了强尼·李的网站,你会发现他们的更多相似之处)。他们的不同之处在于,“第六感”使用常见的摄像头捕获戴有色套的手指的图像,通过计算机视觉(Computer Vision)分析的方法来找色套的位置,从而控制系统。第六感的优点大家都已经说了很多了,这里就说一下它的缺点吧。使用计算机视觉分析的方法容易受光线的影响而降低识别率,并且,当背景中有与指尖的色套颜色相近的物体时,识别系统难以将指尖和背景区分开。另外,要实现对图像的实时处理需要成本较高的处理器。而强尼·李使用的是带红外发光管的笔,这种方法的可靠性要高许多,并且成本要低很多。

微型投影仪越来越普及,有人预计微型投影仪在几年内将成为手机的标准配置。到时,大家就可以更好地和朋友分享手机中的内容。如果再加上强尼·李的低成本交互式白板技术,分享的体验将更加愉快。你可以把PPT投影在墙上或桌上,投影区同时也是一块白板,你可以客户在任何地方开小型会议。

科学家们一直在追求自然的人机交互――把人与机器之间的交互变得像人与人之间的交互一样。人们的表情、动作、话语等交互方式所包含的信息量和传输速度是键盘和鼠标没法比拟的,总有一天键盘和鼠标是要被抛弃的。人机交互技术的发展让更多的人接近科技、感受科技、热爱科技,这也正是强尼·李所希望的。谁不喜欢好玩的东西呢?

与人机交互相关的几个好玩的TED演讲:

杰夫·汉演示突破性的触摸屏(Jeff Han demos his breakthrough touchscreen)
安那得·安格拉瓦拉演示BumpTop(Anand Agarawala demos BumpTop)
戴卫·马利尔演示Sifttable(
David Merrill demos Siftables)

本文作者:何军。

Jun He (何军)
Friday@TEDtoChina专栏组稿人

何军(Jun He)出生在山水甲天下的阳朔。他从小热爱计算机。2009年夏天,他因为一次巨烈的情绪波动,决定赴美读博。2010年秋天,他将在芝加哥开始新生活。 他的研究方向是并行计算、分布式计算和操作系统。TED演讲让他学会思考,他觉得环境与教育是当前最需要解决的问题。

博客:http://www.manio.org
联络方式:Friday at TEDtoChina dot com

布雷斯·A·雅克斯的 Photosynth 展示

====编者按====

这是一篇TED粉丝来稿,是一个全文翻译,译者是谭颖华,他翻译过三本计算机类的书,分别是这个这个这个。他这次翻译的是一个关于PhotosynthTED演讲,这个产品最早是在2007年的TED大会上亮相的,现已得到许多人的青睐。感兴趣的朋友还可以通过Photosynth回顾奥巴马就职典礼之盛况。更有趣是,布雷斯还应用先进的软件技术,发现古登堡并不是近代印刷术的发明者,对此感兴趣的朋友不妨看看这个报道

======

首先,我要用最快的速度为大家演示一项新技术的基础研究成果。正好是一年前,微软收购了我们公司,而我们为微软带来了这项技术,它就是Seadragon。Seadragon是一个软件环境,你可以通过它在本地或者以远程的方式与浩瀚的可视化数据进行互动。


Blaise Aguera y Arcas: Jaw-dropping Photosynth demo

我们在这里可以看到许多许多GB级别的数码照片,对它们可以进行持续并且平滑的放大,还可以通过全景的方式浏览它们,甚至可以通过任何需要的方式对它们进行重新整理。不管所见到的数据有多少、图像集合有多大以及图像本身有多大,Seadragon都拥有这样的处理能力。以上展示的图片大部分都是由数码相机拍摄的原始照片,但这个例子则不同,它是一张来仔国会图书馆的扫描图片,拥有3亿个像素。然而,浏览它并没有什么区别,因为限制系统性能的唯一因素只是:你所使用的屏幕的像素。

Seadragon同时也是一个非常灵活的架构。举个例子,这是一本完整的书,它的数据是非图像的。这是狄更斯所著的《荒凉山庄》,一列就是一章的内容。我给大家证明一下这真的是文本而不是图像:(雅克斯把图像放大)大家可以看出这真的是文本,而不是一幅图片。也许这会是一种阅读电子书的方式,但是我可不推荐这么做。

接下来是一个更加实际的例子,这是《卫报》遇到的一个问题。每个章节都会以一张大图片作为开篇,而报纸或者杂志的纸质版本本身就包含了多种比例的图片,在阅读的时候,读者会得到更好的阅读体验,从而享受阅读的乐趣。对《卫报》遇到的特殊问题,我们进行了研究,在一定程度上解决了这个问题。我们虚构了一个高精度的广告图片——这比你平常看到的普通广告的精度要高非常多,同时在图片中嵌入了额外的内容。如果你希望看到这辆车的特性,你可以看这里。通过这种方式,你还能看到其他的型号,甚至技术规格。这种方式在一定程度上避免了屏幕实际使用面积(screen real estate)的限制。我们希望这个技术能够减少不必要的弹出窗口以及类似的垃圾信息。

显然,对于这项技术的应用,制图也是那些显而易见的应用程序之一。对此,我真的不想花费太多的时间进行介绍,我只想告诉大家我们已经对这个领域做出了自己的贡献。不过,这些只是在NASA的地理空间图片基础上进行叠加处理而得到的美国国内的道路地图。

现在,我们先放下对这项技术应用的讨论。实际上,这项技术放到网上了,大家可以自己去体验一下。这个项目称为Photosynth,它实际上融合了两个不同的技术:一个是Seadragon,而另一个则是源自华盛顿大学的研究生Noah Snavely所进行的计算机视觉研究的成果。这项研究还得到了华盛顿大学Steve Seitz和微软研究院Rick Szeliski的协助。这是一个非常漂亮的合作。这个项目在互联网上已经得到应用了,它是基于Seadragon技术构建的。你可以看到,我们轻松地对图片进行多种方式的查看,从而能够对图片进行细致的剖析并且拥有多分辨率的浏览体验。不过,这些图片在空间的排列事实上是非常有意义的。计算机视觉算法将这些图片联系到一起,那么这些图片就能够将真实空间呈现出来了,而我们正是在这个空间里拍下了上述的照片——这些照片都是在加拿大落基山脉的格拉西湖(Grassi Lakes)附近拍下的——(所有照片)都是在这里拍下的。因此你可以看到这里的元素是稳定的幻灯放映或者全景成像,而这些内容在空间上都是关联的。

我不能确保自己有足够的时间向大家演示其它一些更加立体的环境,那么我还是直接介绍Noah最初使用的数据集之一向大家演示这项技术背后真正关键的地方。该数据集来自Photosynth的早期原型——我们在这个夏天一起研究的成果。同时,这个环境与那些已经摆上网站的相比,并不是那么易于辨别,毕竟我们还是担心律师或是其它人。

这是通过Photosynth构建出来的巴黎圣母院图像,这完全是根据Flickr上图片进行计算的结果。大家在Flickr上键入Notre Dame就可以找到很多图片,一些来自短袖衫上的图片,一些则来自校园等等。而这些圆锥体中的每一个都代表着所属模型被呈现时的图像。也就是说所有这些Flickr图片在空间上都是以这种方式关联的,而我们只是以这种非常简单的方式进行对图片进行浏览。(观众掌声)

大家都知道,我并没有想过自己最终会到微软工作,在此能够受到这样的待遇真让人心满意足。好,我想大家会发现这些图片源自许多不同种类的相机——从手机上的相机到非常专业的单眼反射照相机等等,种类繁多。而这些图片在这个环境中被连接在一起。同时,如果需要,我还能找到一些不可思议的图像,譬如它们当中的很大一部分都被人脸或者其它图像所掩盖。

事实上,这里的图片都是一些一系列的照片,我们接着来看。这实际上是一张拍摄效果很好的巴黎圣母院海报,我们可以从海报进入到巴黎圣母院的背景当中。这里真正的要点在于我们可以通过一个社会化的环境来完成某项工作:从每个人那里获得数据,而数据来源于集体的记忆——也就是“地球看起来是怎么样”的视觉记忆,然后将所有这些数据联系在一起。当所有这些照片联系在一起之后,它们就会让某个环境自然而然地涌现(emergent)出来,这可要比照片单纯的叠加要棒多了。最后,大家将会得到显现整个地球的模型。我们可以将这个想像成Stephen Lawler的杰作——Virtual Earth的长尾。随着人们不断地使用它,复杂性也会不断增加,而对于用户来说,获益也会越来越大。因为他们自己的照片已经被某些人输入的元数据打上了标签。如果某些人会觉得困扰:给自己照片打上标签的圣人是谁呢?自己的巴黎圣母院照片因为这些数据忽然变得丰富起来,还能够以此作为一个入口,进入到相应的空间——某个虚拟的空间,使用所有人的照片,实现跨模型以及跨用户的社会化体验。当然了,地球上每个有趣的部分都会产生无限丰富的虚拟模型,而这个副产品并不是来自鸟瞰式的飞行拍照或者卫星图片等等,而是来自集体的记忆。非常感谢!

克里斯·安德森问:我这样理解正确么:在将来某个时候,就是未来的几年内了,通过你的软件,全世界任何人分享的照片都能够联系在一起?

雅克斯答:是的。软件所做的实质事情是发现,如果你需要,它会在图片之间创建超链接,而这个链接是基于图片的内容来实现的。大家可以想象一下大量图片所拥有的语义信息是何等丰富,这让人真的十分兴奋。在网络上搜索图片的时候,输入了某些短语,而网页上包含了大量描述图片内容的信息。现在,如果这张图片链接到你的所有图片,又会怎样呢?那么语义相互结合的总量是非常巨大的,而由此而产生的语义丰富性的总量也非常巨大。这将是一个经典的网络效应。

相关阅读:

2009TED大会专题» 蒂姆·伯纳斯·李:让数据走向开放、透明

TEDtoChina signature

您可以通过RSS阅读器订阅“TED中国粉丝团”的文章:
http://www.tedtochina.com/feed/
欢迎发表评论,参与“TED中国粉丝团”的讨论组,或者在 twitter 上面 follow 我们。
参与越多,您也会学到更多。