美国卡内基梅隆大学(Carnegie Mellon University)宣布,该大学与微软共同开发出了将人体皮肤作为大尺寸触摸屏的技术“Skinput”(英文发布资料)。只需用一只手指点触手掌及手臂等的皮肤表面,即可操作游戏等。
该技术由卡内基梅隆大学的研究生Chris Harrison与微软的研究人员共同开发而成。Skinput是在袖箍内侧安装声波传感器并将其与计算机系统连接。可根据需要配合使用手掌大小的小型投影仪。配带该袖箍后,用一只手的手指敲击手臂及手掌,其振动会转变为声学脉冲,随后在皮肤上像波浪一样传播。臂带上的传感器检测出该脉冲后,传递给分析信息的计算机。
Harrison等通过关注声波脉冲的波形及强度因敲击手臂及手掌的部位不同而发生变化这一点,开发出了根据该波形信息等通知敲击的是手臂哪一部位的软件。“在手臂上,能以95.5%的准确率判断敲击部位”(Harrison)。
Harrison表示,通过利用该功能,可操作各种便携终端。比如,在手臂上将音乐播放器的各种操作划分为几个部位,只需用手指敲击手臂,便可操作与袖箍连接的音乐播放器。如果利用小型投影仪,还可将手臂及手掌作为屏幕来收看或收听音视频以及操作游戏机及手机等。
Skinput利用投影仪等、以手掌等代替手机界面这一点与美国麻省理工学院(MIT)开发的“Sixth Sense”相似。不同的是,利用Skinput时无需使用摄像机。检测敲击部位时,Sixth Sense采用的是基于摄像机的图像识别方法,而Skinput利用的是声波脉冲。另外,Skinput完全聚焦于便携终端界面,并不是实现以计算机信息强化现实信息的增强现实(AR,augmented reality),这一点Skinput与Sixth Sense也不同。
Harrison将Skinput的开发定位于分离便携终端通信等基本功能与界面的研究的一环。目前便携终端的体积越来越小,虽然携带方便这一点非常便利,不过,界面的按钮变小或者画面尺寸变小,反而变得不便于使用。因此,“利用身边的桌子及墙壁作为界面”这一想法便是开发Skinput的初衷。
卡内基梅隆大学与微软将在2010年4月10~15日于美国亚特兰大举办的学会“28th Annual SIGCHI Conference on Human Factors in Computing Systems”上公布该系统的详细内容。