如何解决kinect 动作捕捉在动态动作识别开发的问题

                                                                         ----微软Build2012大会:Kinect for Windows Programming Deep Dive
    这个周末看了两天的微软大会,真的是一次盛会,上面有很多的演讲主题,都是微软相关技术和产品的最新动态,我比较关注.NET、WPF、Office及Kinect相关开发,上面的演讲视频和PPT都可以下载,个人觉得比较精彩的有 ,回顾了微软推出.NET以来的历次开发者大会推出的新版本和新特性,里面还有10多年前比尔盖子老师在开发者大会上宣布.NET战略时的演讲视频,不觉得感叹岁月是把杀猪刀啊。
介绍了不同于以往的以VBA,SharedAddIn,以及VSTO的全新的Office开发方式OfficeApp,、介绍了如何使用各种我们熟悉的技术如Html、Javascript、C#等来构建OfficeApp。上面还有很多关于Windows Phone 8,WPF4.5等相关的介绍,主题很多,强烈建议大家有空可以上去看看。
    大会上关于Kinect开发有三个,第一个是微软研究院讲的这个PPT比演讲视频都大,达到了罕见的997M,为啥这么大呢,因为里面嵌入了一个长达40分钟视频,哈哈,这个演讲主要演示了微软研究院正在进行的各种人机交互,虚拟现实等研究,非常的Cutting-edge,里面也有和Kinect相关的部分,有兴趣的可以看看。第二个是,一则关于Kinect应用程序设计是应该考虑的问题比如交互方式的设计的演讲,我没有太仔细看,不过内容应该和内容差不多,您可以在Kinect Developer Toolkit中查看。第三篇演讲是   我将这个翻译为了深入理解Kinect for Windows开发,相对来说该演讲和Kinect开发比较相关,现与大家分享,该演讲上面写的级别为 300-advanced,个人觉得这个演讲内容其实很简单,只是对Kinect能够获取的相关数据源,Kinect SDK处理过了的可供识别的数据源,以及未来的趋势和大家做了一下介绍。Kinect SDK中其实没有太多的东西,真正的则在于各种模式识别算法,比如通过深度数据,红外数据,进行各种物体识别等等,有了这些数据,尤其是1.6版本的SDK提供的获取红外原始数据,就可以通过这个数据,结合深度数据做出很多非常令人惊叹的应用来。废话不多说了,下面和大家分享一下该演讲的主要内容,也算是一个关于Kinect开发的比较好的入门介绍吧。
    演讲大体分为5个部分,第一部分介绍了Kinect SDK的开发方式以及运行环境,第二部分是写代码,讲解Kinect中的一些彩色,深度,骨骼等数据的处理和显示,第三部分讲解了传感器直接产生的数据流,包括彩色,深度,红外,语音,加速器数据源,第四部分讲解了经过Kinect SDK对原始数据流处理后的可供用来进行直接识别的,骨骼,语音及面部识别数据源,最后一部分讲解了未来Kinect可进行的一系列应用。现在先来看第一部分吧。
二 Kinect应用场景及开发环境
    首先介绍了一下Kinect的应用场景。主要有三大类方面的应用。第一是自然人机交互界面。比如说一些像少数派报告中的那种用手指非接触即可操纵大屏幕上的显示内容。这在一些高科技或者科幻类电影中经常能够看到这类的场景。还有一些就是在国外已经有的应用如Kinect虚拟试衣间,Kinect车展演示广告,Kinect 手术室影像操作,还有, 等等,这些自然人机交互界面的应用带来了新的用户体验。第二种是自然环境识别,比如根据Kinect 产生的深度数据,红外数据对物体进行三维扫描重建,利用Kinect进行机器人导航进行障碍物自动回避等。第三种是自然用户的识别,比如说利用Kinect来进行姿势识别,人脸识别。比如说一些大家比较熟悉的XBOX360 中的 ,,等体感游戏,这些都是利用Kinect的一些数据来进行用户的动作识别,从而参与到游戏中的互动。还有一些增强现实的应用,利用了上面的三个方面的特性,比如说利用Kinect来将荧幕变成触摸屏,并在上面可以进行各种操作,等等应用。
    要开发上面的应用,首先要了解一下开发环境,如这张幻灯片所示:
    Kinect 提供了非托管(C++)和托管(.NET)两种开发方式的SDK,如果您用C++开发的话,需要安装Speech Runtime(V11),Kinect for Windows Runtime和驱动的,如果您使用C#和VB.NET的话,需要Microsoft.Kinect.dll和Mirosoft.Speech.dll两个dll,这两个其实是对前C++里面的两个dll的.NET封装,不论何种开发,您都需要安装driver,所有这些都包含在Kinect SDK安装包中,安装方法您可以参考之前的。Kinect开发支持Windows7/Windows Embedded Standard/Windows8操作系统,最新的1.6版本的SDK还支持虚拟机里面的Windows系统,不过只要年代不太久远的Windows系统应该都是可以的。上面写的最好使用.NET 4.0/4.5也只是建议,老版本的应该也行。如果是使用.NET开发方式的话,您需要安装.NET Framework,IDE可以使用Visual Studio 。
三 代码演示
    这部分主要是通过编写代码演示Kinect的各项功能,代码我在这里就不讲了。
    首先第一个演示是显示彩色影像,比较简单。然后是结合深度影像数据显示彩色影像数据上对应某一点的深度值。
     图上使用鼠标点击就能够加上一个标签,标签里面的值是该点的深度值,这个功能应该是比较好实现的,主要是展示如何使用彩色影像数据和深度数据,您如果感兴趣的话看完应该就能实现这个功能。
    然后演示了骨骼追踪功能,图中追踪了头部,双手的位置,并显示了两只手所处的深度值,头部上显示的Tracking ID,Kinect能同时追踪6个待选目标,但只有两个目标处于活动状态。每一次追踪都会分配给目标一个Tracking ID。
这个功能主要演示了如何使用骨骼数据,您如果感兴趣的话看完应该就能实现这个功能。
     除了1.5及之前能够提供的各种数据之外,1.6 的SDK提供了红外影像数据,您可以利用数据校准彩色影像数据,使得在较暗的条件下也能够进行人物识别。其实Kinect骨骼识别主要是通过深度数据来实现的,而深度数据是通过红外发射接收产生的,1.6版本的SDK提供了我们直接访问和操作红外数据的能力。
    第四个Demo是演示了Kinect的面部识别功能,Kinect的面部识别是在1.5 SDK中引入的,可以识别最多达一百多个面部特征点,下面是演示的Demo:
    上面的功能在Kinect Developer Toolkit中有实例和源代码,您可以下载查看,入门的话,您也可以看,比较简单的对使用FaceTracking的一点介绍。
    Kinect除了这些功能之外还有强大的语音识别功能,在这篇演讲中没有演示出来,不过在这篇演讲的视频中,您可以体会该改功能的强大,Kinect语音识别不仅能够识别出声音,而且还能对声音的来源方向进行识别,且具有强大的去噪增强功能,要了解这些你可以看,对Kinect的语音识别做了一些简单的介绍。
四 Kinect数据源及应用
    Kinect开发涉及到的数据源分为两类:
    一类是传感器本身产生的原始数据源,比如说彩色影像数据源,深度影像数据源,语音数据源,红外影像数据源,加速计数据源,其中红外影像数据源,加速计数据源是在1.6的SDK中新加入的。下面这张图很好的说明了各个数据源:
    第二类数据源是,SDK中通过一些算法识别出来的可以直接拿来进行识别的数据源,他们包括:骨骼追踪,语音识别,面部识别数据源。
    可以看到,骨骼追踪数据源是在深度影像数据源的再通过一系列算法实现的,语音识别是通过语音数据源再通过一系列算法实现的,而面部识别则综合了彩色影像、深度影像和骨骼追踪为系列数据源的再通过一系列算法实现的。这些功能都是通过SDK来实现的。
    有了这些数据源,就能够进行各种应用了:
    典型的应用有绿屏抠像,这个功能在一些电视节目录制,比如天气预报节目中都是应用的这个实现的,他把任务从背景中分离出来,然后可以随意的更换背景,这个功能用到了影像数据和深度数据,你可以参考,里面有一个简单的例子。第二个应用是产生点阵云,就是通过Kinect的深度影像数据产生每个点的位置信息然后生成三维模型。如下面这个例子:
    图中左边是通过Kinect的深度影像数据产的三维建模图像。
    第三个应用是魔镜功能,我觉得应该是一些类似哈哈镜效果或者是IOS中的Photo Booth应用,主要用到了彩色影像数据,面部识别,骨骼识别等功能。还有一些就是虚拟试衣间这样的功能,最后的一个应用场景就是各种NUI交互界面了。
    除了以上的几种典型的数据源之外,还展示了下一步的计划,比如说针对景深数据进行进一步处理的Kinect Fusion数据源。
    下面是演示的例子:图中,右边桌子上摆放了一个茶壶,然后利用Kinect对该茶壶进行了三维建模,然后。移除右边实物茶壶后,用户可以对虚拟的茶壶进行各种操作,神奇吧,这些都是下一个版本或者是将来的SDK能够方便我们或者简化我们实现这些功能准备添加的功能。
到最后展望了下一步要进行的工作:
    可以看出Kinect的愿景是使得计算机能够看到、听到、能够更加理解周围的人和环境。
    Kinect SDK的版本发布是很快的,自从今年二月份发布了Kinect Sensor for Windows 体感仪及Kinect for Windows SDK 1.0官方版本以来;5月21日 发布了以及1.5的Developer Toolkit及调试工具Kinect Studio 1.5,不久又发布了Developer Toolkit 1.5.1及Developer Toolkit 1.5.2;10月9日发布了和Developer ToolKit,同时宣布正式在大陆开售Kinect Sensor for Windows体感仪。每一个版本都增加了一些新的功能。相信下一个版本的SDK 也会有新的功能加入。
    相信大家看了这个演讲之后应该可以感受到Kinect带来的变化,也相信以后Kinect开发能应用到日常生活中的例子会越来越多。
    最后,希望大家有空到Channel9上看真人演讲哦,上面还有很多有意思主题演讲,所有演讲的PPT都可以在线看,视频都提供下载,当您不确定那个演讲想不想看时,可以看看下面的在线屁屁踢哦,当然除了那种900多M的变态PPT之外其他的都可以在线浏览,这样您就可以迅速的了解演讲内容以及对该内容有没有兴趣啦。
阅读(...) 评论()微软亚洲工程院马宁:如何开发一款Kinect应用 _业界_科技时代_新浪网
微软亚洲工程院马宁:如何开发一款Kinect应用
  日,TUP第十二期“移动开发技术沙龙――次世代人机交互接口及应用开发”在中国科学院计算技术研究所一层报告厅举行。本次活动邀请了微软亚洲工程院软件工程师马宁、神念科技大中华区总裁张彤和科大讯飞副总裁江涛,进行主题演讲。其中马宁为大家带来了大家所不知道的Kinect的那些事儿,通过一个关于奥巴马的笑话开场,奠定了整个演讲的欢乐氛围。
  CSDN当然不会让没有机会来到现场的读者仅仅依靠一些微博上的消息来解渴,以下就是我们整理的现场马宁演讲实录,同时在文章末尾会有PPT演示。
  马宁神情严肃的讲一个关于奥巴马的笑话
  谢谢大家,很高兴能够跟大家聊一聊。我叫马宁,现在微软亚洲工程院做产品开发。在04年开始就帮CSDN写移动开发的专栏。先做一个声明,今天所说只代表我自己。有些时间具体细节我们一块来探讨,回去之后大家直接在新浪微博上找就可以了。
  接下来跟大家聊聊Kinect开发。Kinect主要用来进行体感游戏动作捕捉,后来大家发现这个非常有前途有价值,原因在哪?所有动作捕捉和识别都是做在硬件设备里面,但是Kinect其实是个变形的USB接口,所以接换到不同平台非常简单。在这样一个平台之下我们会发现有很多新的应用领域,等待我们去探索。
  微软现在已经有两个SDK,第一个针对Windows,另外一个是针对微软机器人开发组件。以后可能微软会针对其他平台做开发。已经有开发者社区把Kinect往iPhone、Android上移植了,推广速度非常快。我们今天讲座以八卦为主,以技术为辅,尽量讲一些Kinect的事情,技术事情回头探讨。我们先插播一个非常严肃的科技新闻,这个一定要强调非常严肃的。最近在西方主流八卦媒体上流传着一条新闻,主角是英俊潇洒的奥巴马。大家开玩笑奥巴马通过远程控制方式直接亲手击毙了本拉登,这个到底是否真实,需要白宫发言人澄清。但是从那之后,奥巴马总统发现自己不但在政界混的风声水起,在游戏界也是如此。就问助手能不能不用手柄玩?就是Kinect上面的游戏,他准备去玩。这时候听到一个新闻,说最近实验证明Kinect在光线不足的情况下,对皮肤较黑的同志们识别不足。美国很多同志开始考虑Kinect这种技术是不是涉嫌种族歧视,在美国这很严重。在这时候一些开发者社区,说不能让我们总统连Kinect都玩不了!他们做了一个测试,估计在网上也应该能够看到一些视频,请了美国某明星做测试。具体测试的过程就不说了,总之最后测试结果表明,无论房间光线、环境、玩家肤色和穿着如何,用户体验是完全一致的。后面我也会从技术、Kinect原理给大家说一下,确实是没有任何关系的。
  只是因为周末给大家讲个段子,简单让大家去了解一下,Kinect推出之后整个花边消息。这也是一个正常现象,开始一个新技术被大家所认识,花边新闻总是先占据大家视野。在后边整个演讲里面,请大家也抱着玩的态度,想想这个技术还能利用在哪些领域,有什么创意。很多看起来不靠谱很搞笑的思想,也许是下一个伟大产品的开始。我们插播完这条很严肃的新闻,接下来非常严肃。
  第一介绍一下什么是Kinect;第二是Kinect的发展历史,虽然不是很长;第三介绍Kinect Windows SDK的整个开发过程;第四介绍Kinect开发环境、硬件和软件搭配;第五把Kinect主要的几个功能,用非常短的代码跟大家介绍一下;最后会有一个事例,当然这个事例也不是非常难。大家有时候开玩笑Kinect必须是双人,一个人站着,另外一个人在旁边协作,这就是我们今天所说的一些主要内容。
  关于Kinect的大众所不知道的那些事
  Kinect首先是一个XBox 360外接体感设备,通过无线方式捕捉动作感知。由PrimeSense提供Range Camera技术,同类产品如任天堂Wii、Play Station Move,必须让玩家手里拿一个或者多个设备,才能完成所谓体感互动。
  Kinect最早定位是XBox 360外设,不需要任何道具完成整个动作识别和捕捉。他能够做的是两个,动作识别动作捕捉和3D立体语声识别。这是一个后台,所有的语音识别都是利用这个方式来做的。不过很遗憾,现在对汉语支持相对来说差一点,下面也会有语言识别方面专家来进行撰写,我们也特别希望能够把我们自己国内语言做的非常好。Kinect整个软件派发,之前也有一些八卦新闻,说Kinect技术是PrimeSense提供,然后找微软等等。任何一款成功产品都不是借助一个技术就能够实现的,所以在Kinect里有非常多的技术。
  Kinect主要识别算法和软件部分都是公司提供的,他是微软旗下一个游戏工作室,是微软全资持有公司。识别算法、跟软件相关的一些逻辑都是由这家公司实现的。国内外也有一些所谓可见光、或者红外识别公司,他们也是从这家公司拿到一些著作权。大家可以试他们产品,跟微软还是有差别的差别。国内还是采取主机,算法是自己写的,或者通过其他方式来获取,相对精度差一点。
  Kinect发展历史并不长。由于一些授权问题,如果在开发的过程之中就把软件名字发布出来,最大问题就是域名申请,当然还有其他很多问题。所以,不到产品发布那一刻微软的产品永远就只有CodeName,只有在产品发布最后1到2周的才会有一个正式名。当然也会存在一个问题,有的时候CodeName名字起的非常漂亮,到正式产品发布出来的时候名字也不是很好听。Kinect最早的CodeName是Project Natal。从2010年10月份开始上市,到号销售超过一千万部,有史以来销售最快的销售类电子产品。
  另外,他可以是一个包装形式,也可以是一个单独外设,国外售价应该是169美金。但是在国内前两天有人给我留言,说淘宝已经卖到700多人民币。现在也有淘宝的朋友到我微博上拉生意了,还是非常有前途的。
  前面我们也说过了,Kinect这个东西所有运算逻辑都是在预算本身完成的。说白了你只要实现一个USB,再做一个识别器就可以完成整个转换。所以,难度非常小,正由于这个原因现在被应用到不同领域里面。在微软发布官方Kinect SDK之前,有两个比较出名的项目,其中有一个openKinect。openKinect确实在配置和编程还有很多不足。而官方Kinect SDK整个配置非常简单,这也是微软一贯方式,他不但做了USB开发模式,还有相应API都做的非常好。Kinect的动作捕捉的机器学习技术,获得2011年MacRobert Award工程创新大奖。
  Kinect技术指标包括:输出视频帧率为30Hz、B-bitVGA分辨率(640&480 pixels),由于识别率大家觉得能够支持手指识别,据说在下一步Kinect更新后,分辨率会大幅提升。那个时候去捕捉手指上的动作都是可以的。最佳识别区域是1.2-3.5m,并且由于房间限制,两边可扩展区域0.7-6m,两边是一个梯形状态。很多同志买了Kinect之后都感慨自己房间不够大,一般客厅在这边放一个电视,那边有一个沙发,空间确实不太够。后来有人想了各种各样的办法,比如把Kinect固定到你的液晶电视上,反正他所能够做的方式是千奇百怪的。
  Kinect最多可以支持4个人的识别,但是真正有效的可视识别最多支持两个人。并且有一点,两个人的位置不能交叉。必须是一个人站在左边,一个人站在右边,不能一前一后或者其他方式,这是目前的技术上的限制。另外,他的可视区域水平范围是57度,垂直范围是43度,其实上下浮动角度可调。一种方式是水平向上,这种方式适合家里有电视机柜,还有放在电视机下面有一个俯视的角度,Kinect会自动调整俯仰角度。
  每个人身上可以支持20个动作节点的捕捉,传统电影里面动作捕捉,美国是一个小时几千美金。你如果使用这个系统几千美金,Kinect使用是在你身上去粘各种各样的点,那种动作捕捉是非常精确,对于一些电影,或者游戏里面的动作捕捉是非常适用的。当然成本也非常之高,因为会把你人的3D影像跟一体动作全部输入电脑里面去,进行大量过滤还有处理方式。Kinect现在也有人拿它来做一个简单动作识别捕捉,当然了价钱非常便宜。但是,技术限制也非常明显,一个是捕捉点不够多。另外他只能够捕捉正面和侧面的一些动作,背面一些动作没法完全捕捉下来。现在Kinect只是能够替换掉一些简单的动作识别,或者动作捕捉的一些设备,不够把那种传统所谓复杂的动作识别,或者动作捕捉系统完全能替代掉,那套系统还是会在他的领域里面会运行非常好。但是Kinect的一个好处是,可以让一些更廉价的领域能够使用到所谓动作识别,和动作捕捉的技术,这是他的技术指标。
  关于Kinect的开发和SDK
& 相关专题:
电话:010-
更多关于&& 的新闻<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN"
您的访问请求被拒绝 403 Forbidden - ITeye技术社区
您的访问请求被拒绝
亲爱的会员,您的IP地址所在网段被ITeye拒绝服务,这可能是以下两种情况导致:
一、您所在的网段内有网络爬虫大量抓取ITeye网页,为保证其他人流畅的访问ITeye,该网段被ITeye拒绝
二、您通过某个代理服务器访问ITeye网站,该代理服务器被网络爬虫利用,大量抓取ITeye网页
请您点击按钮解除封锁&基于Kinect的人体姿态检测与动作识别技术的研究--《沈阳工业大学》2015年硕士论文
基于Kinect的人体姿态检测与动作识别技术的研究
【摘要】:人体姿态、动作识别是计算机视觉领域重要的研究方向,涉及图像处理、模式识别、人工智能等多方面学科的交叉,并在人机交互、智能视频监控、健康监护、虚拟现实和运动分析等领域有着广泛的应用。然而,以传统2D视觉的方式对人体姿态进行识别还有很多基础问题没有得到解决。随着图像获取技术的发展,特别是能够获取深度信息的Kinect体感摄像头的出现,为姿态识别研究者提供了新的契机。目前,深度图像主要用于三维场景重建,人体姿态、动作识别相关研究尚处于起步阶段,虽然Kinect SDK提供了骨骼跟踪的API,但是没有提供更高层次的姿态识别API,主要原因是人体姿态千变万化,无法构建出一个通用的识别模型。本课题通过Kinect骨骼跟踪技术得到20个人体骨骼关节点,针对日常生活中典型的人体姿态和交互式动作识别技术进行研究。首先,在了解骨骼数据特点的基础上,结合人体结构提出了一种距离特征和角度特征模型,该模型计算复杂度低,具有组合性,实验表明该特征模型具有一定的不变性,能够满足本课题姿态、动作识别研究需求。其次,通过问卷方式对日常生活中典型的静态姿态进行调查,选择一些典型的姿态形成姿态识别库,设计开发姿态样本采集程序并进行样本采集,设计基于KNN的姿态识别算法,并通过识别实验验证本方法具有可行性。最后,在动作识别方面,实现了动作在Kinect平台下的表示,在分析动作识别具有时空复杂性后,结合动态时间规整的思想解决动作序列在时间轴上不一致的问题,设计基于DTW的动作识别算法。基于本文提出的特征提取和动作识别方法实现了动作识别实验系统,该系统能够进行动作的训练和识别。定义6种交互式手势动作,实验结果表明本方法能够在此动作库上获取较高的识别率,结果验证了本方法的有效性和鲁棒性,能够满足交互任务需求,同时该系统具有一定的应用价值。
【关键词】:
【学位授予单位】:沈阳工业大学【学位级别】:硕士【学位授予年份】:2015【分类号】:TP391.41【目录】:
摘要4-5Abstract5-10第1章 绪论10-13 1.1 课题背景及意义10-11 1.2 研究内容11 1.3 论文结构11-13第2章 研究现状与发展趋势13-20 2.1 人体姿态识别相关研究13-16
2.1.1 基于穿戴式传感器的方法13-14
2.1.2 基于计算机视觉的方法14-16 2.2 Kinect相关研究16-18 2.3 Kinect人体姿态识别的相关研究18-20第3章 Kinect开发平台20-31 3.1 Kinect简介20-21 3.2 深度图像获取技术21-23 3.3 骨骼跟踪技术23-25 3.4 Kinect SDK25-27 3.5 骨骼数据获取及分析27-30 3.6 本章小结30-31第4章 基于骨骼信息的特征提取31-42 4.1 Kinect姿态、动作识别技术路线31-33 4.2 骨骼数据特征提取的不变性33-34 4.3 特征提取技术34-38
4.3.1 距离特征34-36
4.3.2 角度特征36-38 4.4 特征评估实验与分析38-41
4.4.1 实验者与实验设备38
4.4.2 实验程序开发环境38
4.4.3 实验过程与实验结果38-41 4.5 本章小结41-42第5章 静态姿态识别方法的研究42-51 5.1 日常生活中静态姿态调查42-43 5.2 姿态库的选择43-44 5.3 姿态样本库的建立44-47
5.3.1 姿态描述方式44-46
5.3.2 样本库采集46-47 5.4 静态姿态分类识别47-50
5.4.1 静态姿态的表示47
5.4.2 KNN分类器原理47
5.4.3 基于NN的姿态识别算法设计47-48
5.4.4 线下姿态识别实验48-50 5.5 本章小结50-51第6章 动作识别方法的研究51-66 6.1 基于姿态序列的动作表示51 6.2 时间序列的识别问题51-53 6.3 动态时间规整原理53-54 6.4 基于DTW的动作识别算法设计54-57
6.4.1 动作序列规整距离计算54-56
6.4.2 识别算法设计56-57 6.5 动作识别实验系统设计与实现57-65
6.5.1 系统开发的软硬件环境57
6.5.2 系统的逻辑架构及模块流程图57-61
6.5.3 系统实现61-62
6.5.4 动作识别实验与分析62-64
6.5.5 系统的应用64-65 6.6 本章小结65-66第7章 结论66-68参考文献68-73附录A 程序源代码73-75在学研究成果75-76致谢76
欢迎:、、)
支持CAJ、PDF文件格式
【相似文献】
中国期刊全文数据库
胡雅琴;;[J];电视技术;2013年S2期
倪世宏,史忠科,谢川,王彦鸿;[J];计算机仿真;2005年04期
程祥;;[J];电脑知识与技术;2006年20期
黄飞跃;徐光祐;;[J];软件学报;2008年07期
徐光祐;曹媛媛;;[J];中国图象图形学报;2009年02期
黄丽鸿;高智勇;刘海华;;[J];现代科学仪器;2012年02期
周艳青;王磊;;[J];山东轻工业学院学报(自然科学版);2012年01期
曹琨;;[J];中外企业家;2014年05期
刘博;安建成;;[J];电视技术;2014年05期
王燕;张绍武;凌志刚;潘泉;;[J];计算机仿真;2008年10期
中国重要会议论文全文数据库
袁飞;程韬波;周松斌;肖先文;;[A];广州市仪器仪表学会2009年学术年会论文集[C];2010年
黄飞跃;徐光祐;;[A];第三届和谐人机环境联合学术会议(HHME2007)论文集[C];2007年
叶喜勇;陶霖密;王国建;邸慧军;;[A];第六届和谐人机环境联合学术会议(HHME2010)、第19届全国多媒体学术会议(NCMT2010)、第6届全国人机交互学术会议(CHCI2010)、第5届全国普适计算学术会议(PCC2010)论文集[C];2010年
黄艳欢;叶少珍;;[A];第十四届全国图象图形学学术会议论文集[C];2008年
董力赓;陶霖密;徐光祐;;[A];第三届和谐人机环境联合学术会议(HHME2007)论文集[C];2007年
朱岩;赵旭;刘允才;;[A];第十五届全国图象图形学学术会议论文集[C];2010年
席旭刚;金燕;朱海港;高云园;;[A];2013年中国智能自动化学术会议论文集(第五分册)[C];2013年
中国重要报纸全文数据库
陈丹;[N];科技日报;2010年
;[N];中国计算机报;2004年
中国博士学位论文全文数据库
谌先敢;[D];武汉大学;2012年
陈渊博;[D];北京邮电大学;2015年
刘翠微;[D];北京理工大学;2015年
任海兵;[D];清华大学;2003年
成娟;[D];中国科学技术大学;2013年
邓小宇;[D];浙江大学;2012年
邓利群;[D];中国科学技术大学;2012年
曹雏清;[D];哈尔滨工业大学;2012年
吴心筱;[D];北京理工大学;2010年
蔡美玲;[D];中南大学;2013年
中国硕士学位论文全文数据库
张思亮;[D];华南理工大学;2015年
应锐;[D];复旦大学;2014年
陈凌琛;[D];昆明理工大学;2015年
张孙培;[D];南京理工大学;2015年
邱春明;[D];河北大学;2015年
康钦谋;[D];电子科技大学;2015年
刘海军;[D];电子科技大学;2014年
梁燕;[D];北京理工大学;2015年
冷晶晶;[D];西安石油大学;2015年
马叶涵;[D];哈尔滨工业大学;2015年
&快捷付款方式
&订购知网充值卡
400-819-9993
《中国学术期刊(光盘版)》电子杂志社有限公司
同方知网数字出版技术股份有限公司
地址:北京清华大学 84-48信箱 知识超市公司
出版物经营许可证 新出发京批字第直0595号
订购热线:400-819-82499
服务热线:010--
在线咨询:
传真:010-
京公网安备75号

我要回帖

更多关于 kinect手势识别 的文章

 

随机推荐