一、人体正面运动的尺度骨架模型初始化算法研究(论文文献综述)
王嘉骥[1](2021)在《基于三维人体运动捕捉数据的拉班舞谱自动生成方法研究》文中研究表明近年来,基于现代信息技术采用数字化方式来记录和存储优秀传统文化资源已经成为重要的研究方向。拉班舞谱作为科学的符号化动作记录体系,是记录和保护民族民间舞蹈、戏曲和武术等人体动态艺术的有力工具。但是,其主要获取方式为通过专业人员手工制谱,所需时间和人力成本很高。通过计算机技术实现拉班舞谱自动生成能极大提高制谱效率,意义重大。因此,本文基于三维人体运动数据,研究拉班舞谱的自动生成方法。依据拉班记谱法中的运动分割理论和动作识别理论,本文将舞谱生成分为运动分割和动作识别两个步骤。首先,研究运动数据的拉班时序分割算法,以切分连续的四肢运动,获得能够使用拉班符号表示的元素动作。然后,研究上肢和下肢元素动作识别算法,以确定各动作对应的符号,从而生成运动数据的拉班舞谱。本文主要研究工作及贡献概括为以下四个方面:(1)提出面向四肢运动的拉班时序分割算法。人体上下肢运动具有协同性,同时上下肢动作在拉班分析中因其与人体重心关系的不同又具有差异性。因此基于协同性将四肢运动作为整体切分出不同的行为片段,然后基于差异性对每个行为片段中的上下肢动作分而治之。首先,在行为片段切分中,采用基于弹性网正则约束的子空间聚类算法利用时序数据相邻帧间关联来分割四肢行为片段。然后,对于上肢时序数据,从时间角度分析肢体运动速率的变化,以及从空间角度分析肢体拉班方位的变化,两个方面进行分割,以增强上肢运动分割的稳健性。对于下肢时序数据,从分析运动趋势变化,到利用高斯混合模型对趋势内元素动作建模,两个层次进行分割,以提升下肢运动分割质量。实验验证表明,本文提出的分割算法能够依照拉班理论切分四肢运动时序数据,相比已有方法,本文算法取得了更高的分割准确率。(2)提出面向上肢非支撑动作的决策融合舞谱生成算法。运动数据中包含不同的人体骨骼尺度信息以及不同的人体方位角度信息,为了解决特征表示对尺度和角度变化敏感的问题,提出使用归一化节点特征和李群特征表示动作数据。为了解决上肢非支撑动作识别中对结束姿态关注不足的问题,提出从人为制定规则和训练极限学习网络两个角度分析动作结束姿态,然后对结果进行策略融合,以提升识别能力。此外,利用下肢与上肢动作的协同性,在策略融合的基础上,进一步提出利用上肢和下肢运动数据建模上下肢的关联关系。实验验证表明,归一化节点特征和李群特征能鲁棒地表示三维人体运动数据,相比已有方法,本文算法取得了更高的上肢元素动作识别准确率,提高了上肢舞谱生成质量。(3)提出面向下肢支撑动作的时空网络舞谱生成算法。为了解决下肢支撑动作识别中对运动过程的时间信息和空间信息关注不足的问题,本文提出使用基于双向门控循环单元神经网络和基于李群网络的双分支网络结构分析动作过程中的时间和空间信息。双向门控循环单元神经网络分支能够在时间域内对时序数据的长期依赖关系进行建模,李群网络分支能够对数据中的空间关系进行建模。通过网络联合,结合两种网络的时间分析能力和空间分析能力,以提升网络模型的识别能力。此外,基于上下肢动作的协同性,进一步提出联合利用上肢分类结果和上肢运动数据,在时空网络的基础上建模上下肢的关联关系。实验验证表明,相比已有方法,本文算法取得了更高的下肢元素动作识别准确率,提高了下肢舞谱生成质量。(4)设计并实现了拉班舞谱自动生成及多维展示平台。平台功能包括:基于拉班舞谱自动生成的记录和保存功能,以及基于多路影像、运动捕捉数据和拉班舞谱同步播放的展示功能。实现了以三维人体运动捕捉数据为纽带的计算机技术与拉班动作理论的结合,使拉班舞谱成为动态艺术数字化记录的新方式,为民族民间舞蹈、戏曲和武术等动态艺术的保护和传承做出了贡献。综上所述,本文针对基于三维人体运动数据的拉班舞谱自动生成若干关键技术,在四肢运动分割和元素动作识别两大方面进行了研究并提出了相应算法,形成了基于运动捕捉数据的拉班舞谱自动生成的完整解决方案。
叶天博[2](2021)在《视频人体三维姿态估计算法设计与实现》文中研究表明人体姿态估计是计算机视觉领域中目标检测下的子任务,该任务需要从图像数据中提取局部特征信息与抽象的结构化信息,检测图像中的人体目标位置及人体的多个关键点坐标,并由这些关键点连接组成的人体骨架模型描述图像中的人体姿态。本论文的研究针对单目相机拍摄的RGB视频图像序列,尝试预测视频中目标人体的三维姿态与运动过程。对于该任务,本文提出了一种全新的多阶段视频三维人体姿态估计算法框架。该框架对输入视频进行处理,依次完成目标人体检测、二维人体姿态估计以及基于时间序列建模的三维姿态估计。在框架的每个阶段中,本文均将其作为一个子问题进行研究,并在现有方法的基础上有针对性地提出一种全新算法,最终完成流水线式的三维人体姿态估计算法设计。本文提出的算法在公开数据集上相对基线算法有5%以上的提升基于上述算法框架,本文设计并实现了一个三维人体姿态估计系统,该系统接收多种视频流数据格式输入,经过帧率补偿、目标检测进行预处理,再通过算法进行姿态估计,并对结果进行后处理,输出渲染后的三维人体运动动画。
江博艺[3](2021)在《高效便捷的三维人体重建》文中研究指明人体数字化技术在如今互联网技术高速发展的时代获得了越来越多的关注。人们渴望拥有高质量的数字化身,作为自己在数字生活中的代言人。传统的方法需要复杂的采集系统,针对特定人物进行耗时的处理,才能得到该人物高质量的重建。显然,这种流程不适合于广大普通用户。近年来,随着深度学习的发展,使得利用单目图像等便捷的输入对一般人物重建高保真的几何成为了可能。本文围绕三维人体重建这一主题,主要考虑基于方便获取的输入,对赤身人体和穿着任意衣物的人体进行便捷的重建,并在以下三个方面取得了创新性的成果:(1)赤身人体几何包含了由性别、种族和姿态等因素带来的丰富变化,为了有效地使用身份和姿态解耦的低维参数表达人体几何,我们提出使用具有强大非线性表达能力的神经网络对几何表示进行编码,并创新地利用人体的铰链结构来设计网络结构,有效地提高了重建精度。为了提供足够的训练数据,我们收集了大量开源的赤身人体几何数据集,并通过非刚性注册将它们转化为连接关系一致的网格表示。基于构建的人体表示,我们展示了使用二维稀疏关节点和单目RGB-D视频等便捷输入的人体重建能力。(2)由于人们在日常生活中都是穿着各式衣物的,我们提出了针对日常单张人物图像的重建方法。为了一定程度解决这一困难问题,我们仅支持有限的衣物类型,提出人体和衣物分离的参数化表示。然后利用神经网络强大的拟合能力,从图像直接回归对应参数。但是训练该网络需要大量的图像几何成对数据,而穿衣人体高精度的几何数据是难以获得因而非常匮乏的。为了解决这一困难,我们分别利用物理模拟和优化拟合的方法合成了高质量的成对数据,并完成了模型的训练。基于我们的参数化结果,能够进行一些有趣的应用,例如三维人物的换衣和衣物纹理编辑等。(3)由于单张图像无法完整获取穿衣人物的整体信息,我们提出了针对任意人物处于双手轻微上抬并自然站立的A姿态下的自转视频进行高精度几何重建的方法。一方面,由于衣物多变的物理属性以及和人体几何复杂的交互带来的大量高频形变,使得参数化表示无法捕捉任意衣物的拓扑和几何。另一方面,使用合成数据训练的网络模型,其表达能力依赖于数据集的分布,难以泛化到真实场景。基于此,我们使用隐式神经表示来表达任意复杂的几何,并利用神经渲染对输入视频进行自监督的优化。最终,从单目自转序列中,我们能够得到高保真的几何和较为真实的渲染图像,且重建结果具有一致的拓扑,方便下游各种应用。
王亚琴[4](2020)在《基于视觉的运动目标检测与跟踪研究》文中研究指明视觉作为移动机器人平台感知外界环境的重要组成部分,将采集到的实时图像传送给处理单元,图像信息被分析处理后,根据实际需求实现不同的功能。本文基于工程需求,设定运动目标为人体,基于视觉的运动目标检测与跟踪技术对运动人体进行检测跟踪并应用于移动机器人平台,控制其随动跟踪人体运动。本文的研究内容主要分为三个模块:运动目标检测模块,运动目标跟踪模块和运动目标随动跟踪控制模块。运动目标检测模块为了解决动态背景下运动人体的检测问题,综合特征信息检测和人体模型分割检测这两种思路并结合深度学习框架,通过检测人体关键部位特征点的方法完成对人体的检测。人体关键部位特征点的检测依赖于人体姿态估计算法,因此本文的研究基于多人姿态估计方法中的自底向上模型,首先将图像中所有的人体关键点通过卷积神经网络进行特征提取检测出来,然后在特征点置信图预测中使用热图和偏移量融合优化的方法实现人体关键点的准确标记,最终得到人体检测结果。运动目标跟踪模块为了解决基于检测出的运动人体的图像跟踪问题,通过判别式跟踪模型中的相关滤波跟踪方法,选择检测结果中的人体上半身作为跟踪目标,将检测结果作为输入对相关滤波器进行训练,同时,通过实时更新使得相关滤波器可以适应运动人体的变化,实现可靠跟踪。在对相关算法的研究中,本文在对MOSSE相关滤波器进行原理研究的基础上,融合KCF算法的HOG特征提取以及DSST算法的尺度滤波器组成融合相关滤波器。该算法同时解决了KCF算法缺少尺度估计和DSST算法实时率不高的问题,在保证算法实时性的情况下提高了跟踪的准确率。运动目标随动跟踪控制模块将上述跟踪结果作为移动机器人的跟踪目标,实现检测模块和跟踪模块在移动机器人平台上的应用。通过分析移动机器人的运动模型与观测模型,制定基于单目相机的控制策略,采用基于ROS系统的PID控制方法控制移动机器人,最终实现其随动跟踪人体运动。
刘婷婷[5](2019)在《面向教师教学信誉度量化的智能感知与识别方法研究》文中研究表明课堂教学管理系统逐步向纵深方向发展,对教师的评价,不再是以学生考试成绩为结果的传统评价体系。依托于大数据、机器学习等技术,对教师素养进行过程性评价是未来的发展方向之一。现有的课堂教学智能管理系统研究,大多聚焦于课堂学生学习行为的分析,未见针对教师教学行为的智能识别分析研究。在教学场景中,高信誉度的教师对学生产生更为明显的影响力,可促进学生的认知理解力,情感学习等。同时,教师信誉度也是衡量教师基本素养的重要构成之一。因此,对教师信誉度的智能量化,可以为教师及教学管理者提供反思与评价的可视化信息,促进教师综合能力提升对整个教学活动有着至关重要的作用。到目前为止,对于教师信誉度的评价,主要以对学生进行问卷调查的方法进行分析评价。该方式往往消耗大量时间及人力,效率较低,同时使用李克特七点量表准确性受较大的主观判断影响,且不能给教师及时信息反馈,时效性差,不便于教师及时调整教学行为策略。前人对于课堂教学管理系统的研究一般采用视觉传感器设备获取行为数据,但在课堂教学场景下,通过课堂录播视频对教师教学行为识别还面临着其特有的技术难题,如:光照变化、运动模糊、背景复杂、视频图像分辨率低、遮挡、教师头部姿态多变导致表情难以识别等诸多问题。在实际的教学过程性分析中,管理系统对于课堂教学行为识别的性能要求极高,尤其对于智慧教学环境下的教学行为识别精度和稳定性研究成为关注焦点。本文主要研究目标是从课堂教学视频图像序列中准确识别出表情和手势,并开发出基于教师表情和手势识别的教师信誉度评价管理系统,本论文为解决教育大数据时代下的教师教学过程性评价提供客观数据支撑,率先开展了基于课堂教学录播视频的教师面部表情识别与手势识别研究,并研发了基于教师行为感知量化的教师信誉度评价系统。本文的主要创新点主要包含以下四个方面:(1)本文提出了一种基于超拉普拉斯先验约束的课堂录播视频图像质量提高方法。本文对大量的自然环境下高分辨率课堂教学图像进行了图像梯度特征统计,发现了高清视频图像满足超拉普拉斯先验的拖尾分布。提出了使用幂函数‖·‖0.6对该视频数据进行拟合,并应用于智慧教室环境下录播视频的质量提高。本文在仿真和实测教学场景下分别验证本方法,实验表明,本文方法比现有的先进算法具有更好的图像质量提高效果,促进了智慧课堂环境下的教师信誉度量化与分析,为后续教师表情识别、手势识别做好铺垫。(2)本文提出一种融入图像生成的教师面部表情识别方法,是一种基于端到端学习的表情识别方法。结合人脸68个特征关键点的人脸表情生成模型,提出了一个三方一致性损失函数,生成任意表情和姿态的教师人脸图像,进行训练集图像数据扩增,有助于提高表情识别率。所提模型在多个标准数据集上进行实验,并验证了模型的有效性。同时,在表情识别网络中融入了深度可分离卷积网络代替传统2D卷积层,以全局平均池化层代替全连接层,配以Softmax进行分类任务,减少网络参数,提高运行速度,达到实时检测的目的。最后在多个公共人脸表情数据集上进行了 7类表情分类任务,本文提出的算法得到平均80%左右的识别准确率。(3)本文提出一种基于深度学习的课堂教学手势行为识别方法。构建了一种自动识别教师手势类别的深度神经网络模型,融入SCF算法,通过自下而上的方式准确识别出人体骨架。在教师被前排学生遮挡情况下,也具有较好识别效果。在此基础上,对教师的手势姿态通过监督学习的方式进行识别,从而判断抬手姿态,并同时进行了白板检测,若教师的手部位于白板内侧,则识别为注意力引导手势;若在白板外侧,则为话语辅助手势,识别准确率高达83%以上。(4)本文构建了教师信誉度量化评价模型,并进行了有效验证,开发了基于表情识别和手势识别的教师信誉度评价管理系统。融合了教师目光范围模块、云平台交互模块,从非言语行为角度对教师信誉度进行综合评价。研究通过与专家打分、学生打分、教师自评的实验结果做对比分析,验证了该系统和方法能够客观有效地对课堂上教师信誉度进行智能量化和分析。
宿勇[6](2019)在《基于人体运动序列的姿态估计与身份识别》文中提出随着现代社会的飞速发展,人体运动分析已经引起了诸多领域研究者的浓厚兴趣。人体运动分析的研究目标是使计算机能够基于人体结构、人体运动等先验知识,自动地重建人体运动,并实现对人体行为和身份的语义感知和理解。与传统外观特征相比,三维人体骨架特征对外界光照、视角和衣着变化具有较强的鲁棒性,并且能够从生物学、物理学和人体运动学等方面对人体运动过程进行精确的描述和解释。基于此,本论文工作主要围绕人体运动分析中人体骨架三维估计和身份识别两个重点内容展开。主要研究成果如下:针对人体三维骨架难以直接获取的问题,提出基于黎曼流形的三维人体姿态估计方法。该方法通过分析人体运动学规律和运动轨迹的几何结构,根据黎曼流形切从结构,建立二阶随机动态模型,将RTSS平滑滤波器推广到黎曼流形,提出Riemannian Extended Rauch Tung Striebel Smoother(RERTSS)对三维骨架姿态进行正向估计并进行反向平滑。并采用局部单纯形优化方法对估计结果进一步优化。该方法能够在缺少训练数据的情况下,准确地估计三维人体姿态,并能够缓解三维重建中普遍存在的二义性问题。针对欧氏特征无法精确描述人体非线性运动过程的不足,提出基于黎曼流形运动特征提取方法,以实现在非线性空间中对个体差异的准确描述。针对传统度量学习方法难以体现黎曼运动特征时空结构的问题,提出时空大间隔最近邻度量学习方法(Spatio-Temporal Large Margin Nearest Neighbor,简写为ST-LMNN)。该方法将双线性模型和经典度量学习框架结合,通过双线性度量函数测量个体运动特征之间的相似性。针对个体间存在时空结构差异的问题,通过引入最近类均值分类器的思想,提出时空多度量学习(Spatio-Temporal Multi-Metric Learning,简写为STMM)。该方法通过学习时空度量函数使类内样本更趋向于类内几何平均的同时加大类间均值的距离。此外,针对大多数身份识别数据库规模较小且外界和心理协变因素考虑较少的问题,建立了包含多个外界和心理协变因素影响的运动数据库。针对内在和外界协变因素会对人体运动过程产生结构性影响的问题,提出时空多因素判别分析方法(Spatio-Temporal Multi-Factor Discriminant Analysis,简写为ST-MFDA)。ST-MFDA通过为每种协变因素学习成对的时空投影矩阵,将来自不同协变因素的运动特征投影到同一个公共子空间中,通过广义费舍尔判别准则保证在公共子空间中类内散度小而类间散度大,以缓解多协变因素对身份识别精度的影响。本文从三维人体姿态估计、时空度量学习以及子空间学习三个主要层面逐步展开,提出了一系列建模方法来解决人体运动分析中的关键子问题。通过理论分析和实验证明了所提出的三维姿态估计方法、时空度量学习方法和时空多因素判别方法在人体分析任务中的可行性、高效性以及相对于传统方法的优越性。
王松[7](2019)在《基于深度图像的人体动作识别方法研究》文中进行了进一步梳理人体动作识别一直是计算机视觉领域研究的热点,得到了学术界和企业界广泛的关注。深度相机和机器学习的结合应用使得目标检测与分割任务的难度有所降低。它们也为姿态估计和人体动作识别研究提供了新的思路。如何使用深度数据提高人体动作识别系统的性能,是目前亟待需要解决的一个重要问题。本文针对基于深度图像的人体动作识别这一课题展开研究,研究内容包括底层特征提取、中层特征编码、动作分类模型等几个方面。本文的主要贡献包括:(1)提出了一种基于骨架关节点运动轨迹的人体动作识别方法为了提高动作识别的准确率和实时性,提出一种基于关节点运动轨迹的动作识别方法。受心理物理学中关于人体运动实验的启发,使用人体骨架关节点的运动轨迹来表示人体动作,它能够在时空维度上对动作进行完整表达。在此基础上使用高斯混合模型对关节点运动轨迹进行聚类,进而通过Fisher向量进行特征量化。考虑到动作识别任务的实时性需求,提出基于超限学习机的动作识别,以此提升动作识别任务的实时性和准确率。最后,通过在公开数据集上进行实验,实验结果验证了该方法的有效性。(2)提出了一种基于关节间夹角序列的人体动作识别方法针对人体动作识别中的复杂背景和视点变化问题,提出一种基于关节间夹角变化序列的动作识别方法。受机构学和机器人学的启发,使用相邻关节间夹角和非相邻关节间夹角变化序列来表示人体动作,然后使用K近邻分类器对动作进行分类。由于不同个体的动作持续时间不尽相同,因此使用动态时间规整算法计算样本之间的距离。最后,在UTD-MHAD和KARD数据集上进行了实验验证,结果证明了该方法的有效性。(3)提出了一种基于深度运动投影和时域分割的人体动作识别方法提出了一种有效的基于深度运动投影(depth motion maps,DMM)的人体动作识别方法。为了克服传统特征描述子的不足,引入了Gabor滤波器组对DMM进行特征提取;为了弥补DMM在时域表达上的不足,提出了时域分割的策略来刻画时域信息。最后,使用分类器对人体动作进行分类。实验结果验证了该方法的有效性。(4)提出了一种基于3D运动历史图像和多任务学习的人体动作识别方法针对深度图像序列,在3D运动历史图像的基础之上,提出一种基于Gabor特征提取和多任务学习的人体动作识别方法。为了解决传统基于轮廓特征对运动历史图像不能充分表达的问题,引入Gabor滤波器组对3D运动历史图像进行特征提取。为了刻画在不同时间维度上人体动作的变化过程,引入时域金字塔的策略对动作视频进行划分。最后为了挖掘动作识别任务间的相关性,引入了多任务学习训练动作分类模型。实验结果表明,该方法明显优于现有方法。本文的研究成果可为人体动作识别相关应用领域的深入研究和应用实践提供理论和技术支持。
况逸群[8](2019)在《面向社会机器人的3D手势建模、识别与学习》文中进行了进一步梳理社会机器人(Social Robots)未来可能重塑整个社会,而自然人机交互技术是其核心技术之一。手势交互作为一种自然的人机交互方式,被广泛应用于社会机器人交互系统之中。然而,现有的手势识别算法需求大量的高质量训练数据、模型学习过程复杂、扩展性差,难以应用于社会机器人真实应用场景。本文紧密围绕社会机器人手势交互技术,重点研究如何利用少量的有标记数据,甚至单个样本数据进行手势学习,以及如何建模融合多模态信息以提升手势识别的性能。本论文的主要工作和成果归纳如下:针对因手部是一种高自由度的链式结构使得关节点数据标注非常困难,从而造成现有的基于有监督学习的方法学习成本极高的问题,本文提出了一种基于多视图投影的半监督学习方法。该方法将无标记三维手势点云图投影至三个坐标平面,利用自编码器学习投影视图之间的隐空间编码,作为手势姿态的隐式表征,进而利用有标签数据学习隐式表征到手部姿态的直接映射。实验表明,该方法不仅有效地减少了对标记数据的依赖,且在手姿态估计数据库上,将最好结果从19.60毫米提升到了17.04毫米。针对现有一次学习手势识别算法存在以下缺点:1)常用的运动特征只关注运动部分信息,造成手势描述的不连续,丢失了手势保持时期的信息;2)特征提取未关注于有效的手部区域,造成身体摆动等无效运动的干扰;3)识别算法丢失了特征的时空位置信息,本文提出了一种简单有效的基于上下文信息的显着性特征提取方法。该方法能够完整地保留手势的动静态信息,从而获得更丰富、更鲁棒的特征表达。其次,本文提出了一种基于特征匹配的动态规划算法,该算法利用特征匹配的稠密性及准确性度量两帧的相似性,而后采用动态规划算法求取两手势序列最优匹配距离。该算法保证了手势描述的连续性、准确性,并且充分利用了特征的时空位置信息。本文提出的算法在无需复杂的特征设计的情况下,得到了和当前基于复杂特征设计的算法相当的效果。针对基于深度学习的多模态手势识别算法需要谨慎的网络结构设计,繁琐的网络训练,且新的数据需要重新训练问题,本文提出了一种统一的多模态信息融合构架,称为VDTW(Voting based Dynamic Time Warping)。该算法通过利用三维隐形状模型建模各模态特征的时空结构信息,而后通过一致性投票将特征映射至统一的概率空间,形成对各帧时空分布的概率估计,以此构建对齐代价矩阵。此外,本文还提出一种基于概率的快速上界求取方法,能够减少不必要的动态规划计算过程,从而加速计算。这些优点使得VDTW算法能够适用于大样本多模态手势分类任务,在Chalearn IsoGD多模态手势数据库上,获得了和基于深度学习的算法相当的结果。在上述算法研究的基础上,搭建了一套社会机器人系统JIAJIA,用于验证真实场景下的手势交互效果。多位志愿者受邀参与系统测试,使用体验方面得到较高评价,其次,量化的识别结果也验证了系统的实用性。
王强宇[9](2019)在《基于深度神经网络的动态手势识别技术研究》文中研究说明手势是人类日常生活中非常重要的交流方式之一,能够直观地表达富有丰富的语义信息,被广泛的用于人机交互,虚拟现实以及失语者的手语等方面。使用机器视觉算法识别出手势表达的语义信息具有很高的研究价值。本文的研究对动态手势识别课题提供了新的研究思路及相关方法,并对面向人机交互和手语识别领域的研究打下了技术基础。手作为人体中最灵活的部位,使其在检测、跟踪、分类和识别等任务上极具挑战。基于机器视觉的手势识别算法往往面临如下问题:1)人手的分辨率较低;2)人手目标所处背景环境杂乱;3)手与手或者手与物体的交互;4)手被遮挡;5)不同的手势具有较大的相似度;6)人手的多自由度特性;7)多视角歧义;8)不同的形状和尺度;9)检测和识别网络参数的训练调优问题。本论文来源于校内自选项目,基于机器视觉技术,面向人机交互以及手语的动态手势识别。本课题的研究分为如下四个方面:1)通过像素级的人体皮肤区域检测模型(MFS),找出图像中皮肤掩膜,并且使用特征索引的字典学习算法对皮肤掩膜的边界轮廓进行精修,以便尽可能地保留皮肤区域的信息;2)提出一种层级融和卷积神经网络的人手目标检测框架-CCNN,通过皮肤检测模型得出的皮肤掩膜来监督CCNN来检测人手位置;3)提取人手姿态骨架信息,使用卷积姿态估计框架作为基础弱检测器,使用多目和单目两种方式进行训练出强检测器;4)用时空域图的结构表示序列人手骨架,并提出HA-GCN框架识别人机交互以及手语的几种动态手势。本论文的研究工作和创新点如下:(1)本文提出一种基于多特征的皮肤区域检测方法。由于人手检测受到背景干扰严重等问题,需要去除背景对人手检测的干扰,所以本文基于传统像素级皮肤检测方法所用的特征进行试验和筛选,筛选对皮肤区域检测贡献度最高的特征,并取代传统的单像素检测方法,使用超像素(像素簇)来聚合局部外观信息。结合第一视角穿戴设备拍摄含有人手的场景进行全局聚类方式进行皮肤区域像素的掩膜提取。在提取皮肤区域掩膜后,为了完善边界以保留更全面的信息,使用HOG特征索引的字典学习算法,进一步对皮肤区域进行精准分割,实现了良好的皮肤掩膜提取,为人手识别的后续工作打下了良好的基础。(2)本文提出了一种基于层级特征融合卷积神经网络的目标检测方法(CCNN)。基于皮肤区域掩膜,进行人手区域提议,即找出皮肤区域中可能存在手的位置。本文根据人手的几何特性和k均值线两种方法,从皮肤中提议出可能含有手的定位框来监督人手检测框架的感受野。为了提高人手检测器的鲁棒性,本文针对实时目标检测框架SSD的不足之处,循环地融合层级特征进行训练和检测。融合的特征能够保留层级上下文信息,解决了每一层单独对相应尺度检测的问题。(3)在人手精确定位的基础上,使用深度学习姿态估计框架卷积姿态检测器(CPM)为基础检测器,并且使用多目和单目两种方法进行更加鲁棒的关节点提取。由于人手的交互性,多视角歧义,遮挡和多自由度的特性,可以利用多目视角从各个角度进行检测骨架位置,并由N最佳(最接近真实标注)的检测结果对其他视角骨架点作二次映射转换,然后进行再训练,由此获得强检测器。单目检测器是根据以上的视角信息训练一个网络来学习不同视角中二维关节图到三维关节点图的三角转换映射,以推断出三维骨架图。(4)提出一种基于HA-GCN的动态骨架手势识别方法。根据姿态估计框架,在视频中提取出人手骨骼点,得到序列人手骨架信息。其中每一帧以手腕处关节点为根节点,共选取1 1个关节点来表示运动。根据每一帧的关键点及其连接,构造时空域图,代表运动的时空域关系。然后对GCN进行改进,使其可以在时空域图上进行卷积操作,从而达到基于骨架信息的动态手势识别功能,即动态手势GCN识别框架(HA-GCN)。经过本文对动态手势识别课题的深入研究,为该课题提供了创新性的思路及算法。但仍存在不足和需要改进之处:1)本文人手目标和检测框架综合考虑并结合了人工特征提取和深度学习框架,加入环境信息(如姿态估计中上肢末端,即手腕的延伸位置大概率为人手)也许会进一步提高人手检测的鲁棒性。2)姿态估计框架对人手关节点检测精度还有待提高。3)基于骨架信息的HA-GCN框架依赖于姿态估计精度,可以与基于RGB视频的方法结合(如本文人手目标检测的思路)以求更高的精度。4)HA-GCN面向单手目标,未来工作应该考虑多手目标以及人体上半身交互的场景,另外运行速度也是未来研究的重点。
罗勇[10](2019)在《情境感知智能人机交互关键技术研究》文中认为随着智能设备的普及,人机交互已深入渗透人类生产生活的方方面面。情境感知智能人机交互已日益成为人工智能、机器视觉、数据挖掘领域的研究热点。由于数字化相机的普遍性及其相关技术的通用性,基于单目可见光视觉的人机交互技术已受到越来越多研究者的关注。本文在广泛阅读与调研国内外相关研究的基础上,针对基于单目可见光视觉的情境感知智能人机交互存在的主要问题与不足,开展了一系列的深入研究,提出了如下创新性方法。提出了一种基于结构相似性时空分析的情境感知光照均衡方法。利用光照补偿结构图与物体光反射特性,获取光照补偿空间分布,通过计算两帧之间非动态物体的光照变化量估计光照时变情况;在基于时间和空间的光照补偿基础上,结合对数直方图均衡算法,实现对视频的快速光照均衡化。实验结果表明,所提方法能够同时改善视频图像的能见度、对比度、自然性、光照一致性和信息稳定性。提出了一种基于背景建模的复杂情境人体分割方法。根据人体的运动特征及头部结构特征,利用结构相似分布图与头部检测算法,构造出不含人体的帧图像,用于背景模型更新,并采用多特征融合方法,从复杂情境中分割出人体。实验结果表明,所提方法能够实时、准确和完整地获取人体区域。提出了一种基于差异更新的三维人体骨架估计方法。将人体分割算法与骨架定位算法融合,提高骨架定位效率的同时减少骨架关键点的误检;利用人体前景与人体骨架的运动一致性,基于差异更新算法,抑制人体骨架定位过程中的抖动现象;利用规范化骨架关键点间相对位置特征,建立骨架深度字典模型,获取3D人体骨架信息。实验结果表明所提方法有效、可行。提出了一种基于模式融合特征点定位的面部朝向估计方法。通过基于双尺度面部区域检测算法定位人的面部区域;利用特征点区域的相对关系,融合两种不同模式的特征点定位算法,提高面部特征点定位的准确性;利用面部特征点这一稀疏特征,建立面部朝向识别模型,实现复杂情境中人脸的面部朝向估计。相比于基于人脸稠密特征的面部朝向估计方法,所提方法具有鲁棒的面部特征描述能力,可有效提高面部朝向估计效果。提出了一种基于阶段行为特征的交互主体用户感知方法。基于人体部件骨架关键点,阶段性判别人体的指示交互行为状态,识别用户是否具备交互意图;采用空间最邻近算法,从存在交互行为的用户中定位出交互主体用户。实验结果表明所提方法有效、可行。提出了一种基于躯干位移的交互主体用户跟踪方法。利用人体躯干位移特征跟踪场景中的交互主体用户,采用基于人体骨架区域的色彩直方图匹配算法和快速正面人脸识别算法,恢复由于骨架丢失而中断的用户跟踪链。相比于基于整体区域的跟踪方法,所提方法能更有效地解决人体跟踪过程中区域混叠造成交互用户身份不明确的问题。提出了一种基于自适应虚拟空间屏的人机交互方法。通过交互主体用户的面部朝向,确定其在交互界面上的关注区域,并将关注区域自适应地映射到虚拟空间屏,通过手部与虚拟空间屏的虚拟接触,响应交互主体用户所表达的交互意图。通过大量的实验和对比分析,结果表明所提出方法能够高效地实现多人有序交互。
二、人体正面运动的尺度骨架模型初始化算法研究(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、人体正面运动的尺度骨架模型初始化算法研究(论文提纲范文)
(1)基于三维人体运动捕捉数据的拉班舞谱自动生成方法研究(论文提纲范文)
致谢 |
摘要 |
ABSTRACT |
序言 |
1 绪论 |
1.1 研究背景和意义 |
1.2 研究现状 |
1.2.1 面向拉班舞谱自动生成的运动分割 |
1.2.2 面向拉班舞谱自动生成的动作分析识别 |
1.3 现有研究存在的主要问题 |
1.3.1 拉班运动分割中存在的问题 |
1.3.2 拉班动作分析识别中存在的问题 |
1.4 本文主要研究内容 |
1.5 论文结构安排 |
2 基于运动捕捉数据的拉班舞谱生成概述 |
2.1 拉班舞谱介绍 |
2.1.1 拉班记谱法基本原理 |
2.1.2 拉班舞谱的应用 |
2.2 运动捕捉介绍 |
2.2.1 运动捕捉技术 |
2.2.2 运动捕捉数据 |
2.3 基于运动捕捉数据的拉班舞谱自动生成框架 |
2.3.1 运动分割 |
2.3.2 动作分析识别 |
2.4 自采集数据集和方法评价 |
2.4.1 自采集数据集介绍 |
2.4.2 方法评价 |
2.5 本章小结 |
3 面向四肢运动的拉班时序分割算法 |
3.1 引言 |
3.2 运动捕捉数据预处理 |
3.3 上下肢协同行为分割 |
3.4 上下肢拉班元素动作分割 |
3.4.1 面向上肢姿态的分割算法 |
3.4.2 面向下肢动作的分割算法 |
3.5 基于拉板舞谱节奏的分割优化 |
3.6 实验结果与讨论 |
3.6.1 实验设置 |
3.6.2 实验结果与分析 |
3.7 本章小结 |
4 面向上肢非支撑动作的决策融合舞谱生成算法 |
4.1 引言 |
4.2 拉班动作数据特征提取 |
4.2.1 拉班动作节点特征 |
4.2.2 拉班动作李群特征 |
4.3 面向上肢拉班动作的分析识别方法 |
4.3.1 基于拉班空间划分的识别方法 |
4.3.2 基于极限学习网络的识别方法 |
4.3.3 基于空间划分和极限学习的策略融合 |
4.4 协同下肢的上肢拉班动作分析识别方法 |
4.5 实验结果与讨论 |
4.5.1 实验设置 |
4.5.2 实验结果与分析 |
4.6 本章小结 |
5 面向下肢支撑动作的时空网络舞谱生成算法 |
5.1 引言 |
5.2 下肢动作数据特征提取 |
5.3 面向下肢拉班动作的分析识别方法 |
5.3.1 基于双向门控循环单元神经网络的识别方法 |
5.3.2 基于李群网络的识别方法 |
5.3.3 基于门控循环单元神经网络和李群网络的融合方法 |
5.4 协同上肢的下肢拉班动作分析识别方法 |
5.5 实验结果与讨论 |
5.5.1 实验设置 |
5.5.2 实验结果与分析 |
5.6 本章小结 |
6 拉班舞谱自动生成及多维展示平台 |
6.1 引言 |
6.2 平台组织结构 |
6.3 拉班舞谱生成模块 |
6.4 多维展示模块 |
6.5 本章小结 |
7 总结与展望 |
7.1 全文总结 |
7.2 工作展望 |
参考文献 |
附录A 调查问卷中的问题和回答统计 |
附录B 动态数字资源元数据信息表 |
作者简历及攻读博士学位期间取得的研究成果 |
学位论文数据集 |
(2)视频人体三维姿态估计算法设计与实现(论文提纲范文)
摘要 |
英文摘要 |
第一章 绪论 |
1.1 课题背景 |
1.2 研究内容 |
1.3 攻读学位期间发表的学位论文 |
1.4 论文结构 |
第二章 相关技术介绍 |
2.1 深度神经网络及相关技术 |
2.2 卷积神经网络 |
2.3 循环神经网络 |
2.4 二维图像中的目标检测 |
2.5 二维人体姿态估计 |
2.6 三维人体姿态估计 |
2.7 小孔成像模型与坐标系变换 |
2.8 数据集介绍 |
2.9 本章小结 |
第三章 视频连续帧三维人体姿态估计算法研究设计与评估 |
3.1 引言 |
3.2 算法需求与现有技术分析 |
3.3 算法流程与详细设计 |
3.4 实验设置与评估 |
3.5 实验结果 |
3.6 本章小结 |
第四章 三维人体姿态估计系统需求分析与概要设计 |
4.1 三维人体姿态估计系统需求分析 |
4.2 三维人体姿态估计系统总体设计 |
4.3 三维人体姿态估计系统模块设计 |
4.4 本章总结 |
第五章 三维人体姿态估计系统详细设计 |
5.1 数据预处理功能模块详细设计 |
5.2 三维人体姿态估计模块 |
5.3 数据后处理功能模块 |
5.4 本章小结 |
第六章 三维人体字体姿态估计系统测试 |
6.1 系统测试环境 |
6.2 三维人体姿态估计系统功能测试 |
6.3 数据后处理功能模块测试 |
6.4 系统非功能性需求测试 |
6.5 三维人体姿态估计结果分析 |
6.6 本章小结 |
第七章 结束语 |
7.1 工作总结 |
参考文献 |
致谢 |
作者攻读学位期间发表的学术论文目录 |
(3)高效便捷的三维人体重建(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 研究背景和研究意义 |
1.2 研究现状和预备知识 |
1.2.1 赤身人体参数化模型 |
1.2.2 赤身人体重建 |
1.2.3 穿衣人体重建 |
1.2.4 单目RGB视频穿衣人体重建与跟踪 |
1.2.5 人体神经渲染 |
1.2.6 人体几何数据集 |
1.3 主要贡献和组织结构 |
第2章 基于深度阶层网络的人体解耦表示 |
2.1 引言 |
2.2 形变表示 |
2.2.1 ACAP特征 |
2.2.2 粗粒度的变形特征 |
2.2.3 ACAP特征生成网格 |
2.2.4 正规化形变特征 |
2.3 算法 |
2.4 嵌入学习 |
2.4.1 网络架构 |
2.4.2 损失函数 |
2.5 训练数据构造 |
2.5.1 连接关系转换 |
2.5.2 中性姿态构造 |
2.6 人体表示模型的使用 |
2.7 实验结果和讨论 |
2.7.1 定量评估 |
2.7.2 定性评估 |
2.8 本章小结 |
第3章 从单张图片推断人体和衣物形状 |
3.1 引言 |
3.2 算法 |
3.2.1 衣物模型 |
3.2.2 从图像到穿衣人体 |
3.2.3 蒙皮权重网络 |
3.2.4 偏移预测网络 |
3.2.5 损失函数 |
3.3 数据集构造 |
3.3.1 蒙皮权重数据集 |
3.3.2 合成数据集构造 |
3.3.3 高清纹理数据集 |
3.4 实验结果和讨论 |
3.4.1 方法的分析 |
3.4.2 定量比较 |
3.4.3 定性结果 |
3.5 本章小结 |
第4章 单目自转视频的人体重建和渲染 |
4.1 引言 |
4.2 算法 |
4.2.1 基准隐式SDF |
4.2.2 变形场 |
4.2.3 可微非刚性射线投射 |
4.2.4 隐式神经渲染网络 |
4.3 损失函数 |
4.3.1 显式损失 |
4.3.2 隐式损失 |
4.3.3 显式隐式结合 |
4.4 实现细节 |
4.5 实验结果和讨论 |
4.5.1 消融实验 |
4.5.2 结果展示和比较 |
4.5.3 单目的结果 |
4.6 本章小结 |
第5章 总结与展望 |
5.1 工作总结 |
5.2 研究展望 |
参考文献 |
致谢 |
在读期间发表的学术论文与取得的研究成果 |
(4)基于视觉的运动目标检测与跟踪研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 运动目标检测国内外研究现状 |
1.2.2 运动目标跟踪国内外研究现状 |
1.2.3 移动机器人国内外研究现状 |
1.3 主要研究内容 |
1.4 论文结构安排 |
第二章 基于关键部位特征点的运动目标检测技术研究 |
2.1 引言 |
2.2 经典传统目标检测算法介绍 |
2.2.1 静态背景运动目标检测 |
2.2.2 动态背景运动目标检测 |
2.3 基于深度学习的目标检测 |
2.3.1 卷积神经网络概述 |
2.3.2 人体特征点检测方法综述 |
2.3.3 人体特征点检测数据集 |
2.4 人体关键部位特征点检测算法 |
2.4.1 自底向上方法模型 |
2.4.2 人体关键部位特征点检测模块 |
2.4.3 实验结果分析 |
2.5 本章小结 |
第三章 基于融合相关滤波的运动目标跟踪技术研究 |
3.1 引言 |
3.2 目标跟踪流程概述 |
3.3 基于相关滤波的人体跟踪研究 |
3.3.1 相关滤波器 |
3.3.2 相关滤波跟踪算法 |
3.3.3 融合相关滤波人体跟踪算法 |
3.3.4 实验结果分析 |
3.4 本章小结 |
第四章 运动目标随动跟踪控制技术研究 |
4.1 引言 |
4.2 移动机器人系统模型 |
4.2.1 移动机器人运动学模型 |
4.2.2 移动机器人动力学模型 |
4.2.3 移动机器人观测模型 |
4.3 单目视觉随动跟踪控制策略 |
4.4 运动人体随动跟踪控制方法 |
4.4.1 随动跟踪控制方法设计 |
4.5 本章小结 |
第五章 实验平台搭建与实验验证 |
5.1 ROS系统介绍 |
5.1.1 ROS系统架构 |
5.1.2 Topic通信机制 |
5.1.3 基于ROS系统的研究架构 |
5.2 移动机器人平台介绍 |
5.2.1 硬件选型 |
5.2.2 软件环境 |
5.3 实验验证 |
5.3.1 实验环境 |
5.3.2 运动人体检测与跟踪实验 |
5.3.3 随动跟踪实验 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 全文总结 |
6.2 未来展望 |
致谢 |
参考文献 |
(5)面向教师教学信誉度量化的智能感知与识别方法研究(论文提纲范文)
中文摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景和意义 |
1.1.1 教师教学信誉度量化的定义 |
1.1.2 教师教学信誉度量化的意义 |
1.1.3 教师教学信誉度量化的难点 |
1.2 研究内容 |
1.3 本文的创新点 |
1.4 本论文主要工作及内容安排 |
第二章 相关研究现状综述 |
2.1 教师教学信誉度研究综述 |
2.1.1 教师信誉度与教师非话语行为 |
2.1.2 教师信誉度与信息技术使用 |
2.2 录播视频质量提高算法综述 |
2.2.1 正则化图像质量提高方法 |
2.2.2 基于深度学习的图像质量提高方法 |
2.3 教师面部表情识别综述 |
2.3.1 表情特征提取 |
2.3.2 人脸表情分类方法 |
2.4 教学手势识别算法综述 |
2.4.1 用于课堂师生交互的手势识别方法 |
2.4.2 用于人机自然交互的手势识别方法 |
2.5 教学行为智能量化与融合综述 |
2.5.1 单模态的智能感知评价 |
2.5.2 教学行为量化多模态融合方法 |
2.6 教师教学信誉度管理系统综述 |
2.7 本章小结 |
第三章 面向教学行为识别的课堂录播视频质量提高方法 |
3.1 课堂录播视频质量降低原因与特性分析 |
3.1.1 课堂录播视频降质机理与特点 |
3.1.2 降质机理模型建立 |
3.2 基于稀疏性正则化的录播视频序列图像质量提高数学模型 |
3.2.1 稀疏性先验知识挖掘与建模 |
3.2.2 融合自适应边缘提取的智慧课堂视频质量提高数学模型 |
3.2.3 模型优化与数值求解 |
3.2.4 正则化参数设定与优化细节 |
3.3 基于稀疏性正则化的录播视频质量提高实验 |
3.3.1 数据仿真与结果分析 |
3.3.2 无噪声情况下视频图像质量提高结果 |
3.3.3 含噪声情况下视频图像质量提高仿真实验 |
3.3.4 课堂教学真实视频图像质量提高结果 |
3.4 本章小结 |
第四章 融入图像生成的教师面部表情识别方法 |
4.1 课堂环境下教师教学表情特征分析 |
4.2 基于生成对抗网络的多姿态连续教学面部表情库建立 |
4.2.1 PE-Gan网络结构 |
4.2.2 网络学习模型 |
4.3 基于卷积网络的教学表情识别方法 |
4.3.1 全卷积神经网络 |
4.3.2 残差模块 |
4.3.3 深度可分离卷积结构 |
4.3.4 Compact-Xception网络模型 |
4.4 实验与分析 |
4.4.1 模型训练 |
4.4.2 实验结果与量化分析 |
4.5 本章小结 |
第五章 基于深度学习的课堂教学手势行为识别方法 |
5.1 智慧教室教师教学手势特征分析 |
5.2 基于局部亲和场的2D人体关键点检测网络EDUPOSE |
5.2.1 网络架构 |
5.2.2 实时检测与联合 |
5.2.3 生成用于人体肢体检测的置信图 |
5.2.4 局部亲和场关键点联结 |
5.2.5 基于SCF的多人身体区分与识别 |
5.3 教师教学手势行为检测 |
5.3.1 教师辅助话语手势检测 |
5.3.2 教师注意力引导手势检测 |
5.4 实验与分析 |
5.4.1 模型训练 |
5.4.2 结果与分析 |
5.5 本章小结 |
第六章 基于智能行为识别的教师教学信誉度管理系统 |
6.1 教师信誉度智能感知与评价系统 |
6.1.1 教师信誉度评价体系 |
6.1.2 信誉度智能感知与评价系统 |
6.2 课堂录播视频预处理 |
6.3 教师课堂表情识别 |
6.3.1 教学表情分类 |
6.3.2 多头部姿态下的表情数据扩建 |
6.3.3 多头部姿态下的教师表情识别 |
6.4 教师课堂手势识别 |
6.4.1 教师课堂手势分类 |
6.4.2 教师课堂手势识别 |
6.5 教师信誉度多模块融合 |
6.5.1 教师信誉度各模块特征选择 |
6.5.2 教师信誉度测量与权重分配 |
6.6 真实教学场景系统应用 |
6.6.1 多维度教师信誉度识别 |
6.6.2 多维度教师信誉度量化 |
6.7 本章小结 |
第七章 总结与展望 |
7.1 研究总结 |
7.2 创新之处 |
7.3 研究展望 |
参考文献 |
在校期间发表的论文、科研成果 |
致谢 |
(6)基于人体运动序列的姿态估计与身份识别(论文提纲范文)
中文摘要 |
ABSTRACT |
第1章 绪论 |
1.1 研究背景和意义 |
1.2 人体运动分析的应用 |
1.3 基于运动信号身份识别研究概述 |
1.4 研究内容及难点分析 |
1.4.1 研究内容 |
1.4.2 难点分析 |
1.5 论文结构 |
第2章 相关研究综述 |
2.1 基于骨架运动信号身份识别基本框架 |
2.2 三维人体姿态估计 |
2.2.1 人体模型 |
2.2.2 基于单幅图像的人体姿态估计 |
2.2.3 基于序列的人体姿态估计 |
2.3 基于人体骨架特征的身份识别方法 |
2.4 度量学习方法 |
2.4.1 基于最近邻的方法 |
2.4.2 基于信息论的方法 |
2.4.3 基于概率的方法 |
2.4.4 其他方法 |
2.5 线性判别分析 |
2.6 本章小结 |
第3章 人体三维姿态估计 |
3.1 引言 |
3.2 三维人体姿态估计问题分析 |
3.3 基于黎曼流形的姿态表示 |
3.3.1 黎曼流形 |
3.3.2 黎曼流形姿态建模 |
3.4 基于黎曼扩展RTSS滤波器的人体姿态估计方法 |
3.4.1 人体动态建模 |
3.4.2 基于黎曼扩展的RTSS滤波器 |
3.4.3 局部单纯形优化 |
3.4.4 三维重构中的二义性问题 |
3.5 实验与分析 |
3.5.1 数据集和评价度量 |
3.5.2 控制变量实验 |
3.5.3 CMU运动捕捉数据库实验 |
3.5.4 HDM05运动捕捉数据库实验 |
3.5.5 Human3.6M运动捕捉数据库实验 |
3.6 本章小结 |
第4章 黎曼运动特征表示及时空度量学习 |
4.1 引言 |
4.2 黎曼运动特征 |
4.2.1 运动信号表示及预处理 |
4.2.2 黎曼运动特征提取 |
4.3 时空度量学习 |
4.3.1 问题分析 |
4.3.2 时空大间隔最邻近度量学习 |
4.3.3 时空多度量学习 |
4.3.4 讨论 |
4.4 运动数据库 |
4.5 实验与分析 |
4.5.1 数据集介绍 |
4.5.2 模型参数分析 |
4.5.3 定量比较 |
4.6 本章小结 |
第5章 基于时空多因素判别分析的身份识别方法 |
5.1 引言 |
5.2 线性判别分析 |
5.3 时空多因素判别分析 |
5.4 实验分析 |
5.4.1 数据库选择 |
5.4.2 单因素身份识别方法 |
5.4.3 多因素身份识别方法 |
5.5 本章小结 |
第6章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
发表论文和参加科研情况说明 |
致谢 |
(7)基于深度图像的人体动作识别方法研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 课题的研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 使用关节点 |
1.2.2 使用深度数据 |
1.2.3 混合使用多种模态数据 |
1.3 基于深度图像序列动作识别的研究难点 |
1.4 本文的主要贡献 |
1.5 本文的主要内容及组织结构 |
2 使用深度数据进行人体动作识别 |
2.1 相关研究工作 |
2.2 基于深度运动投影和时域分割的人体动作识别 |
2.2.1 方法描述 |
2.2.2 实验及结果分析 |
2.3 特征提取策略对动作分类性能影响的评估 |
2.3.1 方法描述 |
2.3.2 实验及结果分析 |
2.4 基于非负矩阵分解的人体动作识别 |
2.4.1 方法描述 |
2.4.2 实验及结果分析 |
2.5 基于纠错输出编码的人体动作识别 |
2.5.1 方法描述 |
2.5.2 实验及结果分析 |
2.6 本章小结 |
3 使用骨架关节点数据进行动作识别 |
3.1 相关研究工作 |
3.2 基于关节点运动轨迹的人体动作识别 |
3.2.1 方法描述 |
3.2.2 实验及结果分析 |
3.3 基于关节间夹角变化序列的动作识别 |
3.3.1 方法描述 |
3.3.2 实验及结果分析 |
3.4 人体跌倒检测算法 |
3.4.1 方法描述 |
3.4.2 实验及结果分析 |
3.5 本章小结 |
4 使用运动历史图像进行动作识别 |
4.1 相关研究工作 |
4.2 基于3D运动历史图像和多任务学习的动作识别 |
4.2.1 方法描述 |
4.2.2 实验及结果分析 |
4.3 基于3DMTM的人体动作识别 |
4.3.1 方法描述 |
4.3.2 实验及结果分析 |
4.4 本章小结 |
5 小样本动作识别 |
5.1 相关研究工作 |
5.2 基于协作表示的人体动作识别 |
5.2.1 方法描述 |
5.2.2 实验及结果分析 |
5.3 基于最近邻子空间分类器的人体动作识别 |
5.3.1 方法描述 |
5.3.2 实验及结果分析 |
5.4 基于稀疏表示的人体动作识别 |
5.4.1 方法描述 |
5.4.2 实验及结果分析 |
5.5 基于CROC的人体动作识别 |
5.5.1 方法描述 |
5.5.2 实验及结果分析 |
5.6 本章小结 |
6 特征编码对动作分类性能影响的评估 |
6.1 相关研究工作 |
6.2 基于VLAD的人体动作识别 |
6.2.1 方法描述 |
6.2.2 实验及结果分析 |
6.3 基于改进VLAD的人体动作识别 |
6.3.1 方法描述 |
6.3.2 实验及结果分析 |
6.4 本章小结 |
结论 |
致谢 |
参考文献 |
攻读学位期间的研究成果 |
(8)面向社会机器人的3D手势建模、识别与学习(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究工作的背景与意义 |
1.2 国内外研究历史与现状 |
1.2.1 社会机器人研究现状 |
1.2.2 人-机器人交互研究现状 |
1.2.3 基于手势的人机交互研究现状 |
1.3 研究目标及主要内容 |
1.4 本论文的结构安排 |
第二章 3D手势识别综述 |
2.1 引言 |
2.2 手势的分类 |
2.3 3D动静态手势识别综述 |
2.3.1 静态手势识别综述 |
2.3.2 一次学习动态手势识别综述 |
2.3.3 多模态动态手势识别综述 |
2.4 3D手势识别相关数据库 |
2.4.1 3D感知设备 |
2.4.2 3D静态手势数据库 |
2.4.3 3D动态手势数据库 |
2.5 本章小结 |
第三章 基于多视图投影的半监督静态手势识别 |
3.1 引言 |
3.2 手部关节结构 |
3.3 基于半监督学习的算法框架 |
3.4 手部分割与多视图投影 |
3.5 手姿态估计 |
3.6 算法结构及实现 |
3.6.1 自编码器 |
3.6.2 基于自编码器的手姿态估计 |
3.7 实验及结果分析 |
3.7.1 数据库与实验设置 |
3.7.2 实验结果分析 |
3.8 本章小结 |
第四章 基于一次学习的动态手势识别 |
4.1 引言 |
4.2 一次学习手势识别中的典型特征分析 |
4.2.1 全局特征-EMHI特征 |
4.2.2 局部特征-MFSK特征 |
4.3 预处理 |
4.4 基于双向搜索参考帧的显着性特征 |
4.5 基于DTW的手势识别 |
4.6 实验及结果分析 |
4.6.1 数据库与实验设置 |
4.6.2 实验结果分析 |
4.7 本章小结 |
第五章 基于VDTW的多模态动态手势识别 |
5.1 引言 |
5.2 DTW算法及优化方法分析 |
5.2.1 传统动态时间规整算法 |
5.2.2 DTW算法优化及加速 |
5.3 多模态动态手势识别框架 |
5.4 多模态底层特征提取 |
5.5 三维隐形状模型的建立 |
5.6 基于一致性的投票机制 |
5.7 手势识别及加速方法 |
5.8 实验与结果分析 |
5.8.1 实验数据库 |
5.8.2 实验设置 |
5.8.3 实验结果 |
5.9 本章小结 |
第六章 JIAJIA社会机器人及其应用 |
6.1 引言 |
6.2 JIAJIA社会机器人 |
6.2.1 系统框架 |
6.2.2 系统设计 |
6.3 3D手势交互应用 |
6.3.1 静态手势交互应用 |
6.3.2 动态手势交互应用 |
6.4 本章小结 |
第七章 结论 |
7.1 本文研究内容总结 |
7.2 课题展望 |
致谢 |
参考文献 |
攻读博士学位期间取得的成果 |
(9)基于深度神经网络的动态手势识别技术研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 研究背景和意义 |
1.2 人手动作识别研究现状 |
1.2.1 人手检测研究现状 |
1.2.2 姿态估计研究现状 |
1.2.3 行为识别研究现状 |
1.3 研究内容 |
1.4 本文组织结构 |
2 基于多特征聚类的皮肤检测模型 |
2.1 皮肤检测研究基础 |
2.1.1 引言 |
2.1.2 基于区域外观的检测 |
2.1.3 基于全局外观的检测 |
2.1.4 基于运动的检测 |
2.2 多特征皮肤检测模型 |
2.2.1 局部外观特征 |
2.2.2 全局外观模型 |
2.2.3 特征索引字典学习模型 |
2.3 实验及分析 |
2.3.1 数据集 |
2.3.2 局部颜色特征评估 |
2.3.3 特征模态评估 |
2.3.4 稀疏特征性能评估 |
2.3.5 全局外观模型数量 |
2.3.6 实验结果比较 |
2.4 本章小结 |
3 基于层级特征融合卷积神经网络的人手检测算法 |
3.1 人手检测研究基础 |
3.1.1 引言 |
3.1.2 人手目标检测相关工作 |
3.2 层级融和CNN人手目标检测算法 |
3.2.1 手部区域提议生成 |
3.2.2 目标检测框架基础 |
3.2.3 CCNN人手检测框架 |
3.2.4 基于多特征皮肤模型监督的CCNN |
3.3 实验及分析 |
3.3.1 数据集 |
3.3.2 人手检测平均精度结果 |
3.3.3 精度-召回率曲线结果对比 |
3.4 本章小结 |
4 基于视角信息的人手姿态估计算法 |
4.1 人手姿态估计研究基础 |
4.1.1 引言 |
4.1.2 人手关键点检测相关工作 |
4.2 人手姿态估计算法 |
4.2.1 二维姿态估计算法基础 |
4.2.2 多目人手姿态估计算法 |
4.2.3 基于姿态先验网络的三维人手姿态估计 |
4.3 实验及分析 |
4.3.1 数据集 |
4.3.2 多目人手姿态估计方法实验 |
4.3.3 基于姿态先验网络的人手姿态估计方法试验 |
4.4 本章小结 |
5 基于HA-GCN的动态骨架手势识别 |
5.1 人手行为识别基础 |
5.1.1 引言 |
5.1.2 手行为识别相关工作 |
5.2 基于HA-GCN的人手行为识别算法 |
5.2.1 图卷积神经网络 |
5.2.2 基于HA-GCN的人手行为识别算法 |
5.2.3 Resnet基础网络 |
5.3 实验及分析 |
5.3.1 数据集 |
5.3.2 实验 |
5.4 本章小结 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
作者简介 |
(10)情境感知智能人机交互关键技术研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 课题研究的目的和意义 |
1.2 国内外研究概况 |
1.2.1 人机交互发展概况 |
1.2.2 视觉传感系统 |
1.2.3 基于视觉的人机交互研究现状 |
1.2.4 情境感知智能人机交互研究概况 |
1.3 本文研究内容与主要贡献 |
1.4 论文的主要结构安排 |
第二章 基于结构相似性时空分析的情境感知光照均衡 |
2.1 光照增强概述 |
2.2 基于光照补偿结构图的光照自然均衡化算法 |
2.2.1 对数直方图均衡 |
2.2.2 基于光照补偿结构图的光照融合补偿 |
2.2.3 光照自然均衡化 |
2.2.4 实验对比及分析 |
2.3 光照变化结构相似性时空分析 |
2.3.1 基于结构相似性时空分析的光照时变感知 |
2.3.2 光照突变感知 |
2.4 情境感知光照均衡 |
2.4.1 情境感知光照均衡算法 |
2.4.2 实验对比及分析 |
2.5 本章小结 |
第三章 基于背景建模的复杂情境人体分割 |
3.1 人体分割概述 |
3.2 基于结构相似背景建模的前景分割 |
3.2.1 前景分割概述 |
3.2.2 结构相似背景建模 |
3.2.3 场景情境突变处理 |
3.2.4 多特征融合前景分割 |
3.2.5 运动前景分割算法对比及分析 |
3.2.6 基于光照均衡的前景分割 |
3.3 基于背景建模的人体分割 |
3.3.1 基于结构前景的头部检测 |
3.3.2 背景建模 |
3.3.3 基于特征历史分布的人体分割 |
3.4 人体检测及人体分割实验对比分析 |
3.4.1 人体检测比较 |
3.4.2 人体分割效果对比 |
3.5 本章小结 |
第四章 基于差异更新的三维人体骨架估计 |
4.1 人体骨架估计概述 |
4.2 基于差异更新的人体骨架定位 |
4.2.1 人体骨架定位 |
4.2.2 基于人体分割的骨架定位 |
4.2.3 基于差异更新的骨架稳定化 |
4.3 基于深度字典模型的三维骨架估计 |
4.3.1 骨架深度估计 |
4.3.2 三维人体骨架估计 |
4.4 本章小结 |
第五章 基于模式融合特征点定位的面部朝向估计 |
5.1 面部朝向估计概述 |
5.2 基于双尺度检测的面部区域提取 |
5.2.1 人脸检测概述 |
5.2.2 基于抑制冗余的面部纹理增强 |
5.2.3 基于双尺度检测的五官区域定位 |
5.2.4 基于自适应肤色建模的面部区域提取 |
5.3 基于模式融合的面部特征点定位 |
5.3.1 人脸面部特征点定位 |
5.3.2 基于面部区域提取的特征点定位 |
5.3.3 模式融合特征点定位 |
5.4 复杂情境面部朝向估计 |
5.4.1 面部朝向建模 |
5.4.2 面部朝向估计及实验分析 |
5.5 本章小结 |
第六章 基于自适应虚拟空间屏的情境感知人机交互 |
6.1 基于阶段行为特征的交互主体用户感知 |
6.1.1 人体行为估计概述 |
6.1.2 基于躯干位移特征的站立状态估计 |
6.1.3 基于关节位移特征的手臂运动状态估计 |
6.1.4 基于手部关节相对位置特征的指示姿态估计 |
6.1.5 交互主体用户感知 |
6.2 基于躯干位移的交互主体用户跟踪 |
6.2.1 基于躯干位移特征的人体跟踪 |
6.2.2 基于骨架区域色彩模型匹配的用户跟踪链恢复 |
6.2.3 基于快速正面人脸识别的用户跟踪链恢复 |
6.2.4 人体跟踪对比分析 |
6.3 情境感知人机交互 |
6.3.1 关注区域感知 |
6.3.2 自适应虚拟空间屏 |
6.3.3 人机交互实验分析 |
6.4 本章小结 |
第七章 总结与展望 |
7.1 总结 |
7.2 展望 |
参考文献 |
作者在攻读博士学位期间主要的研究成果 |
作者在攻读博士学位期间参与项目 |
致谢 |
四、人体正面运动的尺度骨架模型初始化算法研究(论文参考文献)
- [1]基于三维人体运动捕捉数据的拉班舞谱自动生成方法研究[D]. 王嘉骥. 北京交通大学, 2021(02)
- [2]视频人体三维姿态估计算法设计与实现[D]. 叶天博. 北京邮电大学, 2021(01)
- [3]高效便捷的三维人体重建[D]. 江博艺. 中国科学技术大学, 2021(09)
- [4]基于视觉的运动目标检测与跟踪研究[D]. 王亚琴. 电子科技大学, 2020(07)
- [5]面向教师教学信誉度量化的智能感知与识别方法研究[D]. 刘婷婷. 华中师范大学, 2019
- [6]基于人体运动序列的姿态估计与身份识别[D]. 宿勇. 天津大学, 2019(06)
- [7]基于深度图像的人体动作识别方法研究[D]. 王松. 兰州交通大学, 2019(01)
- [8]面向社会机器人的3D手势建模、识别与学习[D]. 况逸群. 电子科技大学, 2019(01)
- [9]基于深度神经网络的动态手势识别技术研究[D]. 王强宇. 中国矿业大学(北京), 2019(09)
- [10]情境感知智能人机交互关键技术研究[D]. 罗勇. 上海大学, 2019