开题报告6自由度串联机器人控制系统研究Word文档下载推荐.docx
- 文档编号:20424012
- 上传时间:2023-01-22
- 格式:DOCX
- 页数:17
- 大小:32.88KB
开题报告6自由度串联机器人控制系统研究Word文档下载推荐.docx
《开题报告6自由度串联机器人控制系统研究Word文档下载推荐.docx》由会员分享,可在线阅读,更多相关《开题报告6自由度串联机器人控制系统研究Word文档下载推荐.docx(17页珍藏版)》请在冰豆网上搜索。
它已经成为一种公认的科学研究对象,并且在社会实践中逐渐展现出巨大的应用潜能和价值。
从机器人的深入研究和快速发展中可以预见21世纪,机器人将会出现在人类生活的每个角落,亦不可阻挡之势成为时代发展的主流,我国大学生,研究生和高科技人才要做好应对之策,加大对机器人的开发和应用,争取走在时代前列,赶超欧美和日本等高科技发达国家,使机器人能更好的为我国社会主义现代化建设服务,为我国的人民服务。
人类科学技术的不断进步,推动着机器人技术不断的发展和完善。
机器人技术的快速发展和广泛应用,又促进人民生活质量的改善,推动者生产力的提高和整个社会的进步。
在现实生活中机器人无处不在,在人们日常生活中国起着重要的作用,并开始慢慢的融入了人们的生活。
机器人技术作为当今科学技术发展的前沿学科和重要的研究领域之一,必将成为未来社会生产和生活中不可缺少的重要工具。
因此,以上是我们研究基于FPGA+DSP的6自由度串联机器人控制系统研究的目的所在。
将有非常好的产业化前景,具有重大的实际意义,经济效益和社会效益。
3、课题研究目的、理论意义和实际应用价值
本课题的研究目的在于解决工业生产线上六自由度工业机械人智能抓取运动物体过程中的轨迹规划问题。
传统的工业机器人通过示教和预编程来实现固定的抓取,位置与姿势的变化。
其运动轨迹以及物体的起始位姿和终止位姿都是用户指定的。
为了提高串联工业机器人的运动精度,国内外机器人公司和研究机构都将轨迹规划作为串联机械臂研究的一个重要方向,也是研究机械臂重要的性能指标之一。
轨迹规划是工业机器人的控制基础,其控制目标是平稳、快速和精确实现所规划的轨迹运动。
工业机械臂的轨迹规划需给出末端操作器的初始位姿、终止位姿和轨迹曲线运动中所经过的有限个已知点。
根据运动轨迹的约束条件,可以将运动轨迹分为简单描述和详细描述两种。
简单描述运动时,只规定工业机械臂的初始位姿和终止位姿即可,即点到点运动方式。
而详细描述运动时,不仅要规定工业机械臂的初始位姿和终止位姿,而且要给出介于初始位姿和终止位姿两点之间的有限个路径点,即路径跟踪运动。
其轨迹规划的实现目标包括时间最优、距离最短和功率最优等。
而轨迹规划的实现方式既可以在关节空间实现也可以在笛卡尔空间实现,其在关节空间实现方法有很多种,包括三次多项式插值函数、带抛物线过渡的三次多项式插值函数、五次多项式插值函数和样条插值函数等。
国内外对串联工业机械臂的轨迹规划研究中,较多的是采用时间最优的带抛物线过渡的三次多项式或五次多项式来实现。
虽然串联工业机械臂轨迹规划的研究已经相当成熟,但是大部分工业机械臂研究人员对其还在不断的完善其轨迹规划方式,以提高串联工业机器人运动控制的精度。
点到点运动不需要在笛卡尔空间对机器人的末端操作器运动轨迹曲线进行规划,而只需要在关节空间对各个关节分别进行运动轨迹规划即可。
由于点到点运动方式只关心特定的起始位置和终止位置点,不考虑运动轨迹的路径。
因此,点到点运动时,工业机械臂的末端操作器在笛卡尔空间坐标系中具有很多种可能的运动轨迹。
由于轨迹跟踪运动需要规定末端操作器在笛卡尔空间的轨迹运动路径,保证工业机械臂的末端操作器能够在规定的路径轨迹上运动,需要实时计算出路径上运动为基础,而点到点运动路径的中间轨迹路径是不确定的。
因此,轨迹跟踪运动只能够在规定的路径点上保证工业机器人的末端操作器达到期望位姿,但是不能够保证各个路径点中间轨迹工业机器人的末端操作器达到期望位姿。
轨迹跟踪运动除了规定初始位姿和终止位姿约束外,还存在着各个路径点之间的时间分配问题。
为了减小两个路径点之间工业机械臂的末端操作器实际位姿与期望位姿的偏差,通常对各个关节按照联动控制进行关节空间的轨迹规划。
实际上就是在进行关节空间的运动轨迹规划时,要使得各个关节具有相同的运动时间。
本课题研究的基与FPGA+DSP的机器人控制系统,有效的解决了机器人运动轨迹规划的问题,以及伺服电机控制问题,可以完成在工业环境下使机器人对用户指定的的移动工件进行智能抓取,改善了传统示教型机器人需要用户设定的问题,也改善了工业机器人对生产线环境的适应能力,便于实现机器人视觉伺服的升级改造,增加了工业生产线的智能程度。
二、文献综述
国内外研究现状、发展动态:
所阅读文献的查阅范围及手段
2、国内外现状、发展动态
轨迹规划需要对运动轨迹进行描述,根据已经确定的轨迹参数,在计算机上模拟所要求的轨迹,在规划中,不仅要规定机器人的起始点和终止点,而且要给出中间点(路径点)的位姿及路径点之间的时间分配,即给出了两个路径点之间的运动时间。
传统的机器人基本操作方式是示教-再现,即首先教机器人如何做,机器人记住了这个过程,于是它可以根据需要重复这个动作。
操作过程中,不可能把空间轨迹的所有点都示教一边,对于有规律的轨迹,仅示教几个特征点,计算机就能利用插补算法获得中间点的坐标,如直线需要示教两点,圆弧需要示教三点,通过机器人逆向运动学算法,由这些点的坐标求出机器人各关节的位置和角度,然后由后面的角位置闭环控制系统实现要求的轨迹上的一点。
继续插补并重复上述过程,从而实现要求的轨迹,可见,国内主要专注于以下三个阶段,机器人的运动学逆解,插补算法,机器人的运动控制,在运动学逆解的求取中,主要集中在用解析法,迭代法等传统的算法,还有今年涌现出的许多优秀的学者提出了各种先进的逆解算法,例如基于免疫RBF神经网络的逆运动学求解,模拟退火或基于改进的模拟退火算法,遗传算法,粒子群算法,蚁群算法等运用到机器人逆运动学的求解中去,取得了较好的效果,逆运动学计算时间缩短,计算结果的精度显著提高,关于机器人的插补算法大致分为两种,定时插补和定距插补,这两种插补方式的基本算法是一样的,只是前者固定时间,易于实现,后者报这个轨迹插补精度,但时间要随着速度而变化,实现起来稍困难些。
最后是机器人关节变量的运动控制,核心是伺服电机的驱动以及高精度控制,国内外大多著名的机器人厂商集中采用了大型的电气驱动箱以及基于工业PC的运动控制架构,在机器人的小型化上也有许多人尝试基于嵌入式的机器人控制方案。
2、阅读文献
[1].RoosmalenV.RestorationofArchivedFilmandVideo[D].Delft,Holland:
DelftUniversityofTechnology,1999.
[2].KokaramAC.MotionPictureRestorationDigitalAlgorithmsforArtifactSuppressioninDegradedMotionPictureFilmandVideo[M].Berlin,Germany:
Springer-Verlag,1998.
[3].ColliesR,LiptonA.ASystemforVideoSurveillanceandMonitoring:
VASMFinalReport[R].CMU-RI-TR-00-12,TheRoboticsInstitute,CarnegieMellonUniversity,2000.
[4].P.Remagnino,T.Tanb,K.Bakera.Multi-agentVisualSurveillanceofDynamicScenes[J].ImageandVisionComputing,1998,16:
529-532.
[5].HaritaogluI,HarwoodD,DavisL.W4:
Real-TimeSurveillanceofPeopleandTheirActivities[J].IEEETransonPatternAnalysisandMachineIntelligence,2000,22(8):
809-830.
[6].WrenC,AzarbayejaniA,DarrellT,PentlandA.Pfnder:
Real-TimeTrackingoftheHumanBody[J].IEEETransonPatternAnalysisandMachineIntelligence,1997,19(7):
780-785.
[7].MishraP,BiswasPK.IntelligentTargetDetectionandTrackingofMovingTargetsFromRealTimeVideoSequences[J].TheIndianConferenceonComputerVision,GraphicsandImageProcessing(ICVGIP),2000.
[8].J.KwonandK.M.Lee,VisualTrackingDecomposition[J].CVPR(2010):
1269-1276.
[9].TaoH,SawhneyH.S,KumarR.ObjectTrackingwithBayesianEstimationofDynamicLayerRepresentation[J].IEEETransactiononPatternAnalysisandMachineIntelligence(S0162-8828),2002,24
(1):
75-89.
[10].智能视频监控展示[EB/OL].:
//cbsr.ia.ac/china/Surveilance%20Demos%20CH.asp.
[11].智能视觉物联网[EB/OL].:
//cbsr.ia.ac/Li%20Group/SVIOT.html.
[12].C.Shen.RobustVisualTrackinginImageSequences[D].TheUniversityofAdelaide,2005.
[13].K.Zhang,L.Zhang,M.-H.Yang.Real-TimeCompressiveTracking[J].EuropeanConferenceonComputerVision,2012,toappear.25,29.
[14].H.Li,C.Shen,Q.Shi.Real-TimeVisualTrackingUsingCompressiveSensing[J].CVPR(2011)1305-1312.
[15].H.Grabner,M.Grabner,H.Bischof.Real-TimeTrackingviaOnlineBoosting[J].BMVC(2006):
47-56.
[16].H.Grabner,H.Bischof.On-LineBoostingandVision[J].CVPR(2006):
260-267.
[17].H.Grabner,C.Leistner,H.Bischof.Semi-supervisedOn-LineBoostingforRobustTracking[J].ECCV(2008):
234-247.
[18].A.Saffari,C.Leistner,J.Santner,M.Godec,H.Bischof.On-lineRandomForests[J].ICCV(2009):
1393-1400.
[19].G.Bradski,A.Kaehler.LearningOpenCV[M].California:
O’ReillyMedia,Inc,2008,9.
[20].RobertLaganiè
re.OpenCV2ComputerVisionApplicationProgrammingCookbook[M].Birmingham:
PacktPublishingLtd.2011,5.
[21].GeorgNebehay.RobustObjectTrackingBasedonTracking-Learning-Detection[D].Vienna:
FacultyofInformatics,ViennaUniversityofTechnology.2012.
[22].StevenAbney.Bootstrapping[J].The40thAnnualMeetingonAssociationforComputationalLinguistics(2002):
360-367.
[23].EivindGravdal.AugmentedRealityandObjectTrackingforMobileDevices[D].DepartmentofEngineeringCybernetics,NorwegianUniversityofScienceandTechnology.2012.
[24].S.Avidan.EnsembleTracking[J].PAMI,29
(2):
261–271,2007.
[25].L.Breiman.RandomForests[J].ML,45
(1):
5–32,2001.
[26].A.BlumandT.Mitchell.CombiningLabeledandUnlabeledDatawithCo-training[J].COLT,1998.
[27].B.Babenko,M.-H.Yang,S.Belongie.VisualTrackingwithOn-lineMultipleInstanceLearning[J].CVPR,2009.
[28].C.Rosenberg,M.Hebert,H.Schneiderman.Semi-SupervisedSelf-TrainingofObjectDetectionModels[J].WACV,2005.
[29].Z.Kalal,J.Matas,K.Mikolajczyk.WeightedSamplingforLarge-scaleBoosting[J].BMVC,2008
[30].Z.Kalal,J.Matas,K.Mikolajczyk.OnlineLearningofRobustObjectDetectorsDuringUnstableTracking.OLCV,2009.
[31].Z.Kalal,J.Matas,K.Mikolajczyk.P-NLearning:
BootstrappingBinaryClassifiersbyStructuralConstraints[J].CVPR,2010.
[32].Z.Kalal,K.Mikolajczyk,J.Matas.Forward-BackwardError:
AutomaticDetectionofTrackingFailures[J].ICPR(2010):
23–26.
[33].Z.Kalal,K.Mikolajczyk,J.Matas.Face-TLD:
Tracking-Learning-DetectionAppliedtoFaces[J].ICIP(2010).
[34].S.Avidan.SupportVectorTracking.PAMI(2004):
1064–1072.
[35].M.Yang,Y.Wu,G.Hua.Context-awareVisualTracking[J].PAMI(2009):
1195–1209.
[36].Zdenekkalal.FaceDetectionwithWaldboostAlgorithm[D].Prague:
FacultyofElectricalEngineering,CzechTechnicalUniversity,2007.
[37].MaartenSomborst.Multi-cameraVideoSurveillanceSystem[D].FacultyofElectricalEngineering,MathematicsandComputerScience,DelftUniversityofTechnology,2012.
[38].TomasVojir.DemoApplicationforTracking-Modeling-Detection[D].FacultyofElectricalEngineering,CzechTechnicalUniversity,2010.
[39].JiriMatas,TomasVojir.RobustifyingtheFlockofTrackers[J].ComputerVisionWinterWorkshop,2011.
[40].Z.Kalal,K.Mikolajczyk,J.Matas.Tracking-Learning-Detection[J].PAMI(2012):
99.
[41].A.Blum,T.Mitchell.CombiningLabeledandUnlabeledDatawithCo-Training[J].ConferenceonComputationalLearningTheory(1998):
100.
[42].B.D.Lucas,T.Kanade.AnIterativeImageRegistrationTechniquewithanApplicationtoStereoVision[J].InternationalJointConferenceonArtificialIntelligence(1981):
674–679.
[43].I.Barandiaran,C.Cottez,C.Paloc,M.Grana.ComparativeEvaluationofRandomForestandFernClassifiersforReal-TimeFeatureMatching[J].ProceedingsofWSCG(2008):
59–166.
[44].M.Ozuysal,M.Calonder,V.Lepetit,P.Fua.FastKeypointRecognitionusingRandomFerns[J].PAMI(2010):
448-461.
[45].M.Ozuysal,P.Fua,V.Lepetit.FastKeypointRecognitioninTenLinesofCode[J].CVPR(2007).
[46].EPFL.ASemi-NaiveBayesianClassifierforFastPatchClassification[EB/OL].:
//cvlab.epfl.ch/alumni/oezuysal/ferns.html,2010.
[47].DavidCapel.RandomForestsandFerns[R].Learning,PerceptionandCognition(LPAC)group.
[48].
L.Breiman.HowtoUseSurvivalForests[R].DepartmentofStatistics,UniversityofCalifornia,Berkeley,2003.
[49].A.Bosch,A.Zisserman,X.Munoz.ImageClassificationusingRandomForestsandFerns[J].ICCV(2007):
1-8.
[50].V.Lepetit,P.Fua.KeypointRecognitionusingRandomizedTrees[J].PAMI(2006):
1465-1479.
[51].M.Godec,C.Leistner,A.Saffari,H.Bischof.On-lineRandomNaiveBayesforTracking[J].ICPR(2010):
3545-3548.
[52].L.Breiman,A.Cutler.RandomForests[EB/OL].:
//stat.berkeley.edu/~breiman/RandomForests/cc_home.htm.
[53].C.Leistner,A.Saffari,J.Santner,H.Bichof.Semi-SupervisedRandomForests[J].CV(2009):
506-513.
[54].I.Steinwart,A.Christmann.SupportVectorMachines[M].NewYork:
SpringerScienceBusinessMedia,LLC,2008.
[55].C.Bibby,I.Reid.RobustReal-TimeVisualTrackingusingPixel-WisePosteriors[J].ECCV(2008):
831-844.
[56].CharlesElkan.NearestNeighborClassification[J].Available:
:
//cseweb.ucsd.edu/-elkan/250B/nearestn.pdf
[57].X.Li,C.H.Xiang.Correlation
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 开题 报告 自由度 串联 机器人 控制系统 研究