出版時間:2010-8 出版社:電子工業(yè)出版社 作者:蘇劍波. 頁數:212
Tag標簽:無
內容概要
本書介紹機器人手眼關系無標定協調控制的研究成果,在總結已有工作的基礎上,著重探索針對動態(tài)目標任務的手眼反饋控制策略。全書分三篇描述不同的策略,各自獨立又相互關聯。上篇以圖像雅可比矩陣為工具,討論圖像雅可比矩陣在線估計算法在構建機器人圖像反饋控制器中的作用;中篇通過非線性視覺映射模型,將圖像特征空間與機器人運動空間聯系起來,探討利用人工神經網絡實現映射的視覺控制方法;下篇進一步分析無標定手眼協調系統(tǒng)內在的非線性映射關系和耦合關系,利用擴張狀態(tài)觀測器在線估計系統(tǒng)總的未建模動態(tài),在控制器設計中加以補償。 本書可供傳感信息處理和機器人智能控制領域的教師、研究人員和工程技術人員閱讀參考。
書籍目錄
上篇 Kalman濾波方法 第1章 緒論 1.1 引言 1.2 機器人手眼協調 1.2.1 手眼協調技術的歷史發(fā)展 1.2.2 手眼協調系統(tǒng)結構 1.3 無標定手眼協調及其控制方法 1.3.1 問題的提出 1.3.2 傳統(tǒng)的無標定方法 1.4 本篇的主要工作 第2章 基于圖像雅可比矩陣的無標定手眼協調 2.1 圖像雅可比矩陣模型 2.2 圖像雅可比矩陣的例子 2.3 應用圖像雅可比矩陣建立視覺反饋控制 2.4 基于圖像雅可比矩陣的手眼協調系統(tǒng)的性能分析 2.5 無標定環(huán)境下雅可比矩陣的辨識方法 第3章 基于Kalman濾波的雅可比矩陣在線辨識 3.1 圖像雅可比矩陣的動態(tài)辨識 3.2 Kalman濾波估計算法概述 3.3 圖像雅可比矩陣的在線Kalman濾波辨識 第4章 眼固定+眼在手上的無標定二維運動跟蹤 4.1 系統(tǒng)與任務描述 4.2 全局視覺的無標定手眼協調控制 4.2.1 固定攝像機觀察二維運動的圖像雅可比矩陣 4.2.2 固定眼圖像雅可比矩陣的在線Kalman估計 4.2.3 固定眼的視覺反饋控制 4.3 眼在手上無標定視覺伺服 4.3.1 手上攝像機的圖像雅可比矩陣 4.3.2 眼在手上圖像雅可比矩陣的估計 4.3.3 眼在手上的視覺反饋控制率 4.4 兩種反饋控制率的切換 4.5 二維運動跟蹤仿真 第5章 固定雙目無標定三維運動跟蹤 5.1 雙目視覺的圖像雅可比矩陣 5.2 圖像雅可比矩陣的在線Kalman.Bucv估計 5.3 基于圖像雅可比矩陣的反饋控制率 5.4 三維運動跟蹤仿真 第6章 機器人手眼協調實驗系統(tǒng) 6.1 系統(tǒng)整體結構 6.2 機器人本體 6.2.1 機器人本體控制器 6.2.2 機器人端控制程序 6.3 機器人視覺子系統(tǒng) 6.3.1 系統(tǒng)構成 6.3.2 圖像卡程序開發(fā) 6.3.3 彩色圖像處理 6.3.4 圖像預處理 6.3.5 圖像特征與目標識別 6.4 通信子系統(tǒng) 6.4.1 子系統(tǒng)結構與功能 6.4.2 系統(tǒng)通信協議設計 6.4.3 模塊的具體實現 第7章 無標定手眼協調運動跟蹤實驗 7.1 眼固定+眼在手上無標定二維運動跟蹤實驗 7.2 無標定三維運動跟蹤實驗 本篇小結 參考文獻中篇 神經網絡方法 第8章 緒論 8.1 視覺伺服系統(tǒng)分類 8.2 視覺處理 8.2.1 圖像特征 8.2.2 視覺估計 8.2.3 圖像雅可比矩陣 8.3 視覺控制器 8.4 無標定手眼協調 8.5 本篇主要工作 第9章 基于神經網絡的圖像雅可比矩陣估計方法 9.1 圖像雅可比矩陣方法原理 9.2 神經網絡方法原理 9.3 圖像雅可比矩陣分析 9.4 改進的圖像雅可比矩陣方法 9.5 仿真結果 第10章 眼固定機器人平面視覺跟蹤 10.1 平面視覺跟蹤問題描述 10.2 視覺映射模型 10.3 控制策略 10.3.1 實時運動規(guī)劃 10.3.2 神經網絡映射器 10.3.3 仿真結果 10.4 基于在線自學習的視覺跟蹤 10.4.1 小腦模型神經網絡 10.4.2 仿真結果 第11章 眼固定機器人三維視黨跟蹤 11.1 基于立體視覺的3D視覺跟蹤 11.1.1 問題描述 11.1.2 基于融合方程的視覺跟蹤方法 11.1.3 視覺映射模型 11.1.4 控制策略 11.1.5 仿真結果 11.2 基于單攝像機的三維視覺跟蹤 11.2.1 問題描述 11.2.2 視覺映射模型 11.2.3 控制策略 11.2.4 仿真結果 第12章 眼在手上機器人平動視覺跟蹤 12.1 眼在手上無標定方法的現狀 12.2 機器人平面視覺跟蹤 12.2.1 問題描述 12.2.2 眼在手上機器人視覺跟蹤問題分析 12.2.3 視覺映射關系模型 12.2.4 控制策略 12.2.5 仿真結果 12.2.6 視覺定位問題 12.3 基于立體視覺的3一DOF無標定視覺跟蹤 12.3.1 視覺映射關系模型 12.3.2 控制策略 12.3.3 仿真結果 第13章 眼在手上機器人全自由度視覺跟蹤 13.1 全自由度視覺跟蹤問題描述 13.2 全自由度視覺跟蹤問題分析 13.3 視覺映射關系模型 13.4 控制策略 13.5 模糊神經網絡 13.5.1 模糊系統(tǒng)與神經網絡的比較 13.5.2 一種新的模糊神經網絡 13.6 仿真結果 第14章 視覺跟蹤系統(tǒng)的性能分析與改進 14.1 動態(tài)視覺控制與運動視覺控制 14.2 眼固定構型 14.2.1 系統(tǒng)離散域模型 14.2.2 跟蹤誤差分析 14.2.3 控制系統(tǒng)穩(wěn)定性 14.2.4 速度前饋控制器 14.3 眼在手上構型平面視覺跟蹤 14.3.1 系統(tǒng)離散域模型 14.3.2 跟蹤誤差分析 14.3.3 控制系統(tǒng)穩(wěn)定性 14.3.4 加速度前饋控制器 14.4 眼固定構型與眼在手上構型的比較 第15章 實驗研究 15.1 系統(tǒng)結構 15.1.1 機器人及其控制器 15.1.2 CCD攝像機 15.1.3 圖像采集卡 15.2 實驗設計 15.3 實驗步驟 15.4 實驗結果 本篇小結 參考文獻下篇 擴張狀態(tài)觀測器方法 第16章 緒論 16.1 引言 16.2 本篇主要工作 第17章 基于擴張狀態(tài)觀測的控制器理論及參數調整 17.1 擴張狀態(tài)觀測器 17.2 傳統(tǒng)PID控制器結構分析 17.3 自抗擾控制器 17.3.1 非線性跟蹤微分器 17.3.2 非線性狀態(tài)誤差反饋控制律(NLSEF) 17.3.3 自抗擾控制器(ADRC)實現形式 17.3.4 自抗擾控制器適用對象 17.4 自抗擾控制器的參數調整 第18章 手眼協調系統(tǒng)建模及ADRC控制器設計 18.1 系統(tǒng)建模 18.1.1 攝像機模型 18.1.2 攝像機參數 18.2 系統(tǒng)模型 18.3 控制器設計 第19章 系統(tǒng)仿真研究 19.1 全局固定攝像頭無標定二維運動跟蹤 19.2 眼固定與眼在手上相結合的無標定二維運動跟蹤 19.3 固定雙目無標定三維運動跟蹤 第20章 手眼協調控制器的穩(wěn)定性分析 20.1 全局固定單眼構型情況下控制器形式 20.2 一階跟蹤微分器的收斂性分析 20.3 二階擴張狀態(tài)觀測器的收斂性分析 20.4 整個控制器的收斂性能分析 第21章 無標定機器人手眼協調實驗研究 21.1 機器人手眼協調實驗系統(tǒng)描述 21.1.1 機器人子系統(tǒng) 21.1.2 機器人視覺子系統(tǒng) 21.2 單眼固定無標定二維運動跟蹤試驗 21.3 眼固定與眼在手上相結合的無標定二維手眼協調實驗 21.4 無標定三維手眼協調實驗 第22章 自抗擾控制器和雅可比矩陣在線辨識聯合控制的手眼協調研究 22.1 控制思想描述 22.2 控制器設計 22.3 仿真研究 22.4 二維跟蹤實驗 本篇小結參考文獻
圖書封面
圖書標簽Tags
無
評論、評分、閱讀與下載