出版時間:2011-3 出版社:機械工業(yè)出版社 作者:[加] Simon Haykin 頁數:572 譯者:申富饒,徐燁,鄭俊,晁靜
Tag標簽:無
內容概要
神經網絡是計算智能和機器學習的重要分支,在諸多領域都取得了很大的成功。在眾多神經網絡著作中,影響最為廣泛的是Simon Haykin的《神經網絡原理》(第3版更名為《神經網絡與機器學習》)。在本書中,作者結合近年來神經網絡和機器學習的最新進展,從理論和實際應用出發(fā),全面、系統(tǒng)地介紹了神經網絡的基本模型、方法和技術,并將神經網絡和機器學習有機地結合在一起。 本書不但注重對數學分析方法和理論的探討,而且也非常關注神經網絡在模式識別、信號處理以及控制系統(tǒng)等實際工程問題的應用。本書的可讀性非常強,作者舉重若輕地對神經網絡的基本模型和主要學習理論進行了深入探討和分析,通過大量的試驗報告、例題和習題來幫助讀者更好地學習神經網絡。 本版在前一版的基礎上進行了廣泛修訂,提供了神經網絡和機器學習這兩個越來越重要的學科的最新分析?! ”緯厣骸 ?. 基于隨機梯度下降的在線學習算法;小規(guī)模和大規(guī)模學習問題。 2. 核方法,包括支持向量機和表達定理?! ?. 信息論學習模型,包括連接、獨立分量分析(ICA)、一致獨立分量分析和信息瓶頸?! ?. 隨機動態(tài)規(guī)劃,包括逼近和神經動態(tài)規(guī)劃?! ?. 逐次狀態(tài)估計算法,包括卡爾曼和粒子濾波器。 6. 利用逐次狀態(tài)估計算法訓練遞歸神經網絡?! ?. 富有洞察力的面向計算機的試驗。
作者簡介
作者:(加拿大)海金(Simon Haykin) 譯者:申富饒 徐燁 鄭俊 晁靜Simon Haykin,是國際電子電氣工程界的著名學者,加拿大皇家學會院士,IEEE會士,于1953年獲得英國伯明翰大學博士學位,現任加拿大麥克馬斯特大學教授,在該校創(chuàng)辦了通信研究實驗室并長期擔任主任。他曾經獲得IEEE McNaughton獎章,在神經網絡、通信、自適應濾波器等領域成果頗豐,著有多種標準教材。
書籍目錄
出版者的話譯者序前言縮寫和符號術語第0章 導言0.1 什么是神經網絡0.2 人類大腦0.3 神經元模型0.4 被看作有向圖的神經網絡0.5 反饋0.6 網絡結構0.7 知識表示0.8 學習過程0.9 學習任務0.10 結束語注釋和參考文獻第1章 Rosenblatt感知器1.1 引言1.2 感知器1.3 感知器收斂定理1.4 高斯環(huán)境下感知器與貝葉斯分類器的關系1.5 計算機實驗:模式分類1.6 批量感知器算法1.7 小結和討論注釋和參考文獻習題第2章 通過回歸建立模型2.1 引言2.2 線性回歸模型:初步考慮2.3 參數向量的最大后驗估計2.4 正則最小二乘估計和MAP估計之間的關系2.5 計算機實驗:模式分類2.6 最小描述長度原則2.7 固定樣本大小考慮2.8 工具變量方法2.9 小結和討論注釋和參考文獻習題第3章 最小均方算法3.1 引言3.2 LMS算法的濾波結構3.3 無約束最優(yōu)化:回顧3.4 維納濾波器3.5 最小均方算法3.6 用馬爾可夫模型來描畫LMS算法和維納濾波器的偏差3.7 朗之萬方程:布朗運動的特點3.8 Kushner直接平均法3.9 小學習率參數下統(tǒng)計LMS學習理論3.10 計算機實驗?。壕€性預測3.11 計算機實驗ⅱ:模式分類3.12 LMS算法的優(yōu)點和局限3.13 學習率退火方案3.14 小結和討論注釋和參考文獻習題第4章 多層感知器4.1 引言4.2 一些預備知識4.3 批量學習和在線學習4.4 反向傳播算法4.5 異或問題4.6 改善反向傳播算法性能的試探法4.7 計算機實驗:模式分類4.8 反向傳播和微分4.9 Hessian矩陣及其在在線學習中的規(guī)則4.10 學習率的最優(yōu)退火和自適應控制4.11 泛化4.12 函數逼近4.13 交叉驗證4.14 復雜度正則化和網絡修剪4.15 反向傳播學習的優(yōu)點和局限4.16 作為最優(yōu)化問題看待的監(jiān)督學習4.17 卷積網絡4.18 非線性濾波4.19 小規(guī)模和大規(guī)模學習問題4.20 小結和討論注釋和參考文獻習題第5章 核方法和徑向基函數網絡5.1 引言5.2 模式可分性的Cover定理5.3 插值問題5.4 徑向基函數網絡5.5 K-均值聚類5.6 權向量的遞歸最小二乘估計5.7 RBF網絡的混合學習過程5.8 計算機實驗:模式分類5.9 高斯隱藏單元的解釋5.10 核回歸及其與RBF網絡的關系5.11 小結和討論注釋和參考文獻習題第6章支持向量機6.1 引言6.2 線性可分模式的最優(yōu)超平面6.3 不可分模式的最優(yōu)超平面6.4 使用核方法的支持向量機6.5 支持向量機的設計6.6 XOR問題6.7 計算機實驗:模式分類6.8 回歸:魯棒性考慮6.9 線性回歸問題的最優(yōu)化解6.10表示定理和相關問題6.11 小結和討論注釋和參考文獻習題第7章 正則化理論7.1 引言7.2 良態(tài)問題的Hadamard條件7.3 Tikhonov正則化理論7.4 正則化網絡7.5 廣義徑向基函數網絡7.6 再論正則化最小二乘估計7.7 對正則化的附加要點7.8 正則化參數估計7.9 半監(jiān)督學習7.1 0流形正則化:初步的考慮7.1 1可微流形7.1 2廣義正則化理論7.1 3光譜圖理論7.1 4廣義表示定理7.1 5拉普拉斯正則化最小二乘算法7.1 6用半監(jiān)督學習對模式分類的實驗7.1 7小結和討論注釋和參考文獻習題第8章 主分量分析8.1 引言232……第9章 自組織映射第10章 信息論學習模型第11章 植根于統(tǒng)計力學的隨機方法第12章 動態(tài)規(guī)劃第13章 神經動力學第14章 動態(tài)系統(tǒng)狀態(tài)估計的貝葉斯濾波第15章 動態(tài)驅動遞歸網絡參考文獻
章節(jié)摘錄
版權頁:插圖:0.1什么是神經網絡自從認識到人腦計算與傳統(tǒng)的數字計算機相比是完全不同的方式開始,關于人工神經網絡(一般稱為“神經網絡”(neural network))的研究工作就開始了。人腦是一個高度復雜的、非線性的和并行的計算機器(信息處理系統(tǒng))。人腦能夠組織它的組成成分,即神經元,以比今天已有的最快的計算機還要快許多倍的速度進行特定的計算(如模式識別、感知和發(fā)動機控制)。例如,考慮人類視覺,這是一個信息處理任務。視覺系統(tǒng)的功能是為我們提供一個關于周圍環(huán)境的表示,并且更重要的是提供我們與環(huán)境交互(interact)所需的信息。具體來說,完成一個感知識別任務(例如識別一張被嵌入陌生場景的熟悉的臉)人腦大概需要100~200毫秒,而一臺高效的計算機卻要花費比人腦多很多的時間才能完成一個相對簡單的任務。再舉一個例子:考慮一只蝙蝠的聲吶。聲吶就是一個活動回聲定位系統(tǒng)。除了提供目標(例如飛行的昆蟲)有多遠的信息外,蝙蝠的聲吶可以搜集目標的相對速度、目標大小、目標不同特征的大小以及它的方位角和仰角的信息。所有這些信息都從目標回聲中提取,而所有需要的復雜神經計算只在李子般大小的腦中完成。事實上,一只回聲定位的蝙蝠可以靈巧地以很高的成功率追逐和捕捉目標,這一點足以使雷達或聲吶工程師們自嘆弗如。那么,人腦或蝙蝠的腦是如何做到這一點的呢?腦在出生的時候就有很復雜的構造和具有通過我們通常稱為的“經驗”來建立它自己規(guī)則的能力。確實,經驗是經過時間積累的,人腦在出生后頭兩年內發(fā)生了非常大的進化(即硬接線),但是進化將超越這個階段并繼續(xù)進行。一個“進化中”的神經系統(tǒng)是與可塑的大腦同義的。可塑性(plasticity)允許進化中的神經系統(tǒng)適應(adapt)其周邊環(huán)境。可塑性似乎是人類大腦中作為信息處理單元的神經元功能的關鍵,同樣,它在人工神經元組成的神經網絡中亦是如此。最普通形式的神經網絡,就是對人腦完成特定任務或感興趣功能所采用的方法進行建模的機器。網絡一般用電子元件實現或者用軟件在數字計算機上模擬。在本書中,我們集中介紹一類重要的神經網絡,這類網絡通過學習過程來實現有用的計算。為了獲得良好性能,神經網絡使用一個很龐大的簡單計算單元間的相互連接,這些簡單計算單元稱為“神經元”或者“處理單元”。據此我們給出將神經網絡看作一種自適應機器的定義。
編輯推薦
《神經網絡與機器學習(原書第3版)》:神經網絡是計算智能和機器學習的重要分支,在諸多領域都取得了很大的成功。在眾多神經網絡著作中,影響最為廣泛的是Simon Haykin的《神經網絡原理》(第3版更名為《神經網絡與機器學習》)。在《神經網絡與機器學習(原書第3版)》中,作者結合近年來神經網絡和機器學習的最新進展,從理論和實際應用出發(fā),全面、系統(tǒng)地介紹了神經網絡的基本模型、方法和技術,并將神經網絡和機器學習有機地結合在一起?!渡窠浘W絡與機器學習(原書第3版)》不但注重對數學分析方法和理論的探討,而且也非常關注神經網絡在模式識別、信號處理以及控制系統(tǒng)等實際工程問題中的應用?!渡窠浘W絡與機器學習(原書第3版)》的可讀性非常強,作者舉重若輕地對神經網絡的基本模型和主要學習理論進行了深入探討和分析,通過大量的實驗報告、例題和習題來幫助讀者更好地學習神經網絡。本版在前一版的基礎上進行了廣泛修訂,提供了神經網絡和機器學習這兩個越來越重要的學科的最新分析?!渡窠浘W絡與機器學習(原書第3版)》特色 ·基于隨機梯度下降的在線學習算法;小規(guī)模和大規(guī)模學習問題。 ·核方法,包括支持向量機和表示定理。 ·信息論學習模型,包括獨立分量分析(1CA)、相關獨立分量分析和信息瓶頸等。 ·隨機動態(tài)規(guī)劃,包括逼近和神經動態(tài)規(guī)劃。 ·逐次狀態(tài)估計算法,包括卡爾曼和粒子濾波器。 ·利用逐次狀態(tài)估計算法訓練遞歸神經網絡。 ·富有洞察力的面向計算機的實驗。
圖書封面
圖書標簽Tags
無
評論、評分、閱讀與下載