文档详情

前馈神经网络..doc

发布:2017-01-09约3.16千字共7页下载文档
文本预览下载声明
前饋式類神經網路 1 前言 前饋式類神經網路是第一個也是最簡單的類神經網路,它是由多層的神經元所組成,其訊息傳遞的方式是從輸入層經由隱藏層往輸出層的方向傳送,每一層神經元只會接受上層神經元所傳送過來的輸出值,不同於循環式網路(Recurrent network)。 2 神經元 類神經網路最基本單位的是神經元(如圖1),神經元主要負責對資料的處理行為。在類神經網路中的某個神經元,可能接收一個到數個不等的輸入變數,變數的多寡取決於傳送到該神經元的輸入值個數。神經元接收輸入變數()後,視輸入變數的重要性,給予一個改變比重的參數,這些參數稱為配重值(Weight, ),神經元會將所有輸入變數經由配重值的加權後累加,然後再與神經元中的偏移量(Bias, B)相加,會產生一個淨值(),這個淨值將經由轉換函數的轉換,轉換出來的數值當成該神經元的輸出值。神經元的輸出值可以傳送到一個以上的神經元當作該神經元的輸入變數,或是當成網路的輸出值,一切依網路結構的情況而定。雖然,每個神經元可以同時接收一至多個不等的輸入變數,卻只有一個輸出值。神經元的計算公式如式(1)、(2)所示, (1) (2) 式中R為神經元輸入變數的個數,I1,I2,?,IR為神經元的輸入變數,?1,?2,?,?R為神經元各個輸入變數的配重值,B為該神經元的偏移量,為神經元的轉換函數。 圖.1 神經元 神經元的轉換函數可能是線性函數或是非線性函數,依問題的需求不同所選擇的轉換函數也會不同,選擇一個適合特定問題的轉換函數,對描述輸入變數與輸出值之關係,是非常重要的。可是,轉換函數的種類有很多,要選擇一個最適合特定問題的轉換函數,需要藉由不斷的嘗試才能獲得。以下列出本研究所使用的十種轉換函數: 1. 硬限制函數(Hard Limit transfer function) 2. 對稱硬限制函數(Symmetrical Hard Limit transfer function) 3. 飽和線性函數(Saturating Linear transfer function) 4. 對稱飽和線性函數(Symmetrical Saturating Linear transfer function) 5. 正線性函數(Positive Linear transfer function) 6. 線性函數(Linear transfer function) 7. S形函數(Sigmoid transfer function) 8. 雙曲正切函數(Hyperbolic Tangent transfer function) 9. 三角基函數(Triangular basis transfer function) 10. 高斯函數(Gaussian transfer function) 3 網路組織架構 前饋式類神經網路結構如圖12所示,數個接收相同輸入變數的神經元並聯組成網路的基礎結構 ? 層,再由數個層串聯組成一個前饋式類神經網路。同一層的神經元接收前一層所有神經元的輸出,並將輸出送至下一層做為下一層每個神經元的輸入變數。依各層的特質又可以區分為輸入層、輸出層和隱藏層三種。 1. 輸入層:輸入層每個神經元只接受一個輸入變數作為其輸入值,並將輸出送至下一層的每個神經元,所以輸入層神經元的個數等於輸入變數的個數。輸入層有兩種類型,第一種輸入層中的神經元具有配重值與偏移量,且具有轉換函數;第二種輸入層中的神經元只有接收輸入變數的功能,輸出值便是輸入變數,不具有運算的功能,本研究採用第二種類型的輸入層。一般若採用第二種類型的輸入層,不將此層當成一層。 2. 輸出層:輸出層每個神經元的輸出值便是網路的輸出值,所以輸出層神經元的個數等於網路的輸出值個數。 3. 隱藏層:介於輸入層與輸出層之間的層便是隱藏層,隱藏層的層數可以是零,也可以很多層,不過最常見的為一層,隱藏層神經元的個數也沒有一定,使用者視資料的複雜度調整隱藏層的層數與該隱藏層神經元的個數。 圖12 前饋式類神經網路結構 前饋式類神經網路是類神經網路最常見到的網路結構(如圖12),這種網路結構神經元間的資料傳遞方向與整個網路資料傳遞的方向相同,每一層的神經元只會接受前一層所有的神經元傳送過來的輸入變數,並經過處理後得到一個新輸出值,也就是說,第一層隱藏層只會接收來自輸入層的輸入變數,而第二層隱藏層只會接收來自第一層隱藏層的輸入變數,依此類推。使用前饋式類神經網路,一定會有輸入層與輸出層。一個非常簡單的問題可以沒有隱藏層,但是,類神經網路要具備處理複雜數據的能力,必須藉助隱藏層的使用,甚至於使用多層隱藏層。 通常不同層有不同的神經元個數和轉換函數。同一層各神經元的轉換函數通常是相同的,也就是說,同一層的神經元有
显示全部
相似文档