close

一、前傳:

我們在決定分類的時候依據gi(x) = logP(Ci|x)或是P(Ci|x)來決策,其中X是新進來欲分類的資料,Ci則是現有資料的特徵,所以也可以把P(Ci|x)翻譯成:新進來的資料X屬於特徵Ci的機率。
則右圖為分類的取法條件機率  


而我們也可以把資料表示成另一種形式標準式  

w表示權重,x代表樣本,我們把一個class看做一個值也就是等於樣本乘權重,而我們用這個值當作評估的標準,

去調整boundary,ex.假如身高+體重看成一個人身材的評量,如果身高*a+體重*b大於某個值時判定那個人是屬於胖子,

而a和b可以根據我們有的資料做微調也就像是如果我們算出A是胖子,但是A事實上我們認定他不是,那我們就可以把A

也考慮進去,加以調整a和b的權重,也就是調整boundary使得A不是胖子。

而經過一些推導我們得到這個式子公式1  

所以說可以推得如果sigmoid(wTx+w0)>0.5,或是wTx+w0>0則選擇C1

二、 perceptron

perceptron  

 

上圖是Two-Layer Perceptrons,x0 always=+1,連線部分為weight值,以此例子而言除了(1,1)以外另外三點代入

y=x1+x2-1.5   都小於零,故w0=-1.5可把資料分成兩類,右上代入為正,左下代入為負。


sigmoid  

 

上圖為sigmoid圖,sigmoid常用來做thredshold的功能,由於計算中需要用到微分所以不能直接用binary thredshold

故以sigmoid做取代。

而感知器方程式wTx+w0如果不經過sigmoid算出來的值為線性,常用於regression
但如果是做classification通常都是非線性的boundary,故需要用到sigmoid去做計算。 

multi proceptron  感知器調整  

 

上圖是三層感知器,我們假設weight W0為一個值,由上層至下層去做感知器的調整。
由於上層資料是由下層資料傳上來的值,所以我們要做誤差調整要反過來從上而下,首先做上層的調整(看右上圖)ri-yi是預估值減掉實際值,f'(net)是做sigmoid的微調,zh是第二層的值,換句話說最上層的調整等於預估值減實際值加上第二層的值。
第三層的誤差是上兩層誤差的傳遞,把上一層誤差值乘上權重再加上第三層的值,即調整完畢。

參考資料:
1.老師上課內容

 

 


arrow
arrow

    陳小花 發表在 痞客邦 留言(0) 人氣()