目前分類:影像處理 (4)

瀏覽方式: 標題列表 簡短摘要

一、前傳:

我們在決定分類的時候依據gi(x) = logP(Ci|x)或是P(Ci|x)來決策,其中X是新進來欲分類的資料,Ci則是現有資料的特徵,所以也可以把P(Ci|x)翻譯成:新進來的資料X屬於特徵Ci的機率。
則右圖為分類的取法條件機率  


文章標籤

陳小花 發表在 痞客邦 留言(0) 人氣()

Machine learning---Raymond J. Mooney

 

『機器學習』是一個新興且很有潛力的領域,它結合了統計、數學與資訊科學等學門。廣義來說,機器學習研究如何讓電腦具有學習的能力,從以往的經驗、資料中學習到知識,以增進電腦本身的效能,因此機器學習也可解釋為利用資料來建立一些模擬真實世界的模式(Model),利用這些模式來描述資料中的特徵(Patterns)以及關係(Relations)。這些模式有兩種用處,第一,瞭解資料的特徵與關係可以提供你做決策所需要的資訊。第二,資料的特徵可以幫助你做預測。

機器學習是一個重要的研究領域,在近幾年也有許多成功的應用。所發展的方法已被應用於消費者行為分析,聲音或影像識別,乃至於生物資訊等新興產業。

本章主要目的在介紹機器學習的基本概念、各種技術及演算法。如decision-tree、inductionRule InductionInstance-based、categorization等方法以及相關在自然語言處理上的應用,如:Part-of-speech taggingWord-sense disambiguationInformation extractionAnaphora resolution等。

文章標籤

陳小花 發表在 痞客邦 留言(1) 人氣()

直方圖均化:
 1.直方圖在影像處理裡面是把一張圖裡面各個顏色佔的個數或比例顯現成一張分布圖

 直方圖    

圖一:上面那三張的直方圖都集中在某個範圍,這樣容易偏亮偏暗對比度低,而最下面那張平均分布的直方圖則是對比度比較佳的

註:y軸為灰階出現機率或是個數,x軸為灰階值

文章標籤

陳小花 發表在 痞客邦 留言(0) 人氣()

最近學習到PCA,整理一下重點(如果有誤或侵權請提出)

壹、目標:

1.降階:影像處理裡面有多組資料,多個座標軸,我們希望以較少的資料(座標軸)來代表其資訊。

ex.有400個samples 70*70的灰階人臉,就有4900維度,我們需要截取少數特徵值明顯的來代表就好

2.獨立性:為了讓資料間沒有相關性(correlation),也就是讓covariance正交化,使得共變異數左下角和右上角都為零,這樣可以達到資料的獨立性,如果降階時資料有相關性那把其中的軸拿掉時座標點無法單獨被定義。

文章標籤

陳小花 發表在 痞客邦 留言(0) 人氣()