從前有隻壞豬提示您:看後求收藏(第249章 離譜的技術,讀書成神豪,從前有隻壞豬,大文學小說網),接著再看更方便。

請關閉瀏覽器的閱讀/暢讀/小說模式並且關閉廣告遮蔽過濾功能,避免出現內容無法顯示或者段落錯亂。

步態識別技術難以實現不僅是因為建立模型複雜。

當很久沒見到一個人之後,特別是孩子,由於變化較大,人眼就難以識別出對方了。

在機器視覺領域其實也是如此,如果識別特徵點變化太大,就會影響識別精度,比如一個人,孩提時和長大後,面部特徵變化會特別明顯,讓人臉識別去辨認,肯定難以辨識。

對於步態識別而言,這一樣適用。

如果只是幾年之內的成長變化,由於特徵點變化幅度不大依舊可以進行有效識別,但如果十幾年的時間,特徵點已經生非常明顯的改變,那將沒辦法有效識別。

雖然事實上,這樣的使用技術在實際應用中也基本不會出現,人類使用技術來進行生產生活的目的是提高工作效率、改善生活品質,根據效益最大化的原則,人類會自的讓工具揮最大效能。在合適的時間合適的地點合適的場景使用最合適的工具,而且是工具中最有效的那個部分,利用其所長捨棄其所短。

所以,為了機器視覺工具能夠揮最大功用,人類會根據實際需要,動態的採集資訊,不斷更新最新資料,以便相應技術可以達到最好的效果,促進社會生產生活的展,否則刻舟求劍也不會成為千古笑談。

但是系統所提供的步態識別卻可以基本上一次識別之後便能透過核心計算衍生出之後這個人一生其餘階段可能擁有的步態。

對於這項騷操作章杉簡直不知道該用什麼形容。

最變態的是系統提供的步態識別,還兼具姿態識別功能。

步態識別是主要基於人的走路姿態(提取的特徵點還包括體型特徵、肌肉力量特點、頭型等上百個識別要素)進行身份識別的一種生物識別技術。步態識別與身份緊密關聯,可以透過步態識別目標人物身份,可應用於刑偵破案、嫌疑人檢索等場景。

姿態識別可以實現人體動作、手指運動等姿態的估計,對於描述人體姿態、預測人體行為至關重要。主要基於對人體關鍵節點的觀察,比如骨骼、關節等。姿態識別無關身份,可透過研究人的姿態應用於跌倒檢測、虛擬試衣、體感遊戲等場景。

這些都對深度學習有很高的要求。

深度學習(英語deep1earning)是機器學習的分支,是一種以人工神經網路為架構,對資料進行表徵學習的演算法。

深度學習是機器學習中一種基於對資料進行表徵學習的演算法。觀測值(例如一幅影象)可以使用多種方式來表示,如每個畫素強度值的向量,或者更抽象地表示成一系列邊、特定形狀的區域等。而使用某些特定的表示方法更容易從例項中學習任務(例如,人臉識別或面部表情識別)。深度學習的好處是用非監督式或半監督式的特徵學習和分層特徵提取高效演算法來替代手工獲取特徵。

表徵學習的目標是尋求更好的表示方法並建立更好的模型來從大規模未標記資料中學習這些表示方法。表示方法來自神經科學,並鬆散地建立在類似神經系統中的資訊處理和對通訊模式的理解上,如神經編碼,試圖定義拉動神經元的反應之間的關係以及大腦中的神經元的電活動之間的關係。

至今已有數種深度學習框架,如深度神經網路、卷積神經網路和深度置信網路和迴圈神經網路已被應用在計算機視覺、語音識別、自然語言處理、音訊識別與生物資訊學等領域並獲取了極好的效果。

另外,“深度學習”已成為時髦術語,或者說是人工神經網路的品牌重塑。

深度學習框架,尤其是基於人工神經網路的框架可以追溯到198o年福島邦彥提出的新認知機,而人工神經網路的歷史更為久遠。1989年,揚·勒丘恩(yannLenet)等人開始將1974年提出的標準反向傳播演算法應用於深度神經網路,這一網路被用於手寫郵政編碼識別。儘管演算法可以成功執行,但計算代價非常巨大,神經網路的訓練時間達到了3天,因而無法投入實際使用。

許多因素導致了這一緩慢的訓練過程,其中一種是由於爾根·施密德胡伯的學生賽普·霍克賴特於1991年提出的梯度消失問題。

最早的進行一般自然雜亂影象中自然物體識別的深度學習網路是翁巨揚(Juyangeng)等在1991和1992表的生長網(net)。

它也是第一個提出了後來很多實驗廣泛採用的一個方法現在稱為最大彙集(max-poo1ing)以用於處理大物體的變形等問題。

生長網不僅直接從雜亂自然場景中學習老師指定的一般物體,還用網路反向分析的方法把影象內被識別了的物體從背景影象中分割出來。

2oo7年前後,傑弗裡·辛頓和魯斯蘭·薩拉赫丁諾夫(Rus1ansa1akhutdinov)提出了一種在前饋神經網路中進行有效訓練的演算法。這一演算法將網路中的每一層視為無監督的受限玻爾茲曼機,再使用有監督的反向傳播演算法進行調優。

在此之前的1992年,在更為普遍的情形下,施密德胡伯也曾在迴圈神經網路上提出一種類似的訓練方法,並在實驗中證明這一訓練方法能夠有效提高有監督學習的執行度。

自深度學習出現以來,它已成為很多領域,尤其是在計算機視覺和語音識別中,成為各種領先系統的一部分。在通用的用於檢驗的資料集,例如語音識別中的TImIT和影象識別中的Imagenet,cifar1o上的實驗證明,深度學習能夠提高識別的精度。與此同時,神經網路也受到了其他更加簡單歸類模型的挑戰,支援向量機等模型在2o世紀9o年代到21世紀初成為過流行的機器學習演算法。

硬體的進步也是深度學習重新獲得關注的重要因素。高效能圖形處理器的出現極大地提高了數值和矩陣運算的度,使得機器學習演算法的執行時間得到了顯著的縮短。

由於腦科學方面的大量研究已表明人腦網路不是一個級聯的結構,深度學習網路在2oo1年後正逐漸被更有潛力的基於腦模型的網路所替代。

深度學習的基礎是機器學習中的分散表示(distributedrepresentation)。分散表示假定觀測值是由不同因子相互作用生成。在此基礎上,深度學習進一步假定這一相互作用的過程可分為多個層次,代表對觀測值的多層抽象。不同的層數和層的規模可用於不同程度的抽象。

深度學習運用了這分層次抽象的思想,更高層次的概念從低層次的概念學習得到。這一分層結構常常使用貪心演算法逐層構建而成,並從中選取有助於機器學習的更有效的特徵。

不少深度學習演算法都以無監督學習的形式出現,因而這些演算法能被應用於其他演算法無法企及的無標籤資料,這一類資料比有標籤資料更豐富,也更容易獲得。這一點也為深度學習贏得了重要的優勢。

一部分最成功的深度學習方法涉及到對人工神經網路的運用。人工神經網路受到了1959年由諾貝爾獎得主大衛·休伯爾(davidh.hube1)和託斯坦·威澤爾(Torsteniese1)提出的理論啟。休伯爾和威澤爾現,在大腦的初級視覺皮層中存在兩種細胞簡單細胞和複雜細胞,這兩種細胞承擔不同層次的視覺感知功能。受此啟,許多神經網路模型也被設計為不同節點之間的分層模型。

福島邦彥提出的新認知機引入了使用無監督學習訓練的卷積神經網路。揚·勒丘恩將有監督的反向傳播演算法應用於這一架構。

事實上,從反向傳播演算法自2o世紀7o年代提出以來,不少研究者都曾試圖將其應用於訓練有監督的深度神經網路,但最初的嘗試大都失敗。賽普·霍克賴特在其博士論文中將失敗的原因歸結為梯度消失,這一現象同時在深度前饋神經網路和迴圈神經網路中出現,後者的訓練過程類似深度網路。在分層訓練的過程中,本應用於修正模型引數的誤差隨著層數的增加指數遞減,這導致了模型訓練的效率低下。

為了解決這一問題,研究者們提出了一些不同的方法。于爾根·施密德胡伯於1992年提出多層級網路,利用無監督學習訓練深度神經網路的每一層,再使用反向傳播演算法進行調優。在這一模型中,神經網路中的每一層都代表觀測變數的一種壓縮表示,這一表示也被傳遞到下一層網路。

另一種方法是賽普·霍克賴特和于爾根·施密德胡伯提出的長短期記憶神經網路(LsTm)。

2oo9年,在IcdaR2oo9舉辦的連筆手寫識別競賽中,在沒有任何先驗知識的情況下,深度多維長短期記憶神經網路獲取了其中三場比賽的勝利。

斯文·貝克提出了在訓練時只依賴梯度符號的神經抽象金字塔模型,用以解決影象重建和人臉定位的問題。

其他方法同樣採用了無監督預訓練來構建神經網路,用以現有效的特徵,此後再採用有監督的反向傳播以區分有標籤資料。傑弗裡·辛頓等人於2oo6年提出的深度模型提出了使用多層隱變數學習高層表示的方法。這一方法使用斯摩稜斯基於1986年提出的受限玻爾茲曼機對每一個包含高層特徵的層進行建模。模型保證了資料的對數似然下界隨著層數的提升而遞增。當足夠多的層數被學習完畢,這一深層結構成為一個生成模型,可以透過自上而下的取樣重構整個資料集。辛頓聲稱這一模型在高維結構化資料上能夠有效地提取特徵。

吳恩達和傑夫·迪恩領導的谷歌大腦團隊建立了一個僅透過youTube影片學習高層概念(例如貓)的神經網路。

其他方法依賴了現代電子計算機的強大計算能力,尤其是gpu。2o1o年,在於爾根·施密德胡伯位於瑞士人工智慧實驗室IdsIa的研究組中,丹·奇雷尚(dannet)和他的同事展示了利用gpu直接執行反向傳播演算法而忽視梯度消失問題的存在。這一方法在揚·勒丘恩等人給出的手寫識別mnIsT資料集上戰勝了已有的其他方法。

截止2o11年,前饋神經網路深度學習中最新的方法是交替使用卷積層(neta11ayers)和最大值池化層(max-poo1ing1ayers)並加入單純的分類層作為頂端。訓練過程也無需引入無監督的預訓練。從2o11年起,這一方法的gpu實現多次贏得了各類模式識別競賽的勝利,包括IJnet2o11交通標誌識別競賽和其他比賽。

這些深度學習演算法也是最先在某些識別任務上達到和人類表現具備同等競爭力的演算法。

深度神經網路是一種具備至少一個隱層的神經網路。與淺層神經網路類似,深度神經網路也能夠為複雜非線性系統提供建模,但多出的層次為模型提供了更高的抽象層次,因而提高了模型的能力。深度神經網路通常都是前饋神經網路,但也有語言建模等方面的研究將其拓展到迴圈神經網路。卷積深度神經網路(netetorks,net)在計算機視覺領域得到了成功的應用。此後,卷積神經網路也作為聽覺模型被使用在自動語音識別領域,較以往的方法獲得了更優的結果。

其他神經網路模型類似,如果僅僅是簡單地訓練,深度神經網路可能會存在很多問題。常見的兩類問題是過擬合和過長的運算時間。

深度神經網路很容易產生過擬合現象,因為增加的抽象層使得模型能夠對訓練資料中較為罕見的依賴關係進行建模。對此,權重遞減或者稀疏等方法可以利用在訓練過程中以減小過擬合現象。

另一種較晚用於深度神經網路訓練的正規化方法是丟棄法(“dropout“regu1arization),即在訓練中隨機丟棄一部分隱層單元來避免對較為罕見的依賴進行建模。

喜歡讀書成神豪請大家收藏讀書成神豪本站更新度全網最快。

本章未完,點選下一頁繼續閱讀。

都市小說相關閱讀More+

山海食堂[美食]

挽星霜

榮譽學生

約翰·勒卡雷

戀愛中的騙子

理查德·耶茨

只想當富二代的我虧成了首富

熱火爐

偏偏是你

容煙

墮落人間

海巖