基于深度神經(jīng)網(wǎng)絡(luò)法的房地產(chǎn)價(jià)格批量評(píng)估研究
發(fā)布時(shí)間:2021-08-05 23:44
習(xí)近平總書(shū)記在十九大提出了“房住不炒”要求,國(guó)家不斷加強(qiáng)房地產(chǎn)市場(chǎng)監(jiān)管力度和對(duì)調(diào)整房地產(chǎn)政策,房地產(chǎn)行業(yè)在此背景下依然發(fā)展迅速,并且有大量的投資和消費(fèi)等交易活動(dòng)出現(xiàn)。所以,房地產(chǎn)行業(yè)的健康發(fā)展,公平交易就離不開(kāi)客觀公正的價(jià)格,而此恰恰需要資產(chǎn)評(píng)估來(lái)給予保證。在評(píng)估實(shí)務(wù)中,市場(chǎng)法、收益法、資產(chǎn)基礎(chǔ)法都有一些限制條件,在有些情況下不適用,而且有許多影響的方面是由評(píng)估師主觀定下的,而對(duì)于最終估值,這種主觀性至關(guān)重要,所以評(píng)估是否準(zhǔn)確就很難界定;同時(shí),由于商業(yè)房地產(chǎn)交易數(shù)量眾多,若是一個(gè)一個(gè)評(píng)估,工作量相對(duì)于評(píng)估師比較大,伴隨著評(píng)估效率較低,除這些外評(píng)估成本相對(duì)較大。所以在傳統(tǒng)評(píng)估方法之外,我們需要探索更加科學(xué)合理的評(píng)估方法,進(jìn)行批量評(píng)估房地產(chǎn)價(jià)值。本文在相關(guān)文獻(xiàn)資料的基礎(chǔ)上,采用理論與實(shí)證、定性與定量相結(jié)合等方法,對(duì)房地產(chǎn)批量評(píng)估中的機(jī)器學(xué)習(xí)進(jìn)行研究和實(shí)證。首先,介紹在房地產(chǎn)行業(yè)不斷發(fā)展壯大的宏觀背景下,選題的重要價(jià)值和意義,以及國(guó)內(nèi)外研究現(xiàn)狀和文獻(xiàn)述評(píng);其次,介紹批量評(píng)估的概念和相關(guān)理論,以及房地產(chǎn)評(píng)估程序和方法,如多元回歸、特征價(jià)值法、深度學(xué)習(xí)方法等;然后,深入探討深度學(xué)習(xí)中的深度神經(jīng)網(wǎng)...
【文章來(lái)源】:江西財(cái)經(jīng)大學(xué)江西省
【文章頁(yè)數(shù)】:53 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
神經(jīng)網(wǎng)絡(luò)基本模型
第4章房地產(chǎn)價(jià)格批量評(píng)估的深度神經(jīng)網(wǎng)絡(luò)(DNN)模型構(gòu)建23圖4.2多層深度神經(jīng)網(wǎng)絡(luò)模型圖4.2從左到右分別為輸入層,第一層隱藏層,第二層隱藏層,第三層隱藏層和輸出層,每層都有若干個(gè)單元。前文提到了神經(jīng)網(wǎng)絡(luò)中的一些困難,或者說(shuō)是比較難解決的限制。深度學(xué)習(xí)方法就改善了其中的機(jī)制,使得訓(xùn)練中存在的問(wèn)題得以解決。首先提一下經(jīng)典神經(jīng)網(wǎng)絡(luò),一般是反向傳播,先給模型設(shè)定一個(gè)初始值,經(jīng)過(guò)訓(xùn)練得出輸出值,依照輸出值和實(shí)際值的差距大小,對(duì)模型參數(shù)和權(quán)重自我調(diào)整,知道最后輸出值和實(shí)際值越發(fā)接近,達(dá)到一個(gè)收斂的效果。而深度學(xué)習(xí)法就不能采用這種反向傳遞機(jī)制。因?yàn)槲覀兊纳疃葘W(xué)習(xí)法擁有比較多的隱藏層,輸出層與實(shí)際值的差距傳遞到前面將會(huì)越來(lái)越小,學(xué)術(shù)上稱(chēng)其為“梯度擴(kuò)散”,放到深度學(xué)習(xí)模型訓(xùn)練中就很難優(yōu)化結(jié)果。4.1.3深度神經(jīng)網(wǎng)絡(luò)的運(yùn)作機(jī)理(1)使用自下上升非監(jiān)督學(xué)習(xí)(就是從底層開(kāi)始,一層一層的往頂層訓(xùn)練):采用無(wú)標(biāo)定數(shù)據(jù)(有標(biāo)定數(shù)據(jù)也可)分層訓(xùn)練各層參數(shù),這一步可以看作是一個(gè)無(wú)監(jiān)督訓(xùn)練過(guò)程,是和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)區(qū)別最大的部分(這個(gè)過(guò)程可以看作是特征學(xué)習(xí)過(guò)程):具體的,先用無(wú)標(biāo)定數(shù)據(jù)訓(xùn)練第一層,訓(xùn)練時(shí)先學(xué)習(xí)第一層的參數(shù)(這一層可以看作是得到一個(gè)使得輸出和輸入差別最小的三層神經(jīng)網(wǎng)絡(luò)的隱層),由于模型
第4章房地產(chǎn)價(jià)格批量評(píng)估的深度神經(jīng)網(wǎng)絡(luò)(DNN)模型構(gòu)建25下的數(shù)據(jù)進(jìn)行驗(yàn)證。經(jīng)過(guò)上述解釋?zhuān)覀兛梢员┝Φ膶⑸窠?jīng)網(wǎng)絡(luò)預(yù)測(cè)說(shuō)成是一個(gè)數(shù)學(xué)上的最值問(wèn)題,他的自變量和應(yīng)變量的分別對(duì)應(yīng)這輸入層的樣本和輸出層的預(yù)測(cè)值,而隱藏層則意味著不同的權(quán)重和系數(shù),輸出值和實(shí)際的誤差大小就意味著訓(xùn)練結(jié)果的優(yōu)劣。對(duì)比單層神經(jīng)網(wǎng)絡(luò),多層感知機(jī)在其基礎(chǔ)上引入了一到多個(gè)隱藏層。隱藏層位于輸入層和輸出層中間。圖4.3展示了一個(gè)多層感知機(jī)的神經(jīng)網(wǎng)絡(luò)圖。輸出層隱藏層輸入層圖4.3:帶有隱藏層的多層感知機(jī).它含有個(gè)隱藏層,該層中有5個(gè)隱藏單元在圖4.3所示的多層感知機(jī)中,輸入和輸出個(gè)數(shù)分別為4和3,中間的隱藏層中包含了5個(gè)隱藏單元(hiddenunit),如圖隱藏層中的五項(xiàng)和輸出層中的三項(xiàng)一一相連,與輸入層的四項(xiàng)也一一相對(duì),所以模型中的不同層其實(shí)是全連接的。由于會(huì)引入非線性的影響因素,所以在這里我們要引入激勵(lì)函數(shù)。4.2.2激勵(lì)函數(shù)激勵(lì)函數(shù)又稱(chēng)激活函數(shù),是一個(gè)“扭曲”函數(shù)圖像的工具,最直接的說(shuō)法就是可以將線性的有規(guī)律的函數(shù),變得沒(méi)有規(guī)律,但是逼近能力卻能得到很大的提升。若是不用到這個(gè)工具,那有再多的隱藏層,與最初只有輸入輸出和一個(gè)隱藏層的感知機(jī),預(yù)測(cè)的效果差別不大。所以真正想要使非線性的函數(shù)也一一對(duì)應(yīng),就要引入這個(gè)工具。也因?yàn)榧せ詈瘮?shù),當(dāng)多層網(wǎng)絡(luò)的層數(shù)加深時(shí),預(yù)測(cè)的準(zhǔn)確度也將更加提升,特征值和預(yù)測(cè)結(jié)果的函數(shù)關(guān)系甚至能夠達(dá)到任意的圖像。。其中比較常見(jiàn)的有Sigmoid函數(shù),它的特點(diǎn)是能夠把輸入的連續(xù)實(shí)值變換為0和1之間的輸出,特別的,如果是非常大的負(fù)數(shù),那么輸出就是0;如果是非常
本文編號(hào):3324658
【文章來(lái)源】:江西財(cái)經(jīng)大學(xué)江西省
【文章頁(yè)數(shù)】:53 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
神經(jīng)網(wǎng)絡(luò)基本模型
第4章房地產(chǎn)價(jià)格批量評(píng)估的深度神經(jīng)網(wǎng)絡(luò)(DNN)模型構(gòu)建23圖4.2多層深度神經(jīng)網(wǎng)絡(luò)模型圖4.2從左到右分別為輸入層,第一層隱藏層,第二層隱藏層,第三層隱藏層和輸出層,每層都有若干個(gè)單元。前文提到了神經(jīng)網(wǎng)絡(luò)中的一些困難,或者說(shuō)是比較難解決的限制。深度學(xué)習(xí)方法就改善了其中的機(jī)制,使得訓(xùn)練中存在的問(wèn)題得以解決。首先提一下經(jīng)典神經(jīng)網(wǎng)絡(luò),一般是反向傳播,先給模型設(shè)定一個(gè)初始值,經(jīng)過(guò)訓(xùn)練得出輸出值,依照輸出值和實(shí)際值的差距大小,對(duì)模型參數(shù)和權(quán)重自我調(diào)整,知道最后輸出值和實(shí)際值越發(fā)接近,達(dá)到一個(gè)收斂的效果。而深度學(xué)習(xí)法就不能采用這種反向傳遞機(jī)制。因?yàn)槲覀兊纳疃葘W(xué)習(xí)法擁有比較多的隱藏層,輸出層與實(shí)際值的差距傳遞到前面將會(huì)越來(lái)越小,學(xué)術(shù)上稱(chēng)其為“梯度擴(kuò)散”,放到深度學(xué)習(xí)模型訓(xùn)練中就很難優(yōu)化結(jié)果。4.1.3深度神經(jīng)網(wǎng)絡(luò)的運(yùn)作機(jī)理(1)使用自下上升非監(jiān)督學(xué)習(xí)(就是從底層開(kāi)始,一層一層的往頂層訓(xùn)練):采用無(wú)標(biāo)定數(shù)據(jù)(有標(biāo)定數(shù)據(jù)也可)分層訓(xùn)練各層參數(shù),這一步可以看作是一個(gè)無(wú)監(jiān)督訓(xùn)練過(guò)程,是和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)區(qū)別最大的部分(這個(gè)過(guò)程可以看作是特征學(xué)習(xí)過(guò)程):具體的,先用無(wú)標(biāo)定數(shù)據(jù)訓(xùn)練第一層,訓(xùn)練時(shí)先學(xué)習(xí)第一層的參數(shù)(這一層可以看作是得到一個(gè)使得輸出和輸入差別最小的三層神經(jīng)網(wǎng)絡(luò)的隱層),由于模型
第4章房地產(chǎn)價(jià)格批量評(píng)估的深度神經(jīng)網(wǎng)絡(luò)(DNN)模型構(gòu)建25下的數(shù)據(jù)進(jìn)行驗(yàn)證。經(jīng)過(guò)上述解釋?zhuān)覀兛梢员┝Φ膶⑸窠?jīng)網(wǎng)絡(luò)預(yù)測(cè)說(shuō)成是一個(gè)數(shù)學(xué)上的最值問(wèn)題,他的自變量和應(yīng)變量的分別對(duì)應(yīng)這輸入層的樣本和輸出層的預(yù)測(cè)值,而隱藏層則意味著不同的權(quán)重和系數(shù),輸出值和實(shí)際的誤差大小就意味著訓(xùn)練結(jié)果的優(yōu)劣。對(duì)比單層神經(jīng)網(wǎng)絡(luò),多層感知機(jī)在其基礎(chǔ)上引入了一到多個(gè)隱藏層。隱藏層位于輸入層和輸出層中間。圖4.3展示了一個(gè)多層感知機(jī)的神經(jīng)網(wǎng)絡(luò)圖。輸出層隱藏層輸入層圖4.3:帶有隱藏層的多層感知機(jī).它含有個(gè)隱藏層,該層中有5個(gè)隱藏單元在圖4.3所示的多層感知機(jī)中,輸入和輸出個(gè)數(shù)分別為4和3,中間的隱藏層中包含了5個(gè)隱藏單元(hiddenunit),如圖隱藏層中的五項(xiàng)和輸出層中的三項(xiàng)一一相連,與輸入層的四項(xiàng)也一一相對(duì),所以模型中的不同層其實(shí)是全連接的。由于會(huì)引入非線性的影響因素,所以在這里我們要引入激勵(lì)函數(shù)。4.2.2激勵(lì)函數(shù)激勵(lì)函數(shù)又稱(chēng)激活函數(shù),是一個(gè)“扭曲”函數(shù)圖像的工具,最直接的說(shuō)法就是可以將線性的有規(guī)律的函數(shù),變得沒(méi)有規(guī)律,但是逼近能力卻能得到很大的提升。若是不用到這個(gè)工具,那有再多的隱藏層,與最初只有輸入輸出和一個(gè)隱藏層的感知機(jī),預(yù)測(cè)的效果差別不大。所以真正想要使非線性的函數(shù)也一一對(duì)應(yīng),就要引入這個(gè)工具。也因?yàn)榧せ詈瘮?shù),當(dāng)多層網(wǎng)絡(luò)的層數(shù)加深時(shí),預(yù)測(cè)的準(zhǔn)確度也將更加提升,特征值和預(yù)測(cè)結(jié)果的函數(shù)關(guān)系甚至能夠達(dá)到任意的圖像。。其中比較常見(jiàn)的有Sigmoid函數(shù),它的特點(diǎn)是能夠把輸入的連續(xù)實(shí)值變換為0和1之間的輸出,特別的,如果是非常大的負(fù)數(shù),那么輸出就是0;如果是非常
本文編號(hào):3324658
本文鏈接:http://sikaile.net/shoufeilunwen/jjglss/3324658.html
最近更新
教材專(zhuān)著