請用此 Handle URI 來引用此文件:
http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/84920完整後設資料紀錄
| DC 欄位 | 值 | 語言 |
|---|---|---|
| dc.contributor.advisor | 劉格非(Ko-Fei Liu) | |
| dc.contributor.author | Yu-Wen Cheng | en |
| dc.contributor.author | 鄭宇文 | zh_TW |
| dc.date.accessioned | 2023-03-19T22:32:46Z | - |
| dc.date.copyright | 2022-08-29 | |
| dc.date.issued | 2022 | |
| dc.date.submitted | 2022-08-24 | |
| dc.identifier.citation | Adrian, R. J. (1991). 'Particle-imaging techniques for experimental fluid mechanics.' Annual review of fluid mechanics 23(1): 261-304. Fujita, I., et al. (1998). 'Large-scale particle image velocimetry for flow analysis in hydraulic engineering applications.' Journal of Hydraulic Research 36(3): 397-414. Creutin, J., et al. (2003). 'River gauging using PIV techniques: a proof of concept experiment on the Iowa River.' Journal of hydrology 277(3-4): 182-194. Theule, J. I., et al. (2018). Exploiting LSPIV to assess debris-flow velocities in the field. Natural Hazards and Earth System Sciences. 18: 1-13. Pham, C. C., et al. (2011). Adaptive guided image filtering for sharpness enhancement and noise reduction. Pacific-Rim Symposium on Image and Video Technology, Springer. Tomasi, C. and R. Manduchi (1998). Bilateral filtering for gray and color images. Sixth international conference on computer vision (IEEE Cat. No. 98CH36271), IEEE. Dabov, K., et al. (2007). 'Image denoising by sparse 3-D transform-domain collaborative filtering.' IEEE transactions on Image Processing 16(8): 2080-2095. BT, R. I.-R. (2011). 'Studio encoding parameters of digital television for standard 4: 3 and wide-screen 16: 9 aspect ratios.' Int. Radio Consultative Committee Int. Telecommun. Union, Switzerland, CCIR Rep: 624-624. Gonzalez, R. C. W. R. E. (2018). Digital image processing. Wren, C. R., et al. (1997). 'Pfinder: Real-time tracking of the human body.' IEEE Transactions on pattern analysis and machine intelligence 19(7): 780-785. Boyat, A. K. and B. K. Joshi (2015). 'A review paper: noise models in digital image processing.' arXiv preprint arXiv:1505.03489. Piccardi, M. (2004). Background subtraction techniques: a review. 2004 IEEE international conference on systems, man and cybernetics (IEEE Cat. No. 04CH37583), IEEE. Verma, R. and J. Ali (2013). 'A comparative study of various types of image noise and efficient noise removal techniques.' International Journal of advanced research in computer science and software engineering 3(10). Ran, Q. h., et al. (2016). 'Application of an automated LSPIV system in a mountainous stream for continuous flood flow measurements.' Hydrological Processes 30(17): 3014-3029. Pope, S. B. and S. B. Pope (2000). Turbulent flows, Cambridge university press. 行政院農業委員會水土保持局 (2017),「水土保持手冊」。 詹錢登、李明熹 (2004). '土石流發生降雨警戒模式.' 中華水土保持學報 35(3): 275-285. 張守陽, et al. (2005). '機械視覺應用於土石流監測之研究.' Journal of Chinese Soil and Water Conservation 36(1): 1-18. 陳彥良 (2011). 利用固定式攝影機即時偵測土石流. 太空科學研究所. 桃園縣, 國立中央大學. 碩士: 51. 郭亭妤 (2020). 以影像偵測土石流前鋒. 土木工程學研究所. 台北市, 國立臺灣大學. 碩士: 74. 尹孝元, et al. (2006). '自動化土石流觀測系統之發展及應用.' Journal of Chinese Soil and Water Conservation 37(2): 91-109. | |
| dc.identifier.uri | http://tdr.lib.ntu.edu.tw/jspui/handle/123456789/84920 | - |
| dc.description.abstract | 當土石流進入畫面中會導致灰階值產生劇烈變動,目前已能透過計算灰階值平均改變速率成功預警土石流,因此本研究嘗試利用自定義的雜訊標準與實時影像之灰階值作比較,進而去除背景與環境雜訊,以偵測土石流的前鋒或表面,並計算流深,發揮監測作用。 首先,在土石流預警前計算 內之灰階值平均值與標準差作為背景值範圍,同時計算 內每兩幀相減後每個像素的灰階值變動量標準,當土石流發生時,將原始畫面經前處理後的灰階值與背景值範圍比較,並將即時畫面前後兩幀相減得到每個像素之灰階值改變量,保留灰階值改變量大於灰階值變動量標準的像素,再透過中值濾波器消除剩餘離散分布之雜訊或較小型的移動物體,最後萃取水面以計算土石流流深。 本文中分別使用室內實驗影片進行方法驗證與現地影像進行案例分析,在方法驗證中,依據捕捉保麗龍球前緣位置推算其移動速度,並與實際量測水流速度作比較;案例分析時則藉由偵測土石流在特定斷面之像素位置與人眼判斷結果進行誤差計算。 根據結果顯示,在室內實驗影片驗證中,程式分析移動物位置時根據數量不同,其絕對誤差自0至3個像素,而由位置推算保麗龍球運動速度與實際流速之相對誤差百分比從最少可達1%;在實際案例分析中平均水面位置的絕對誤差介於1至14.6個像素,透過事件前計算背景灰階值及標準差作比較能夠成功去除影像雜訊,惟受環境亮度限制,在夜晚時無法進行分析,以及須進一步設立排除大型移動物造成偵測錯誤的措施。 | zh_TW |
| dc.description.abstract | In recent years, there have been many debris flow monitoring instruments set up in mountainous area in Taiwan by Soil and Water Conservation Bureau, such as camera, geophone, wire-sensor, etc. Among them, the camera immediately returns real-time images, which providing subsequent image processing for hazard early-warning. When debris flow gets into the image, the grey level will change drastically. At present, it has been able to successfully detect the occurrence of debris flow by calculating the change rate of the average grey level. Therefore, this study aims to use a custom noise standard to compare with the grey level of real-time images, and then remove the background and environmental noise, so as to extract the surface of debris flow, and eventually calculate the information such as flow depth. Initially, the average value and standard deviation of grey level within are calculated as background value range before the warning occurs. In the meantime, calculating the variation of each pixel between two frames as standard of grayscale variation. When debris flow happens, subtract the two successive frames of real-time images to obtain the variation of the gray level value of each pixel. Subsequently, make two comparisons to keep pixels that representing debris flow, one is checking if grayscale value of the original frame is out of the background range, and the other is if the variation of the grayscale value is greater than the standard of grayscale variation or not. Afterward, a few discrete distributed noises or small moving objects are removed through median filter, and the depth of flow could be calculated after edges selected in the end. In this research, the laboratory experiment videos are used for verifying the method, while the actual debris flow images are used for case analysis. After capturing the forward position of styrofoam ball by the method, estimating its moving velocity and comparing with the velocity of the flow in the channel. In case analysis, comparing the pixel position detected by means of program with judgement result of human eyes. According to the result, the absolute error of between program result and eye recognition ranges from 0 to 3 pixels, and the minimum relative error percentage between the velocity of the flow and which is calculated from the position of the styrofoam ball reaches 1%. In addition, the absolute error of the average water surface position is between 1 and 14.6 pixels in the actual case analysis. Overall, noise can be successfully removed by comparing with the background grayscale value and standard deviation which are calculated before the event. However, due to the limitation of ambient brightness, the analysis cannot be performed at night, and further measures must be established to eliminate detection errors caused by large moving objects. | en |
| dc.description.provenance | Made available in DSpace on 2023-03-19T22:32:46Z (GMT). No. of bitstreams: 1 U0001-1608202223095700.pdf: 5969209 bytes, checksum: 4a3e833a62993a1b994a6c30dc90fb62 (MD5) Previous issue date: 2022 | en |
| dc.description.tableofcontents | 摘要 i Abstract ii 目次 iv 圖目次 vi 表目次 ix 第1章 緒論 1 1.1 研究背景及目的 1 1.2 文獻回顧 3 1.3 論文架構 5 第2章 研究方法 6 2.1 基礎定義 6 2.2 影像灰階化 6 2.3 ROI(Region of Interest) 9 2.4 背景雜訊定義 9 2.5 兩幀相減 14 2.6 去除影像雜訊 15 2.7 中值濾波器 17 2.8 土石流邊緣選取與流深計算 19 2.9 小結 21 第3章 方法驗證 24 3.1 解析 24 3.1.1 兩幀相減 25 3.1.2 中值濾波器 25 3.1.3 土石流邊緣選取 27 3.1.4 檢視移動速度 27 3.2 室內影片分析 28 3.2.1 實驗器材與配置 28 3.2.2 實驗步驟 29 3.2.3 實驗分析 29 3.2.4 實驗結果 30 3.2.4.1 一顆保麗龍球 30 3.2.4.2 多顆保麗龍球 35 3.2.5 小結 40 第4章 現地影片分析 41 4.1 案例一:2014年5月20日豪雨事件 41 4.2 案例二:2004年敏督利颱風 48 4.3 案例三:蔣家溝 53 第5章 結論與建議 57 參考文獻 59 圖 1 1論文架構圖 5 圖 2 1三原色紅、藍、綠與灰階化之影像之平均亮度隨時間變化 8 圖 2 2(A)原始影像 (B)選取ROI範圍後 9 圖 2 3幾種常見影像雜訊之機率密度函數, 為亮度、 為出現機率,圖片來源為GONZALEZ (2018) [9] 11 圖 2 4 (A)玉穗溪影像,無霧 (B)玉穗溪影像,有霧 (C)愛玉子溪影像 (D)愛玉子溪影像,黑色圈選範圍內植物受風吹動而產生位移 12 圖 2 5 灰階值分布 (A)圖 2 4(A)之灰階值分布 (B) 圖 2 4(B)之灰階值分布 13 圖 2 6(A)以愛玉子溪土石流畫面為例 (B) (C)前後連續兩幀相減結果,在 座標介於150至300左右數值較大,與土石流位置相符 15 圖 2 7中值濾波示意圖(RAFAEL & RICHARD, 2018) [4] 18 圖 2 8 A/D WINDOW SIZE=3 圖B/E WINDOW SIZE=5 圖C/F WINDOW SIZE=7 19 圖 2 9邊緣檢測示意圖,紅線為上邊緣結果 20 圖 2 10計算水位高度示意圖 21 圖 2 11流程 23 圖 3 1中值濾波器示意圖 26 圖 3 2(A)紅色範圍為 時的圓位置,藍色為 (B)兩幀相減後留下移動部分(白色區域),而中間重疊部分則在相減過程中變為0(黑色區域) (C)中值濾波後在兩圓交點附近去除寬度小於 者 (D)最後萃取出邊緣,紅色為理論值、藍色為程式計算而得之結果 28 圖 3 3實驗配置 29 圖 3 4(A)ROI範圍 (B)保麗龍球進入ROI (C)保麗龍球完全進入ROI中 (D)保麗龍球離開ROI (E)背景值 (F)標準差 (G)灰階值變動標準 31 圖 3 5程式偵測結果 (A)保麗龍球進入ROI (B)保麗龍球完全進入ROI中 (C)保麗龍球離開ROI 31 圖 3 6(A)保麗龍球最前端點位置比較,紅線為程式偵測、藍線為人眼判釋結果, 軸為時間(自圓球進入ROI至離開ROI), 軸為保麗龍球最前端的點在平行渠道流向的像素座標 (B)流速隨時間變化,藍線為渠道中實際水流速、紅線為程式偵測位置後推算之移動速度 31 圖 3 7(A)紅線內為選取之ROI範圍 (B)保麗龍球在ROI中之示意圖 (C) 灰階值變動標準 (D)背景平均值 (E)標準差,最小值到最大值分別為0.64至10.83。其中幾個雜訊標準明顯較高的區域(表示在事件尚未發生前持續變動幅度較大)分別以1~4標示,1.渠道中的水受燈光照射反光導致亮度值變化極大,2、3、4為渠道上方電線晃動在水上的倒映所致。 35 圖 3 8程式偵測結果 (A)保麗龍球進入ROI約0.05秒 (B)保麗龍球進入ROI約0.3秒 (C) 保麗龍球進入ROI約0.5秒 (D)保麗龍球進入ROI約0.8秒 36 圖 3 9(A)保麗龍球上邊緣之平均高度,藍色線為人眼判釋結果(間隔0.05秒)、紅色線為程式偵測結果(間隔0.016秒)(B)移動速度,藍色線為實際水流速 、紅色線為程式偵測結果 37 圖 4 1為自事件發生開始每隔5秒之影像截圖,(12)為事件發生10分鐘後河床畫面 42 圖 4 2(A)紅色框線內為ROI (B) 灰階值變動標準 (C)背景灰階值 (D)標準差,黑框範圍內數值較其他區域大,在事件發生前此範圍內為河川原始流經的位置,畫面中拍攝到河水不斷流動,故導致灰階值變化量較大 43 圖 4 3 程式偵測結果(A)、(B)前後兩幀間隔1幀,約0.06秒 (C)、(D)前後間隔5幀,約0.33秒 44 圖 4 4土石流水面位置,紅線為人眼判釋、藍線為程式偵測結果 45 圖 4 5平均水面位置,縱軸為像素座標,分析時間自事件發生至30秒後,每秒分析一次,以橫軸表示,紅線為程式偵測、藍線為人眼判識結果, 45 圖 4 6 (A)土石流沖刷前 (B)土石流沖刷後 47 圖 4 7為自事件發生開始每隔5秒之影像截圖,第(12)張則為事件發生5分鐘後河床畫面 48 圖 4 8(A)ROI範圍 (B) 灰階值變動標準 (C)背景灰階值 (D)背景標準差,數值較高的部分為原來有水流動的區域 49 圖 4 9水面位置偵測結果 50 圖 4 10平均水面位置比較,縱軸為像素位置,橫軸為以秒作為單位之時間軸,藍色線為人眼判釋,紅色線為程式偵測結果 51 圖 4 11為自事件發生開始每隔1秒之影像截圖 53 圖 4 12(A)ROI範圍 (B)灰階值變動標準 (C)背景灰階值 (D)標準差,數值較高的部分為原來有水流動的區域 54 圖 4 13前鋒位置偵測結果 55 表格 2 1色彩模式比較 7 表格 2 2雜訊種類 10 表格 3 1理論與程式兩圓交點 25 表格 3 2相機參數 28 表格 3 3保麗龍球最前緣點位置比較 32 表格 3 4速度比較 34 表格 3 5平均前鋒位置比較 38 表格 3 6速度比較 38 表格 4 1相機參數 43 表格 4 2平均水面位置 46 表格 4 3相機參數 49 表格 4 4水位位置(x=200) 50 表格 4 5水位位置(x=225) 51 表格 4 6相機參數 54 | |
| dc.language.iso | zh-TW | |
| dc.subject | 影像雜訊 | zh_TW |
| dc.subject | 土石流 | zh_TW |
| dc.subject | 灰階值 | zh_TW |
| dc.subject | 影像處理 | zh_TW |
| dc.subject | 即時監測 | zh_TW |
| dc.subject | real-time monitoring | en |
| dc.subject | debris flow | en |
| dc.subject | image processing | en |
| dc.subject | grayscale | en |
| dc.subject | image noises | en |
| dc.title | 應用影像辨識於自由水面偵測 | zh_TW |
| dc.title | Free Surface Detection by Image Processing | en |
| dc.type | Thesis | |
| dc.date.schoolyear | 110-2 | |
| dc.description.degree | 碩士 | |
| dc.contributor.oralexamcommittee | 詹錢登(Chyan-Deng Jan),周憲德(Hsien-Ter Chou) | |
| dc.subject.keyword | 土石流,影像處理,灰階值,影像雜訊,即時監測, | zh_TW |
| dc.subject.keyword | debris flow,image processing,grayscale,image noises,real-time monitoring, | en |
| dc.relation.page | 60 | |
| dc.identifier.doi | 10.6342/NTU202202475 | |
| dc.rights.note | 同意授權(限校園內公開) | |
| dc.date.accepted | 2022-08-25 | |
| dc.contributor.author-college | 工學院 | zh_TW |
| dc.contributor.author-dept | 土木工程學研究所 | zh_TW |
| dc.date.embargo-lift | 2022-08-29 | - |
| 顯示於系所單位: | 土木工程學系 | |
文件中的檔案:
| 檔案 | 大小 | 格式 | |
|---|---|---|---|
| U0001-1608202223095700.pdf 授權僅限NTU校內IP使用(校園外請利用VPN校外連線服務) | 5.83 MB | Adobe PDF |
系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。
