全國中小學科展

電腦科學與資訊工程

深度學習掌紋疾病分析系統

遠距醫療及自我健康檢測在最近幾年逐漸崛起,其講求利用大眾化的工具即可掌握醫療知識與自我健康監測,並透過大數據分析及人工智慧技術,協助醫師與病患進行更有效的治療,但目前中醫在這方面的研究不多,與影像辨識相關的也只有舌診。目前對於手掌的研究多半止步於身分辨識,因此手診還需中醫師切脈或檢查。 本研究作品旨在發展自動手診方法,提供民眾自我健康監測。利用兩種方式1.整張手的CNN圖像分類 2.用YOLO物件偵測進行掌中的特徵點抓取,使其能分辨肝掌、富貴手、蜘蛛痣、汗皰疹、無症狀,最後,並將模型與手機APP結合。

以分散式邊緣運算網路架構實現智慧機器人代理系統之研究

本研究企圖建構一個運用邊緣運算技術(Edge Computing)之人工智能機器人代理人(AI Agent),並將之運用於實體人型格鬥用機器人的研究開發中。 在此以人型格鬥機器人做為場景需求使用設定目標,運用彈性化模組,加上分散式、嵌入式即時網路技術來降低系統設計的複雜度,整合通訊協議與深度學習YOLO影像演算法,進一步運用ZMP運動控制理論,以及多維感測器融合技術(sensor fusion),融合陀螺儀(GYRO)、加速儀(accelerometer)、CMOS Sensors、FSR(Force sensing resistor)作為人形機器人智慧平衡基礎,再藉由圖形識別做為預測辨識以及智慧姿態ZMP控制技術作為攻防策略判斷。 整體系統藉由AI 晶片與嵌入式系統網路作為整合。透過網路即時傳輸環境資訊與指令,使機器人可以知道高層的指令目的資訊。值得一提的是本系統網路設計建構依照仿生哺乳類動物的分層式架構。神經系統將反射以及即時控制交由智慧代理人軟體作為即時演算與控制來達到高性能與彈性發展的需要,未來可用在高等擴充性的人形機器人使用,包括格鬥機器人,人形機器人工地建材搬運、具自平衡醫療外骨骼機器人......等,使人與機器人能並肩工作,提升人與機器人整合互動。

利用深度學習將黑白影片色彩化

1920年代和1930年代,攝影設備剛剛起步,攝影設備只能拍攝黑白圖像的照片或影片,但仍有許多經典電影被記錄下來。如今,隨著科技的進步,攝影設備也在不斷迭代,彩色成像技術和高品質成像技術不斷被更好的技術所取代。因此,如何將黑白圖像轉換為彩色圖像成為一個重要的研究課題。本研究的目的是將黑白影片轉換成彩色影片。我們的方法可以分為兩部分:彩色化模型設計和影片連續性優化。在顏色轉換模型設計部分,我們使用了生成對抗網絡(GANs)技術,基於U-Net設計了5個模型,並使用COCO數據集訓練顏色生成模型。在電影連續性優化部分,我們首先使用景觀數據集中微調的前五個模型中最好的模型。在這個過程中,我們發現模型生成的影片存在顏色不連續的問題。因此,我們設計了三套方案來解決,比如使用H.264重新編碼生成電影,使用平均像素的色調值提高電影的色調穩定性,使用ORB預測個別幀。結果表明,影片的色彩轉換效果表現優異。

以深度學習進行心音及高血壓關聯性之研究

2019年衛生福利部死因統計資料顯示和高血壓有高度相關的心臟疾病、腦血管疾病和高血壓性疾病皆在十大死因之列[15]。本研究提出以深度學習對心跳聲的時序頻譜圖進行訓練與分析的研究方法,應用此方法我們能以Convolution Neural Network(CNN)模型從受測者心跳聲預測出其血壓層級。CNN一般用於圖像分類,但在此研究中我們以此來分析心跳聲。本研究發現利用僅萃取第二心音的資料庫訓練效果較佳,並透過熱圖分析注意到模型對特定頻率域較為重視,在後續實驗中更進一步發現0~200 Hz和400~600 Hz在判斷高血壓時扮演重要角色。同時,我們也成功應用此方法,區分出長期高血壓和運動高血壓,證明心血管的結構改變在時序頻譜圖上有對應特徵。若應用於穿戴型裝置持續監控心跳聲,就能隨時追蹤使用者的血壓層級的變化,有異常便能盡早就醫,避免憾事發生。

利用半監督式學習進行自動星系分類

本研究使用半監督式機器學習搭配卷積神經網路來訓練核心模型,並將星系的圖片加入模型裡,讓電腦自動判斷出該星系的種類為何。我使用自行設計的CNN架構以及VGG-16當作我的卷積神經網路架構。資料集來源為EFIGI和Galaxy Zoo 2。我分為兩種任務,第一種任務是讓模型能分辨橢圓 (E)、螺旋 (S)、不規則 (I) 這三種類別的星系,訓練資料共有2,468張照片,最後的正確率能達到94%。第二個任務是將8種的星系照片(E、S0、Sa、Sb、Sc、SBa、SBb、SBc)進行分類,並使用自動編碼器作為預訓練,使用1,923張EFIGI的圖片以及1,258張Galaxy Zoo 2的照片當作訓練資料。由於各星系照片有許多外觀太過相似,測試準確度最高達到54.12%,基於我的研究,星系自動化辨識於天文學上應該有相當大的運用空間。

自動X光檢測重建2.5D圖形用於非破壞性檢測:印刷電路板之應用

為了解決自動光學檢測的非穿透性檢測物體方式,使用自動X光檢測能解決此問題,因此,本研究嘗試開發自動X光檢測技術,並藉由常見的印刷電路板作為應用。作為結果,本研究能進行X光模擬理想化印刷電路板,搭配實體X光取像,藉由平移堆疊法重建出2.5D印刷電路板影像,並藉由霍夫法圓形辨識圈選錫球,輸入卷積神經網路,辨識錫球焊點之優劣。

由立體思維解循環式最大流量問題_以教師介聘為例

本研究旨在應用立體思維解決循環式的最大流量問題,於教師介聘中,可提出擁有品質保證之方法,並求得介聘成功人數之區間。教師介聘應為一限制的網路流(每個節點至少一入一出),試著求出最大循環流量。 教師介聘為學校間之教師調換作業,透過志願選填與其他參與者進行交換。以110年的介聘規則而言,介聘順序為單調→五角調→四角調→三角調→互調,相同者以積分高為優先。現有制度受限於作業期程、業務人員能力,約略簡化問題原型,但即使如此,介聘處理的結果仍不提供數據分析,導致無從分析其品質及過程,因此介聘的結果、數量和方法皆仍有很大的研究空間。 此研究除了可使媒合數量最大化外,進而由原模型衍伸出多種策略,可以透過調整參數並於結果與時間中取得平衡。單志願介聘中,透過使用不同模型使準確率(介聘成功人數/最多成功人數)介於88~100%,運算時間與準確率成正相關。多志願介聘以自訂規則作為範例,套用單志願介聘模型呈現效果。

應用深度學習sequence to sequence model 於古文解譯

以將古文翻譯成白話文為初衷,以爬蟲擷取古文解譯網站「讀古詩詞網」中的大量古文及其白話翻譯作為訓練用的資料,並按照不同文體分開訓練。我們先嘗試用Bert模型做選擇題:給一句古文讓機器從四個選項中選出其翻譯。一開始隨機挑選其餘三個選項,正確率高達96%。因此我們挑戰更困難的設置,撰寫搜尋關鍵字的程式,將有與題目古文相同字的白話文放入選項。雖然準確率有些許降低,但仍高於只選重複字最多選項的結果,代表模型有發展出獨立的判定標準。選擇題成功後,我們用MT5 模型嘗試更困難的翻譯,並在訓練集中新增提供不同前後文的注釋資料幫助訓練。雖然還無法翻得非常準確,但仍在某些句子有不錯的表現。我們也發現了模型對某些特定類型字詞的翻譯有待加強,未來希望透過加強代名詞判斷訓練及持續新增注釋來增加整體翻譯能力。

Human-computer Interaction-based Millimeter-wave Radar Gesture Recognition

本研究提出了一個毫米波雷達即時動態手勢辨識技術,透過幾個簡單的手勢取代鍵盤和滑鼠來操作應用程序,從而提供更生活化和直覺化的人機介面。我們透過手勢屬性分析、手勢訓練資料格式選擇評估、學習模型效能評估和系統實測性能分析,以提高手勢控制人機界面的實用性。我們的學習模型採用一大小為415 KB的1DCNN+LSTM混合模型支持四個動態手勢,並在德州儀器的FMCW雷達評估板上以30 FPS的採樣速度進行手勢識別。我們在7個用戶(包括5個右撇子和2個左撇子)的多媒體撥放實際測試中達到94.5%的操控準確率。此外,我們的方案在實驗室環境之外的複雜空間中操控應用程序,也不會有明顯的辨識錯誤的情況發生。

軌道安全,唯快不破-高效能AI軌道異物偵測系統設計之研究

臺鐵太魯閣號於 2021 年 4 月撞擊滑入軌道的工程車的事故,是 60 年最嚴重一場意外。 北捷文湖線也曾有大型招牌掉落事件,顯示軌道安全的重要性。本研究參訪高鐵、臺鐵、北 捷和新北捷-淡海輕軌,將四大軌道公司的異物偵測系統做探討。採用 Yolo 系列物件偵測演 算法,進行模型訓練,設計一套「高效能 AI 軌道異物偵測系統」。將攝影機架設在車頭,並 加裝望遠鏡頭,達到遠距離的預警。採用可見光攝影機與 AI 物件偵測的技術,並應用內嵌 系統 Jetson TX2,讓列車提前確認是何異物,提升安全性,採取不同煞車措施,降低誤點率。 以台北捷運文湖線為實驗場域,測試各種天候條件,如:晴天、雨天、傍晚等。也在不同場 域實測如:臺鐵內灣線、淡海輕軌。本系統平均準確率 95% mAP 與運行的幀率達 40FPS, 能縮短辨識時間,讓駕駛能立即反應和提前預警,達到保障人車安全的目的。