全國中小學科展

依全國中小學科展屆次查詢

依相關評語查詢

電腦與資訊學科

應用網路爬蟲於社交軟體實現群眾互動平臺之研究

現今的大型活動,如校慶活動、新北耶誕城等,缺乏互動性與參與感,其中原因大多是群眾埋沒於手機的社交軟體所導致。而本研究將利用其便利與群眾互動特性,使用問卷抽查法探討大眾對於活動的觀點,應用網路爬蟲技術抓取貼文,設計一套能提高互動性的平臺,使用者只需在Instagram、Twitter等社交軟體中發布文章,系統會即時推播至活動中的大螢幕上,並且使用LineBot結合圖像辨識自動且快速審核貼文,另方面以後臺系統,方便活動單位常駐貼文輪播活動訊息、廣告與管理。綜上所述,本研究結果確實有效地提升活動互動性及樂趣,以時下流行的各種社交軟體,配合研究平台為各類大型活動量身打造,也能夠運用於政令宣導或文宣廣告等用途上,大幅提升活動的互動性與參與感。

以人工智慧分析眼白影像和黃疸的關聯性

● 研究動機:黃疸為常見肝臟疾病表徵,對於偏鄉缺乏醫療的環境,民眾與醫師需有方便的篩檢設備。 ● 研究目的:利用眼部照片以多元迴歸方程式、深度學習,建構眼白顏色與黃疸程度的預測模型。 ● 研究設備及器材:與中國醫藥大學合作,取得354張眼部照片與膽紅素值,利用Python撰寫程式進行人工智慧運算,及利用Excel 的迴歸工具進行多元迴歸方程式推導。 ● 研究過程:以程式擷取眼白像素,進行多元迴歸分析並推導出預測方程式,同時進行深度學習,計算預測率,並以APP成現。 ● 研究結果:多元迴歸分析得預測率約為45.5%~57.8%,深度學習則可高達88.9%~99%。 ● 結論:我們成功以深度學習根據眼部照片預測黃疸的嚴重程度。

臨時停靠莫擔憂,車載防盜之物聯

近來政府推動汽車舊換新補助,車商增加配備強化娛樂功能招攬消費者購買意願,使得車價值性水漲船高使得遭竊傳言不斷,市面許多補強原廠防盜產品,透過電子柵欄當車跨出設定範圍察覺異樣,但通報大都為時已晚被竊取駛離,若破窗闖入偷取車內物品,也不見得觸動警報器嚇阻。本研究解決上述缺點,利用微波感測偵測車內異狀,解決駛離才得知挽回被竊取機率,並結合物聯網概念從遠端得知車相關訊息,包括(1)臨停呼叫取代以往號碼留言方式,減少詐騙集團用於不當之處 (2)得知電瓶狀態避免電力不足無法發動引擎窘境 (3)GPS了解車位置並具尋車功能 (4)大燈未關提醒避免耗掉電力,做為深入研究探討方向。

彩色二維條碼手持產品開發之探討

數位二維條碼的使用日益普及,然而使用手機掃瞄時,常受限於掃瞄距離及拍攝角度,使用上不夠便利。在不增加拍攝限制且增加二維條碼儲存容量的前提下,本研究嘗試設計一款8色10×10模組的彩色二維碼,命名為Colour Matrix。其四個頂角的模組具特定顏色,用來作為定位的特徵,其他模組用於儲存資料。此研究也成功在樹莓派平台上開發專屬的顏色辨識及編碼與解碼應用程式。相較於常用的二維條碼QR Code,Colour Matrix的拍攝傾角限制較小但拍攝距離較短。升級拍攝鏡頭後的實驗則發現鏡頭解像力明顯影響Colour Matrix辨識率,以及研究中所使用的邊緣偵測方法具有極限,有待進一步深入探討。

實現圖像敘述自動生成之中文化

目前市面上已經有不少產品應用到自然語言處理 (natural language processing, NLP) 的技術,例如聲音或是圖像標註,但是關於圖像標註的研究大部分是針對英文,因此我們想要進行中文的圖像標註研究。在本研究中,我們嘗試建構神經網路,並使用Microsoft COCO: Common Objects in Context 數據集訓練模型,並試著調整模型以達到較好的圖像標註效果。使用深度學習神經網路作為翻譯流程的工具,並嘗試配合各種不同的網路架構。為了能達到從序列到序列 (seq2seq) 的效果,我們的網路使用了編碼器 - 解碼器 (encoder-decoder) 的結構,編碼器的部分使用CNN,解碼器的部分使用RNN,這樣能有效地傳達序列並有較多種神經網路組合方式。

利用深度學習將黑白影片色彩化

本研究旨在解決以往無法將影片色彩化的問題,設計方法分為兩大部分:首先,我們在基礎的生成對抗網路上加進了多個模組如:殘差模組以及特徵提取模組,我們實作多種不同組合的生成對抗網路,並比較其成效。其中,我們利用COCO dataset來訓練我們的的基礎模型。本研究以風景影片為主,因為風景影片的震盪和變化較小。在進入第二階段前,我們利用Kaggle風景圖片資料庫來微調最優的模型。而在第二部分,我們發現生成出的影片會有色彩不連續性的問題,於是我們提出了三套方案來提高影片整體品質來抵銷模型在前饋過程中所產生的不確定性以及隨機性。分別為H.264編碼技術,ORB預測個別幀,以及HSV提高色相穩定度。

可限制特徵之人臉生成器

本研究旨在發展一套可限制特徵之人臉生成器,能依據目擊者對嫌犯的特徵描述,使用真實人臉照片進行特徵生成,以生成嫌犯臉孔。本研究以生成對抗網路為中心,配合選擇性傳輸單元、編碼器與解碼器結構,發展出五官、毛髮、飾品、整體形象四大類別,共有40個特徵生成編輯種類。搭配友善的圖形使用者介面,讓使用者可將已相關度篩選後之真實人臉資料庫或是另行輸入之照片,因應不同的嫌犯臉孔描繪需求情境,對該圖片臉孔進行指定特徵之生成編輯。此技術除了可輔助刑案目擊者回憶嫌犯臉孔特徵,亦可應用於眼鏡業、醫學美容、美髮業等領域。

基於深度學習之服裝試衣系統

本研究以AI虛擬試衣系統(Virtual Try-on模型)為主題,透過深度學習技術,並結合幾何匹配模型,最後開發出試衣系統,將使用者上傳的照片,模擬成穿著新衣的模樣。 首先,將人物原始圖片取出骨架節點,並生成人體遮罩以及保留人物頭部。而後將三個輸出合成為高維特徵圖。接著將目標替換衣物生成出依照人體姿態扭曲後的衣物圖片。最後於Virtual Try-on模型中,將人體高維特徵圖與扭曲衣物共同輸入,並經過運算後合成出穿著目標衣物之人體圖像。本研究結果發現,人物站姿單純,且雙手緊貼身側,以及拍攝角度為正面、衣服款式為短袖、背景色彩對比度較高與衣服圖案單純的原始圖片得出的結果圖片與測試圖片相似度較高。

以Seq2seq模型實現論文心智圖自動生成工作

做研究時,經常需要閱讀多篇長篇論文,如何快速理解並歸納重點是影響效率收益的關鍵任務。針對此問題本研究運用深度學習配合其他程式算法輔助。將整個問題拆解成三個主要部分:模型處理、結構剖析、心智圖輸出,模型處理的部分我們訓練了三種不同的Seq2seq模型實現文本摘要,分別使用LSTM、BERT、ALBERT、比較並選擇綜合效益最好的模型;而負責拆解論文的結構剖析系統,則利用論文目錄分解整份論文,最後,心智圖輸出系統則整合剖析系統與模型結果,再調用Xmind API去生成架構清晰易讀易理解的論文心智圖。

原音重現—自動太魯閣族語語音評分系統

近年來原住民語使用逐漸減少,面臨傳承的危機。本研究製作太魯閣族語音評分系統,希望幫助人們學習太魯閣族語。利用原委會網站的音檔和田野調查收集錄製的族語語音與族語老師的評分為本研究的研究語料,以Kaldi為語音辨識框架來製作語音辨識模型。對模型輸出的音素與正確單詞進行字串相似度計算,將計算數據與模型產出的發音品質分數作為選擇模型的依據,透過機器學習方法選擇最接近族語老師評分的模型。以此模型計算研究語料,再以機器學習製作一個七成正確率的評分分類器,最後實作出評分系統網站。此網站除了可以學習族語之外,也可以幫助未來繼續收集更多語料,提高評分系統的正確率。期望幫助人們學習太魯閣族語,讓原住民族語原音得以重現。