BERT近年來在各式NLP任務中可說是無處不見、無所不在,其中使用fine-tuning的訓練方式更是可以幫助研究者省下大量的時間及運算成本,且結果都有不錯的表現。本研究探討在結合不同條件的文本訓練下,基於對BERT模型做fine-tuning且讓其進行文本分類,觀察其對於預測及分類中文句子通順程度的成效,並且根據訓練出來的模型設計修正方式嘗試使其對預測中不通順之文本進行自我修正,並分析其成效與結果。
「為配合國家發展委員會「推動ODF-CNS15251為政府為文件標準格式實施計畫」,以及
提供使用者有文書軟體選擇的權利,本館檔案下載部分文件將公布ODF開放文件格式,
免費開源軟體可至LibreOffice下載安裝使用,或依貴慣用的軟體開啟文件。」