運用GAN實現字體風格轉換
本研究以實作字體風格轉換的生成對抗網路模型為動機,將Conditional GAN當作模型的基礎,探討pix2pix模型及其他研究的一些方法對模型會產生甚麼影響,以得出能最優化預測成效的深度學習模型。 首先進行的是前處理的步驟,將字體的truetype檔案轉換成模型輸入的jpeg檔,再以生成器(Generator)和判別器(Discriminator)建立Condional GAN的基礎模型,然後探討加入U-Net、Category Embedding等方法,以及訓練資料集大小對模型造成的影響,最後實作整合的pix2pix模型和CycleGAN模型進行比較。 經過實驗後發現,U-Net和Category Embedding都對模型的預測成果有所幫助,而使用越多字體進行訓練會有越好的成效。另外,對相似的字體而言,CycleGAN的效果較好,而對兩種風格差異較大的字體則需用Category Embedding的方式,融入更多字體進行訓練以達到更好的成效。