隱藏在聲音中的魔鬼-探討adversarial voice attack對智能語音辨識模型影響之研究
本研究的目的在於探討Adversarial Voice Attack在對保護智慧財產權、抵抗自動翻譯的能力和預防智能設備危險,並以此進行大規模的應用。我們本次使用了常被用來做為翻譯系統的silero作為研究基礎和試驗對象,使得我們可以評估我們的對抗性樣本是否可以作為對抗自動翻譯的手段和它對模型的效果。利用FGSM(Fast Gradient Sign Method)方法生成對抗性noise來干擾模型對語音的辨識效果。我們的目標為透過解析模型label來製作能夠對模型進行有效攻擊的對抗性樣本,並以進化策略(Evolution Strategies)嘗試進行黑箱攻擊。 根據研究結果顯示在已知模型梯度的情況下可以做出噪聲極小的對抗性樣本。而我們在使用進化策略其中的協方差矩陣自適應進化策略(Covariance Matrix Adaptation Evolution Strategy)進行黑箱攻擊也可以使得製作出來的對抗性樣本的噪聲難以被人體感知。