影/編曲新境界!Google用AI神經合成器「NSynth」 創造人類從未聽過的聲音

影/編曲新境界!Google用AI神經合成器「NSynth」 創造人類從未聽過的聲音

▲Google旗下核心AI實驗室Google Brain團隊,透過「神經合成器」(NSynth)收集過千種樂器的音調,然後再靠 AI 創作出大量人類從未聽過的聲音,將成為音樂創作者的編曲神器。(圖/翻攝自magenta,下同)

編譯張岑宇/綜合外電報導

不只人類會作曲,現在AI也能創作音樂!Google旗下核心AI實驗室Google Brain團隊,透過「神經合成器」(NSynth)收集超過千種樂器的音調,再靠 AI 創作出人類從未聽過的聲音,未來可望成為音樂創作者的編曲神器。

▲Google旗下核心AI實驗室Google Brain團隊,透過「神經合成器」(NSynth)收集過千種樂器的音調,然後再靠 AI 創作出大量人類從未聽過的聲音。(影片/取自YouTube,若遭移除請見諒)

根據《WIRED》網站報導,NSynth全名為Neural Synthesizer,即是「神經合成器」。一般來說,「合成器」通成會用在電子舞曲或是熱血動漫的主題曲上,常被用來播放健身房或是夜店的場合上,像是韓國江南大叔PSY的《Gangnam Style》,都需要經過聲音合成(Synthesis)的過程。

一般合成器有 模擬(Analog)和數碼之分,但兩者通常的聲音合成流程通常會套用既定模式,大致離不開某些相同「組件」。但比起使用「組件」和既定流程,NSynth能像人類一樣用神經網路(結構彷照生物中樞神經)大量搜集數據,把每種樂器聲音分解成各類數值,經過計算和學習後重新結合。

舉個例子,NSynth能分析「吉他」和「鋼琴」的數據,但所產生的並非「吉他+鋼琴」,也不是「吉他和鋼琴合奏」,而是人類從未聽過的全新聲音,創造出A+B=C的全新組合,樂器原先的音色數值,經過合成器NSynth後,運用具備神經網路技術的真人語音模擬系統WaveNet運算後的新數值。

▲真人語音模擬系統WaveNet。(影片/取自YouTube,若遭移除請見諒)

研究團隊的Jessie Engel和Cinjon Resnick表示,可望研發出可以讓音樂創造人利用的創意工具,同時刺激機器學習(machine learning)圈在音樂方面的研究,未來NSynth會在科技展亮相。由於人工智慧能不斷學習進步,隨着NSynth的聲音數據庫不斷擴展,所合成出的樂器聲音,會越來越真實。

熱門標籤

延伸閱讀

留言