top of page

《電影混音》創新實踐課程

AI賦能教育 2025 Spring term.

LINE_ALBUM_ADR_250527_1.jpg
LINE_ALBUM_ADR_250527_2.jpg
LINE_ALBUM_ADR_250527_3.jpg

課程核心與創新動機

歡迎來到義守大學電影與電視學系《電影混音》課程成果展。由陳嘉暐老師授課,本課程嘗試運用AI工具,打破傳統教學框架,回應視聽產業快速變革。

以往混音教學偏重技術操作,難以激發創意與熱情。面對產業對聲音設計的高標準,我們轉向「協作式探索」,開創師生共學的教學模式。

為突破高門檻、資源不足與創新思維瓶頸,我們導入AI工具,作為技術與創意的橋樑,推動混音教學邁向新世代。

核心創新在於:運用 ElevenLabs 語音合成 和 Suno AI 音樂生成 技術,讓學生實際操作AI,打造未來感十足的電影聲音設計。

AI賦能:課程中的三大利器

聲音無極限:ElevenLabs × Suno AI 登場,加上必備的LLM工具
我們運用AI工具,讓學生拓展聲音創作的邊界:

image.png

ElevenLabs|語音合成與克隆

功能亮點:輸入文字即可生成自然語音,甚至用30秒音檔克隆聲音。支援語音變聲、語調調整。

課程實作:用於角色試音、台詞替換、性別聲線調整。學生操作其即時語音克隆技術,打造多元聲音版本。

image.png

Suno AI|智慧音樂生成器

功能亮點:輸入文本即可創作歌曲,自動生成音樂片段,並可拆分人聲與背景音。

課程實作:學生利用劇本,產稱相應的音樂標籤,輸入情境文字,生成劇情配樂與主題曲。

image.png

Chatgpt| 指令溝通助手

功能亮點: 分析劇本內容,協助情緒分級與劇情重點標示;提供音樂風格建議與標籤;協助創作歌詞草稿與音效指令。

課程實作:使用 ChatGPT 對劇本台詞進行情緒分級,並產出情緒變化曲線圖,用以標示劇情高低潮及配樂插入點。根據情緒圖,請 ChatGPT 推薦適合的音樂風格與英文標籤,例如 [Emotional ambient] 或 [Dark cinematic]。

ElevenLabs的應用流程與實踐

以課程專案為例,ElevenLabs語音克隆流程如下:

 

  1. 情緒分析:用LLM分析劇本,生成情緒分級表,掌握台詞情感高低。
     

  2. 演員錄音:演員進行配音錄音,成為AI訓練素材。
     

  3. 建立模型:將錄音剪段、調整參數,建構演員專屬聲音模型。
     

  4. 台詞修改:利用AI語音克隆進行台詞修改錄製,節省重錄時間。
     

  5. 語音替換:輸入修改台詞,自動生成AI語音並替換原音軌。
     

  6. 後製整合:在剪輯軟體中對齊畫面、降噪、添加效果。
     

  7. 模型刪除:課程結束後,依合約刪除AI聲音模型,保障演員權益。

截圖 2025-05-27 晚上7.58.15.png
_- visual selection (1).png

聲音的倫理與演員的權益

AI語音雖提升效率,也帶來倫理挑戰。

 

小綠演員參與我們的AI語音實驗,坦言:「配音是表演的一部分,不希望聲音被任意複製取代。」

我們簽署《AI語音合作條款》

  • AI聲音僅限教學、不得公開或商用

  • 完工即刪除模型,全程紀錄備證

  • 演員全程知情參與,擁有聲音自主權

她提醒我們:「AI難以模擬人類真實的情感。」技術強大,但更需尊重演員的創作價值。我們也引導學生從倫理角度看待聲音使用,學習成為負責任的影像創作者。

113-2 義守大學創新教學

截圖 2025-05-27 下午6.59.23.png

113-2 義守大學創新教學

語音模型刪除證明影片
​錄製時間:2025/06/18

輔助配樂生成流程:

1. 劇本分析與情緒映射: 從電影劇本出發,使用大型語言模型(LLM),如ChatGPT,對劇本進行情緒分析,並產出「情緒變化曲線圖」,以圖表呈現劇情的情緒強度變化。這有助於我們視覺化地標示出劇情的高低潮與情緒轉折點,為決定音樂的in/out點提供依據。

 

2. 討論音樂標籤: 根據情緒圖分析結果,與老師自製的GPTS討論並生成適合該場景情緒與風格的英文配樂標籤。標籤需要包含情緒、樂器、節奏等元素,並特別強調使用中括號 [] 呈現,以避免被Suno誤讀為歌詞。我們通常會請LLM產出至少四個不同風格的標籤供選擇。範例標籤:[Emotional ambient]、[Dark cinematic]

 

 

 

3. Suno迭代測試: 將討論出的英文標籤輸入Suno AI。為了更聚焦於配樂功能,我們會選擇使用「純音樂模式」來避免生成人聲。若生成的音樂不完全符合需求,則需要進行「迭代測試」,反覆調整標籤或參考短音樂片段進行延伸,直到獲得滿意的音樂片段。

截圖 2025-05-27 晚上7.12.59.png
截圖 2025-05-27 晚上7.13.34.png
流程 - visual selection.png

113-2 義守大學創新教學

截圖 2025-05-27 晚上7.20.11.png
蹦迪歌Artist Name
00:00 / 04:00
截圖 2025-05-27 晚上7.33.38.png
情境變化配樂Artist Name
00:00 / 04:00

​根據特定場次,生成音樂標籤,最後生成跳舞音樂

根據變化轉折場次,生成音樂標籤、再生成情境配樂

輔助電影主題曲生成流程

1.主題提煉: 從電影劇本中提煉出適合創作主題曲的核心故事主題或情感主軸。例如,針對《艾瑞亞》劇本,我們討論出的主題是「機器人無法取代母愛」。

2.結構與歌詞創作: 運用老師提供的主題曲結構指令(如Verse, Chorus, Bridge, Outro等) 指導創作。將主題和結構指令提供給LLM,請其協助撰寫繁體中文歌詞草稿,要求歌詞簡潔、押韻、字數固定且情感強烈。我們也會請LLM根據完整劇本進行歌詞修改。

3.討論音樂風格: 歌詞完成後,再次利用LLM討論並確定主題曲的主要音樂風格標籤,這些標籤是Suno生成音樂的重要參數。例如,風格可能被定義為 cinematic, emotional, glitch pop。

4.Suno迭代測試與分離: 將歌詞與風格標籤輸入Suno AI。Suno會生成不同版本的歌曲。需要進行「迭代測試」,比較分析並選出最適合的版本。選定的主題曲版本可以利用Suno的「Get Stems」功能 分離人聲與背景音樂,以便後續在剪輯軟體(如DaVinci Resolve)中進行混音與應用。

 

​主題曲歌詞

流程 - visual selection (1).png

113-2 義守大學創新教學

截圖 2025-05-27 晚上7.42.52.png
艾瑞亞Artist Name
00:00 / 03:13
IMG_2125.JPG

113-2 義守大學創新教學

學生AI工具反思回饋

​來源:課堂作業七(1000字的AI應用心得報告(0508))

​AI工具,期末問卷分析(共回收20份學生問卷)

1. 課前基礎認知與學習動機

大部分同學(14/19)在課程開始前僅「略有耳聞」,對 AI 工具多停留在概念層次,實際使用經驗不足;僅有少數(5/19)已有基本認識。此現象顯示學生在 AI 混音領域的學習動機強烈,但仍需透過實作課程來建立操作自信與專業能力。

2. 工具使用現況與偏好

  • ChatGPT 與 Suno 為最常用的兩款工具:

    • ChatGPT 因具備對話式交互與文本創作功能,課前(15 人次)與課中(12 人次)皆廣泛採用。

    • Suno 則因在聲音生成與混音示例中表現出色,課後有 10 人次表態「最受用且會再使用」,顯示其在音訊創作環節的實用性。

3. AI 對藝術創作的影響評估

  • 絕大多數(14/19)認為 AI 的正面影響大於負面,僅 5 人感受負面影響更顯著。此結果反映,透過「實際操作—成果檢視」的教學設計,增強了學生對 AI 提升效率、激發創意及簡化流程的認同。

  • 然而,仍有少部分同學擔憂「過度依賴可能削弱創作者原創力」、「AI 風格同質化恐損害作品多樣性」。

4. AI 輔助 vs. 人類創作的差異認知

同學們普遍認為 AI 輔助創作的主要差異在於:

  1. 效率與產量:AI 可快速生成多樣化素材、節省重複性工作;

  2. 情感深度:AI 難以提供源自人類經驗與情感的「靈魂」層面;

  3. 風格辨識:AI 輸出易趨同質,須透過後製與人為調整來彰顯個人風格。
     

5. 倫理風險與警覺

透過課堂討論,多數同學對 AI 倫理議題有更深體會:

  • 資訊操弄與濫用(8 人):憂慮深度偽造(deepfake)技術助長假訊息擴散。

  • 就業衝擊(5 人):擔憂 AI 對創意產業人力需求的替代效應。

  • 算法偏見(4 人):關注訓練數據中潛藏的性別、種族偏差。

    另有少數提出隱私侵犯、版權爭議等面向,顯示學生能從多維度檢視 AI 的文化與社會影響。
     

6. 對未來 AI 技術的期待

雖然具體領域意見多元,但核心共識在於:

  • 跨媒介一體化生成:期盼 AI 能同時產出影像、聲音、劇本等多種創作素材;

  • 即時互動式創作:盼望出現能與創作者「即時對話」的 AI 助手,提升靈感迸發;

  • 文化資產保存:看好 AI 在數位博物館、古蹟復原與文化保存上的應用潛力。
     

結論與建議

本次 19 份問卷結果顯示,電影與電視學系二年級學生在「電影混音與 AI 工具」課程中,從初步好奇到課後深度認同經歷了明顯成長:

  1. 基礎認知→實作深化:課前多為概念層次,課中實作後對 AI 價值有更直觀的感受;

  2. 聲音生成與對話創作雙核心:Suno、ChatGPT 為最核心利器,其他工具則依需嘗試;

  3. 效率提升 vs. 創作靈魂:學生肯定 AI 在效率與多樣性上的貢獻,同時保留對創作人文深度與倫理風險的警覺;

  4. 未來方向:聚焦跨媒介整合、即時共創及文化保存。

bottom of page