今天有朋友問我:
「可以用 AI 生一段 10 秒的動物跳水影片嗎?用 Google Gemini、Runway 還是 ChatGPT?」
我愣了一下。
不是因為難回答,而是這個問題,真的是「現代AI人」的典型日常——工具多到分不清,想法卻還沒拆解清楚。
❶ 工具百百種,先別急著比較,先想你要什麼
一般人會急著問:「哪個工具比較強?誰生成最好?」
但現在各種 AIGC 工具百花齊放,每天都在進化與變化,一眨眼王者就換人了:
- Gemini:多模態,近期 Veo3 影片生成領先。
- Runway:主打影片生成,圖片轉影片特別厲害。
- ChatGPT:直接影片還不行,但設計腳本、生成圖片很在行。
我的實戰流程其實是這樣:
ChatGPT 想腳本/Prompt → Midjourney 生畫面/短動畫 → Canva補音效
(偶爾也會試試 Gemini、Runway 各家最新功能)
但我總會提醒自己——
「工具選擇不是第一步,關鍵是你想像的畫面夠不夠清楚?」
❷ 「動物跳水」這個需求,AI聽得懂嗎?
你問「我要一段動物跳水影片」,實際再拆解會有以下細節:
- 什麼動物?是企鵝?還是大象?
- 要像 National Geographic 那種真實感,還是可愛的 3D 卡通?
- 你想要慢動作、還是爆笑 NG?
- 片長、鏡位、音樂、色調… 你有想像中畫面嗎?
如果「資訊不夠,模型就只能瞎猜」。
這就像跟一個外國朋友說:「你能不能畫一幅自由?」
每個人腦海畫面都不一樣。
很多朋友者會抱怨:「為什麼我說了,它做出來卻怪怪的?」
但多數背後的原因來自於能不能把需求講清楚?
❸ 練習「拆解細節」,AI合作才能爽快
真正會用AIGC的人,常常不是一開始就丟大需求,而是這樣練習:
- 先用一句話描述想法,跟 AI 來回釐清
- 練習把畫面拆解成「場景」和「情緒」
- 再把這些細節編成 prompt 或腳本
如果我現在要生出一段「跳水企鵝動畫」影片,我就會透過對話去生成以下指令,調整指令並滿足我需求,再提供給模型執行 :
Scene 1: A sun-lit icy lagoon at sunrise, gentle mist rising off the water.
Scene 2: A neat line of five emperor penguins on a snowy wooden platform. Each penguin, in exact order, puts on sleek reflective swim goggles, pausing briefly to adjust. Scene 3: Low-angle tracking shot from left to right. Each penguin dives gracefully in slow motion (24 fps), creating enormous sparkling splashes with realistic water caustics. Teal-orange cinematic colour grade, whimsical piano melody faintly audible. 10-second clip, 1080 p resolution.
然後再問:「你覺得這樣能讓 AI 生出什麼感覺?」
❹ 工具很強,但「人類判斷」才是關鍵
現在只要肯拆細節,Gemini、Sora、Midjourney 幾乎都能「生」出東西來,
但最後「滿不滿意」完全取決於你能不能說清楚你要什麼。
你如果只丟一句「我要動物跳水影片」,AI 會「照辦」,但你九成不會滿意。
開始詢問「怎麼做才會變成我想要的樣子?」
這才是啟動與AI協作的關鍵。
❺ 每個好問題,都是進步的起點
感謝這位朋友的提問。
有時答案不難,難的是學會怎麼「拆解需求」、「問出好問題」。
每次練習拆解,都是自己和AI一起進步的過程
我們都還在學、還在試、還在錯,
但每一個「可以問」的時候,本身就已經很棒了。
附上同一個指令,給 Gemini、Sora、Midjourney 生成的影片,你能分得出誰生的嗎?
還是說,其實重點早就不是工具了?
#AI怎麼想
#每個問題都是最好的起點
#說人話讓懶人也能秒用AI




