AI 放大 vs 雙三次 / Lanczos——什麼時候用哪個
「AI 放大」工具承諾把圖放大且不掉細節。聽著像魔法,有時確實像魔法,但有時比一個 30 年前的老演算法 Lanczos 還慢、還差。這篇講清楚實際差別、各自什麼時候贏、怎麼按圖的類型選對方法。
用到的工具:paste-to-download.com/zh-TW/upscale——按圖內容自動挑方法,也可手動覆蓋。
三種方法
雙三次(Bicubic)
多數影像編輯器自 2000 年起的預設。從已有像素的 4×4 鄰域用三次曲線算新像素。快(每兆像素毫秒級)、簡單、成熟。結果:放大平滑但略糊。不發明資訊——只是已有像素之間的平滑插值。
Lanczos
比雙三次複雜。從更大的鄰域(一般 8×8)用 sinc 函數算新像素。比雙三次慢但仍快(每兆像素毫秒級)。結果:比雙三次銳利,尤其對線稿、Logo、截圖。不需要發明細節的內容裡,Lanczos 是非 AI 的最佳重採樣。
AI 超解析度
訓練在數百萬張圖對(低解析度→高解析度)的深度神經網路。網路學會從低解析度輸入裡發明合理的高解析度細節。慢(每兆像素幾秒到幾十秒)。結果:照片細節驚豔——紋理、睫毛、織物紋路,這些是源圖裡根本沒有的。細節是合理的,不是真實的。
2026 年常見模型:Swin2SR、Real-ESRGAN、SRGAN、輕量版超解析度變體。
AI 贏的地方
AI 放大對網路見過大量訓練樣本的攝影內容最強:
- 人臉(尤其大頭照、肖像)
- 皮膚紋理、頭髮、織物
- 自然風光(樹葉、水、雲)
- 動物(毛、鱗、羽)
- 老照片或糊照片修出可信的清晰度
- 下載的低解析度圖要放大去印刷
這些場景下,AI 填進去的細節是雙三次或 Lanczos 不可能造出來的。400 × 400 的肖像能被 AI 變成可信的 1600 × 1600;雙三次只能讓同一張圖變大且更糊。
AI 輸的地方(或者犯錯的地方)
線稿和 Logo
帶硬邊和平塗色的向量類內容會讓多數 AI 模型困惑。網路是在照片上訓練的,可能試圖引入不該有的「紋理」——平面顏色上出現微妙雜訊,本該直的邊出現波浪。
Lanczos 在這裡每次都贏。或者更好的做法是用 /zh-TW/vectorize 把圖直接轉向量,跟放大這事說再見。
帶文字的截圖
文字是邊緣銳利、幾何規整的。AI 有時把字元邊緣弄糊,或在 serif 字體裡幻視出額外細節。雙三次或 Lanczos 對文字保真更好。
例外:照片裡拍到的招牌或文件,文字混在照片內容裡,AI 表現就好。
圖表、示意圖、UI mockup
平塗色 + 幾何形狀。AI 有時給純色加紋理雜訊。Lanczos 保持乾淨。
已經夠清晰的圖
源圖長邊已經 2000+ 像素,AI 放大邊際效益遞減。模型在它訓練的尺度(通常 4×)填細節,但把 2000 px 翻倍到 4000 px,對一般螢幕觀看場景幾乎看不出差別。
速度差
1000 × 1000 源圖放大 4×:
| 方法 | 時間 | 輸出 |
|---|---|---|
| 雙三次 | 約 50 ms | 4000 × 4000 平滑 |
| Lanczos | 約 150 ms | 4000 × 4000 銳利 |
| AI(Swin2SR) | 3–15 秒 | 4000 × 4000 含發明細節 |
批次場景(50+ 張),速度差很要緊。AI 100 張要 5–25 分鐘;Lanczos 不到 30 秒。
paste-to-download 怎麼自動挑
/zh-TW/upscale 三種模式:
- Auto(預設):分析圖,攝影類內容用 AI,線稿/文字類用 Lanczos
- Photo:強制 AI(Swin2SR)
- Design & text:強制 Lanczos
Auto 偵測器看邊緣特徵、顏色數、對比分布。銳邊多 + 顏色少 = 歸為 design/text;否則走 AI。
可以隨時手動覆蓋。Auto 給 Logo 選了 AI 結果看著不對,切到 design 模式再跑一遍。
實用決策樹
問:是照片嗎(人臉、風景、商品、動物)?
- 是 → AI 放大
- 否 → Lanczos
問:源圖長邊已經 2000+ 像素?
- 是 → 再想想要不要放大
- 否 → 按選好的方法
問:源圖有大量文字或硬幾何邊?
- 是 → Lanczos,或文字/向量類直接 /zh-TW/vectorize
- 否 → AI 可能是對的
問:源圖非常糊或非常小(500 × 500 以下)?
- 是 → AI 是你唯一能拿到可信細節的希望
- 否 → 雙三次也許都夠用了
問:時間壓力?
- 50+ 張批次 → Lanczos(5 分鐘搞定)
- 少量圖、畫質優先 → AI
隱私小註
多數線上放大器把你的圖傳到 GPU 叢集。給私人照片(家庭、商品、敏感內容)用,這是真考量。
/zh-TW/upscale 在你瀏覽器裡跑。Swin2SR 模型作為 ONNX Web Runtime 載入,跑在 WebGPU 或 WebAssembly 上。影像不離開裝置。首次執行下載模型(一次性約 30 MB),之後快取。
一句話總結
- 照片 → AI 放大(/zh-TW/upscale photo 模式)
- Logo / 文字 / 線稿 → Lanczos(/zh-TW/upscale design 模式)
- 拿不準 → Auto 模式,讓工具決定
- 源圖基礎上不要超過 2× 放大,除非是為印刷
- 專門給文字和向量 → 考慮 /zh-TW/vectorize 取代任何點陣放大