AI 放大 vs 雙三次 / Lanczos——什麼時候用哪個

3 分鐘閱讀

AI 放大 vs 雙三次 / Lanczos——什麼時候用哪個

「AI 放大」工具承諾把圖放大且不掉細節。聽著像魔法,有時確實像魔法,但有時比一個 30 年前的老演算法 Lanczos 還慢、還差。這篇講清楚實際差別、各自什麼時候贏、怎麼按圖的類型選對方法。

用到的工具:paste-to-download.com/zh-TW/upscale——按圖內容自動挑方法,也可手動覆蓋。

三種方法

雙三次(Bicubic)

多數影像編輯器自 2000 年起的預設。從已有像素的 4×4 鄰域用三次曲線算新像素。快(每兆像素毫秒級)、簡單、成熟。結果:放大平滑但略糊。不發明資訊——只是已有像素之間的平滑插值。

Lanczos

比雙三次複雜。從更大的鄰域(一般 8×8)用 sinc 函數算新像素。比雙三次慢但仍快(每兆像素毫秒級)。結果:比雙三次銳利,尤其對線稿、Logo、截圖。不需要發明細節的內容裡,Lanczos 是非 AI 的最佳重採樣。

AI 超解析度

訓練在數百萬張圖對(低解析度→高解析度)的深度神經網路。網路學會從低解析度輸入裡發明合理的高解析度細節。慢(每兆像素幾秒到幾十秒)。結果:照片細節驚豔——紋理、睫毛、織物紋路,這些是源圖裡根本沒有的。細節是合理的,不是真實的。

2026 年常見模型:Swin2SR、Real-ESRGAN、SRGAN、輕量版超解析度變體。

AI 贏的地方

AI 放大對網路見過大量訓練樣本的攝影內容最強:

  • 人臉(尤其大頭照、肖像)
  • 皮膚紋理、頭髮、織物
  • 自然風光(樹葉、水、雲)
  • 動物(毛、鱗、羽)
  • 老照片或糊照片修出可信的清晰度
  • 下載的低解析度圖要放大去印刷

這些場景下,AI 填進去的細節是雙三次或 Lanczos 不可能造出來的。400 × 400 的肖像能被 AI 變成可信的 1600 × 1600;雙三次只能讓同一張圖變大且更糊。

AI 輸的地方(或者犯錯的地方)

線稿和 Logo

帶硬邊和平塗色的向量類內容會讓多數 AI 模型困惑。網路是在照片上訓練的,可能試圖引入不該有的「紋理」——平面顏色上出現微妙雜訊,本該直的邊出現波浪。

Lanczos 在這裡每次都贏。或者更好的做法是用 /zh-TW/vectorize 把圖直接轉向量,跟放大這事說再見。

帶文字的截圖

文字是邊緣銳利、幾何規整的。AI 有時把字元邊緣弄糊,或在 serif 字體裡幻視出額外細節。雙三次或 Lanczos 對文字保真更好。

例外:照片裡拍到的招牌或文件,文字混在照片內容裡,AI 表現就好。

圖表、示意圖、UI mockup

平塗色 + 幾何形狀。AI 有時給純色加紋理雜訊。Lanczos 保持乾淨。

已經夠清晰的圖

源圖長邊已經 2000+ 像素,AI 放大邊際效益遞減。模型在它訓練的尺度(通常 4×)填細節,但把 2000 px 翻倍到 4000 px,對一般螢幕觀看場景幾乎看不出差別。

速度差

1000 × 1000 源圖放大 4×:

方法 時間 輸出
雙三次 約 50 ms 4000 × 4000 平滑
Lanczos 約 150 ms 4000 × 4000 銳利
AI(Swin2SR) 3–15 秒 4000 × 4000 含發明細節

批次場景(50+ 張),速度差很要緊。AI 100 張要 5–25 分鐘;Lanczos 不到 30 秒。

paste-to-download 怎麼自動挑

/zh-TW/upscale 三種模式:

  • Auto(預設):分析圖,攝影類內容用 AI,線稿/文字類用 Lanczos
  • Photo:強制 AI(Swin2SR)
  • Design & text:強制 Lanczos

Auto 偵測器看邊緣特徵、顏色數、對比分布。銳邊多 + 顏色少 = 歸為 design/text;否則走 AI。

可以隨時手動覆蓋。Auto 給 Logo 選了 AI 結果看著不對,切到 design 模式再跑一遍。

實用決策樹

問:是照片嗎(人臉、風景、商品、動物)?

  • 是 → AI 放大
  • 否 → Lanczos

問:源圖長邊已經 2000+ 像素?

  • 是 → 再想想要不要放大
  • 否 → 按選好的方法

問:源圖有大量文字或硬幾何邊?

  • 是 → Lanczos,或文字/向量類直接 /zh-TW/vectorize
  • 否 → AI 可能是對的

問:源圖非常糊或非常小(500 × 500 以下)?

  • 是 → AI 是你唯一能拿到可信細節的希望
  • 否 → 雙三次也許都夠用了

問:時間壓力?

  • 50+ 張批次 → Lanczos(5 分鐘搞定)
  • 少量圖、畫質優先 → AI

隱私小註

多數線上放大器把你的圖傳到 GPU 叢集。給私人照片(家庭、商品、敏感內容)用,這是真考量。

/zh-TW/upscale 在你瀏覽器裡跑。Swin2SR 模型作為 ONNX Web Runtime 載入,跑在 WebGPU 或 WebAssembly 上。影像不離開裝置。首次執行下載模型(一次性約 30 MB),之後快取。

一句話總結

  • 照片 → AI 放大(/zh-TW/upscale photo 模式)
  • Logo / 文字 / 線稿 → Lanczos(/zh-TW/upscale design 模式)
  • 拿不準 → Auto 模式,讓工具決定
  • 源圖基礎上不要超過 2× 放大,除非是為印刷
  • 專門給文字和向量 → 考慮 /zh-TW/vectorize 取代任何點陣放大