AI 放大 vs 双三次 / Lanczos——什么时候用哪个

3 分钟阅读

AI 放大 vs 双三次 / Lanczos——什么时候用哪个

「AI 放大」工具承诺把图放大且不掉细节。听着像魔法,有时确实像魔法,但有时比一个 30 年前的老算法 Lanczos 还慢、还差。这篇讲清楚实际区别、各自什么时候赢、怎么按图的类型选对方法。

用到的工具:paste-to-download.com/zh-CN/upscale——按图内容自动挑方法,也可手动覆盖。

三种方法

双三次(Bicubic)

多数图像编辑器自 2000 年起的默认。从已有像素的 4×4 邻域用三次曲线算新像素。快(每兆像素毫秒级)、简单、成熟。结果:放大平滑但略糊。不发明信息——只是已有像素之间的平滑插值。

Lanczos

比双三次复杂。从更大的邻域(一般 8×8)用 sinc 函数算新像素。比双三次慢但还是快(每兆像素毫秒级)。结果:比双三次锐利,尤其对线稿、Logo、截图。不需要发明细节的内容里,Lanczos 是非 AI 的最佳重采样。

AI 超分辨率

训练在数百万张图对(低分辨率→高分辨率)的深度神经网络。网络学会从低分辨率输入里发明合理的高分辨率细节。慢(每兆像素几秒到几十秒)。结果:照片细节惊艳——纹理、睫毛、织物纹路,这些是源图里根本没有的。细节是合理的,不是真实的。

2026 年常见模型:Swin2SR、Real-ESRGAN、SRGAN、轻量版超分辨率变体。

AI 赢的地方

AI 放大对网络见过大量训练样本的摄影内容最强:

  • 人脸(尤其头像、肖像)
  • 皮肤纹理、头发、织物
  • 自然风光(树叶、水、云)
  • 动物(毛、鳞、羽)
  • 老照片或糊照片修出可信的清晰度
  • 下载的低分辨率图要放大去印刷

这些场景下,AI 填进去的细节是双三次或 Lanczos 不可能造出来的。400 × 400 的肖像能被 AI 变成可信的 1600 × 1600;双三次只能让同一张图变大且更糊。

AI 输的地方(或者犯错的地方)

线稿和 Logo

带硬边和平涂色的矢量类内容会让多数 AI 模型困惑。网络是在照片上训练的,可能试图引入不该有的「纹理」——平面颜色上出现微妙噪点,本该直的边出现波浪。

Lanczos 在这里每次都赢。或者更好的做法是用 /zh-CN/vectorize 把图直接转矢量,跟放大这事说再见。

带文字的截图

文字是边缘锐利、几何规整的。AI 有时把字符边缘弄糊,或在 serif 字体里幻视出额外细节。双三次或 Lanczos 对文字保真更好。

例外:照片里拍到的招牌或文件,文字混在照片内容里,AI 表现就好。

图表、示意图、UI mockup

平涂色 + 几何形状。AI 有时给纯色加纹理噪点。Lanczos 保持干净。

已经够清晰的图

源图长边已经 2000+ 像素,AI 放大边际效益递减。模型在它训练的尺度(通常 4×)填细节,但把 2000 px 翻倍到 4000 px,对一般屏幕观看场景几乎看不出区别。

速度差

1000 × 1000 源图放大 4×:

方法 时间 输出
双三次 约 50 ms 4000 × 4000 平滑
Lanczos 约 150 ms 4000 × 4000 锐利
AI(Swin2SR) 3–15 秒 4000 × 4000 含发明细节

批量场景(50+ 张),速度差很要紧。AI 100 张要 5–25 分钟;Lanczos 不到 30 秒。

paste-to-download 怎么自动挑

/zh-CN/upscale 三种模式:

  • Auto(默认):分析图,摄影类内容用 AI,线稿/文字类用 Lanczos
  • Photo:强制 AI(Swin2SR)
  • Design & text:强制 Lanczos

Auto 探测器看边缘特征、颜色数、对比度分布。锐边多 + 颜色少 = 归为 design/text;否则走 AI。

可以随时手动覆盖。Auto 给 Logo 选了 AI 结果看着不对,切到 design 模式再跑一遍。

实用决策树

问:是照片吗(人脸、风景、商品、动物)?

  • 是 → AI 放大
  • 否 → Lanczos

问:源图长边已经 2000+ 像素?

  • 是 → 再想想要不要放大
  • 否 → 按选好的方法

问:源图有大量文字或硬几何边?

  • 是 → Lanczos,或文字/矢量类直接 /zh-CN/vectorize
  • 否 → AI 可能是对的

问:源图非常糊或非常小(500 × 500 以下)?

  • 是 → AI 是你唯一能拿到可信细节的希望
  • 否 → 双三次也许都够用了

问:时间压力?

  • 50+ 张批量 → Lanczos(5 分钟搞定)
  • 少量图、画质优先 → AI

隐私小注

多数在线放大器把你的图传到 GPU 集群。给私人照片(家庭、商品、敏感内容)用,这是真考量。

/zh-CN/upscale 在你浏览器里跑。Swin2SR 模型作为 ONNX Web Runtime 加载,跑在 WebGPU 或 WebAssembly 上。图像不离开设备。首次运行下载模型(一次性约 30 MB),之后缓存。

一句话总结

  • 照片 → AI 放大(/zh-CN/upscale photo 模式)
  • Logo / 文字 / 线稿 → Lanczos(/zh-CN/upscale design 模式)
  • 拿不准 → Auto 模式,让工具决定
  • 源图基础上不要超过 2× 放大,除非是为印刷
  • 专门给文字和矢量 → 考虑 /zh-CN/vectorize 代替任何栅格放大