AI 放大 vs 双三次 / Lanczos——什么时候用哪个
「AI 放大」工具承诺把图放大且不掉细节。听着像魔法,有时确实像魔法,但有时比一个 30 年前的老算法 Lanczos 还慢、还差。这篇讲清楚实际区别、各自什么时候赢、怎么按图的类型选对方法。
用到的工具:paste-to-download.com/zh-CN/upscale——按图内容自动挑方法,也可手动覆盖。
三种方法
双三次(Bicubic)
多数图像编辑器自 2000 年起的默认。从已有像素的 4×4 邻域用三次曲线算新像素。快(每兆像素毫秒级)、简单、成熟。结果:放大平滑但略糊。不发明信息——只是已有像素之间的平滑插值。
Lanczos
比双三次复杂。从更大的邻域(一般 8×8)用 sinc 函数算新像素。比双三次慢但还是快(每兆像素毫秒级)。结果:比双三次锐利,尤其对线稿、Logo、截图。不需要发明细节的内容里,Lanczos 是非 AI 的最佳重采样。
AI 超分辨率
训练在数百万张图对(低分辨率→高分辨率)的深度神经网络。网络学会从低分辨率输入里发明合理的高分辨率细节。慢(每兆像素几秒到几十秒)。结果:照片细节惊艳——纹理、睫毛、织物纹路,这些是源图里根本没有的。细节是合理的,不是真实的。
2026 年常见模型:Swin2SR、Real-ESRGAN、SRGAN、轻量版超分辨率变体。
AI 赢的地方
AI 放大对网络见过大量训练样本的摄影内容最强:
- 人脸(尤其头像、肖像)
- 皮肤纹理、头发、织物
- 自然风光(树叶、水、云)
- 动物(毛、鳞、羽)
- 老照片或糊照片修出可信的清晰度
- 下载的低分辨率图要放大去印刷
这些场景下,AI 填进去的细节是双三次或 Lanczos 不可能造出来的。400 × 400 的肖像能被 AI 变成可信的 1600 × 1600;双三次只能让同一张图变大且更糊。
AI 输的地方(或者犯错的地方)
线稿和 Logo
带硬边和平涂色的矢量类内容会让多数 AI 模型困惑。网络是在照片上训练的,可能试图引入不该有的「纹理」——平面颜色上出现微妙噪点,本该直的边出现波浪。
Lanczos 在这里每次都赢。或者更好的做法是用 /zh-CN/vectorize 把图直接转矢量,跟放大这事说再见。
带文字的截图
文字是边缘锐利、几何规整的。AI 有时把字符边缘弄糊,或在 serif 字体里幻视出额外细节。双三次或 Lanczos 对文字保真更好。
例外:照片里拍到的招牌或文件,文字混在照片内容里,AI 表现就好。
图表、示意图、UI mockup
平涂色 + 几何形状。AI 有时给纯色加纹理噪点。Lanczos 保持干净。
已经够清晰的图
源图长边已经 2000+ 像素,AI 放大边际效益递减。模型在它训练的尺度(通常 4×)填细节,但把 2000 px 翻倍到 4000 px,对一般屏幕观看场景几乎看不出区别。
速度差
1000 × 1000 源图放大 4×:
| 方法 | 时间 | 输出 |
|---|---|---|
| 双三次 | 约 50 ms | 4000 × 4000 平滑 |
| Lanczos | 约 150 ms | 4000 × 4000 锐利 |
| AI(Swin2SR) | 3–15 秒 | 4000 × 4000 含发明细节 |
批量场景(50+ 张),速度差很要紧。AI 100 张要 5–25 分钟;Lanczos 不到 30 秒。
paste-to-download 怎么自动挑
/zh-CN/upscale 三种模式:
- Auto(默认):分析图,摄影类内容用 AI,线稿/文字类用 Lanczos
- Photo:强制 AI(Swin2SR)
- Design & text:强制 Lanczos
Auto 探测器看边缘特征、颜色数、对比度分布。锐边多 + 颜色少 = 归为 design/text;否则走 AI。
可以随时手动覆盖。Auto 给 Logo 选了 AI 结果看着不对,切到 design 模式再跑一遍。
实用决策树
问:是照片吗(人脸、风景、商品、动物)?
- 是 → AI 放大
- 否 → Lanczos
问:源图长边已经 2000+ 像素?
- 是 → 再想想要不要放大
- 否 → 按选好的方法
问:源图有大量文字或硬几何边?
- 是 → Lanczos,或文字/矢量类直接 /zh-CN/vectorize
- 否 → AI 可能是对的
问:源图非常糊或非常小(500 × 500 以下)?
- 是 → AI 是你唯一能拿到可信细节的希望
- 否 → 双三次也许都够用了
问:时间压力?
- 50+ 张批量 → Lanczos(5 分钟搞定)
- 少量图、画质优先 → AI
隐私小注
多数在线放大器把你的图传到 GPU 集群。给私人照片(家庭、商品、敏感内容)用,这是真考量。
/zh-CN/upscale 在你浏览器里跑。Swin2SR 模型作为 ONNX Web Runtime 加载,跑在 WebGPU 或 WebAssembly 上。图像不离开设备。首次运行下载模型(一次性约 30 MB),之后缓存。
一句话总结
- 照片 → AI 放大(/zh-CN/upscale photo 模式)
- Logo / 文字 / 线稿 → Lanczos(/zh-CN/upscale design 模式)
- 拿不准 → Auto 模式,让工具决定
- 源图基础上不要超过 2× 放大,除非是为印刷
- 专门给文字和矢量 → 考虑 /zh-CN/vectorize 代替任何栅格放大