这款基于 Core ML 的开源二次元神器,可以深入学习一下

👇👇关注后回复 “进群” ,拉你进程序员交流群👇👇

waifu2x (https://github.com/nagadomi/waifu2x) 是一个用于动漫风格图像的图像缩放和图像降噪程序,也支持处理普通图片。

waifu2x的核心是一个用于超分辨率成像的卷积神经网络(SRCNN)。它使用了NVIDIA CUDA技术,但也能使用OpenCL和Vulkan来执行演算。

dd5680daa0ea4475dbc22e50db2043b7.png

区别于传统的插值拉伸等放大方法,waifu2x采用了经过训练的深度卷积神经网络进行图像放大,针对性地解决了其他放大方法在放大动漫风格图片时常出现的线条锐利度降低、色块纯净度变差等缺陷,对于动漫风格图片有着强于其他放大方法的表现。

而我们今天推荐的开源库是 waifu2x 的 Core ML 实现版本(https://github.com/imxieyi/waifu2x-ios) 。该项目的目标是在没有网络的情况下直接在 iOS 设备上运行 waifu2x 模型。

这个开源库对系统的基本要求是:

  • XCode 9+

  • iOS 11+

  • macOS 10.15+ (for Mac Catalyst)

它支持图片格式和视频格式。

对于图片格式而言,具有 RGB 颜色空间的图像效果很好。其他的应在处理之前转换为 RGB,否则输出图像将被破坏。Alpha 通道使用双三次插值进行缩放。通常在 GPU 上运行。如果图像太大,Metal 无法处理,它会自动回退到 CPU,这会非常慢。 

基于 Metal Performance Shaders 的视频支持也包含在这个 repo 中。模型直接从 Core ML 模型加载(参见 CoreML-MPS)。它旨在通过 Mac Catalyst 在具有强大离散 GPU 的 macOS 上运行。在 iOS 设备上运行它会显着降低电池寿命并导致散热问题。很可能它会立即崩溃。iOS 和 macOS 上的内置视频解码器非常有限。如果您的视频不起作用,可以使用 ffmpeg 转换为支持的格式:

ffmpeg -i <INPUT VIDEO> -c:v libx264 -preset ultrafast -pix_fmt yuv420p -c:a aac -f mp4 <OUTPUT VIDEO>.mp4

至于模型,这个存储库包含从 waifu2x-caffe 转换的所有模型。如果您想深入了解 Core ML,建议自己转换它们。可以将预训练模型转换为 Core ML 格式,然后将它们导入 XCode。预训练模型可以从 waifu2x-caffe 获得。可以使用 MobileNet-CoreML 中描述的相同方法。不过不应在 python 脚本中指定任何输入和输出层。

这个库还给出了一些设备上的性能基准测试:

c2ccbcf76d48eb496ca2ff711fc6559b.png

09e142fe042ad6bec89c7e17243cb3df.png

有兴趣的读者可以测试一下,不过特别提醒,waifu2x-ios 特别声明不对设备造成的任何损坏负责

-End-

最近有一些小伙伴,让我帮忙找一些 面试题 资料,于是我翻遍了收藏的 5T 资料后,汇总整理出来,可以说是程序员面试必备!所有资料都整理到网盘了,欢迎下载!

4730c3eb8fe0b5763302e76ef6dba37e.png

点击👆卡片,关注后回复【面试题】即可获取

在看点这里35bd8da4b0cc2c9b6215f5e63287f61b.gif好文分享给更多人↓↓

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值