更新记录- 2025.11.24
1)优化模型设置,使得 RMBG 2.0 模型可以加载到 CPU 和老显卡
2)优化了模型加载到 CPU 时的推理速度
3)优化了启动时 GPU 检测速度 - 2025.11.14
1)添加了图片文件的右键菜单支持,及文件夹背景右键菜单支持 - 2025.11.13
1)修复:如果没有检测到 GPU,则不加载 RMBG 2.0 模型,并隐藏 /gpu 指令 - 2025.11.12
1)增加了 GPU 检测
2)增加了 InSPyReNet 和 BEN2 模型支持
3)增加了 CPU 加载模型
4)优化了批量处理时,通配符的使用
一、技术基础- 基于 ONNX 模型文件,实现离线版AI批量抠图。
- 模型及推理框架
1)使用 ONNX Runtime 和 DirectML,推理框架依赖少,编译后主程序约 40 MB。
2)ONNX 模型文件小,RMBG 2.0 + InSPyReNet + BEN2 三个模型加起来约 1 GB。 - 支持的图像类型
目前支持jpg、png、bmp、tiff、webp图片格式。
二、运行要求- 硬件要求:支持 DirectX 12 的核显或独显(三个模型都可以加载到 CPU。GPU 现在不是必需。)
-- 核显:Intel 11代酷睿及以上(Intel Iris Xe Graphics/Intel Arc Graphics核显) / AMD 锐龙 7040系及以上(AMD Radeon 700M/800M系核显)
-- 独显:Nvidia RTX 30/40/50系(至少8G显存) / AMD RX 6000/7000/9000系列(至少8G显存) - 系统要求:Windows 10 1903 及以上
三、使用
- /help or /? 帮助
- /cd [dir] 设置需要处理的图像所在目录
- 说明:启动时图像所在目录被设置为当前目录
- /cd 不加参数表示显示当前图像所在目录
- /cd ..\.. 支持相对路径
- /out [dir] 设置处理后的图像保存目录
- 说明:启动时图像保存目录被设置为当前目录
- /out 不加参数表示显示当前图像所在目录
- /out ..\.. 支持相对路径
- /bye 退出程序
- /list 显示可用的 GPU 设备和模型
- /gpu <gpu编号> [模型编号] 加载对应的模型到 GPU <gpu编号>,<gpu编号>见/list
- /cpu [模型编号] 加载对应的模型到 CPU
- 说明:[模型编号]可以省略,省略表示处理当前已加载的模型
- // [注释] 注释(行内注释//前需要有空格)
- <输入图片> [输出图片] 对 <输入图片> 抠图并保存到 [输出图片]
- <输入图片> 支持jpg, jpeg, png, bmp, tif, tiff, webp
- [输出图片] 只支持 png 或 webp
- 说明:[输出图片]可以省略,省略表示保存到/out指定的目录,保存格式为png
- <含*?通配符>.<扩展名> [-r] 批量处理图片
- <扩展名> 支持jpg, jpeg, png, bmp, tif, tiff, webp
- [-r] 递归处理子目录下的图片
- 说明:<含*?通配符>现在支持目录名
- 例如:C:\Picture\?some*.jpg -r
复制代码
四、下载下载的文件只包含主程序,模型文件请自行下载。
|