
Rope是一个基于insightface inswapper_128模型开发、注重图形界面(GUI)体验的人脸交换工具。
核心定位
该项目将inswapper_128模型与实用的GUI结合,方便用户进行人脸交换操作,降低技术使用门槛。
辅助资源
社区交流:提供Discord链接(https://discord.gg/EcdVAFJzqp),用户可在此与开发者及其他使用者交流。
捐赠支持:设有PayPal捐赠通道(https://www.paypal.com/donate/?hosted_button_id=Y5SB9LSXFGRF2),用于项目持续发展。
使用指导:配备Wiki页面(https://github.com/Hillobar/Rope/wiki),包含详细的安装步骤和使用说明。
演示参考:提供RopeRuby版本的演示视频(https://www.youtube.com/watch?v=4Y4U0TZ8cWY),直观展示工具操作。
最新版本(RopePearl00)功能更新
支持选择模型交换输出分辨率(128、256、512)。
优化输入图片选择方式,支持Ctrl和Shift快捷键(类似Windows系统操作逻辑)。
无需保存即可切换均值合并与中位数合并方式,方便对比效果。
恢复键盘控制功能(可使用q、w、a、s、d、空格等键操作)。
新增Gamma滑块,调整画面伽马值。
性能表现
基于3090Ti(24GB)显卡和i513600K处理器的测试数据显示:
仅交换(128分辨率)渲染时间约4.4秒;
交换+GFPGAN修复约9.3秒;
交换+Codeformer修复约11.3秒;
更高分辨率(如512)的交换操作耗时约28.6秒(测试文件为2048×1080、269帧、25fps的10秒视频,使用5线程)。
免责声明
项目强调工具需用于负责任、符合伦理的场景,用户需对自身使用行为负责。明确禁止用于伤害、诽谤、骚扰他人,或制作误导性、恶意内容;使用他人肖像需获得明确 consent;需遵守当地法律法规与版权规定。项目开发者引用了SwapMukham的免责声明,声明不对用户的不当使用行为承担责任。
相关导航


GitHub – meta-llama/codellama: Inference code for CodeLlama models

GitHub – karpathy/llama2.c: Inference Llama 2 in one file of pure C

GitHub – ChenyangSi/FreeU: FreeU: Free Lunch in Diffusion U-Net (CVPR2024 Oral)

AutoStudio

GitHub – facebookresearch/segment-anything: The repository provides code for running inference with the SegmentAnything Model (SAM), links for downloading the trained model checkpoints, and example notebooks that show how to use the model.

GitHub – lm-sys/FastChat: An open platform for training, serving, and evaluating large language models. Release repo for Vicuna and Chatbot Arena.
