vault backup: 2024-11-07 20:09:40

This commit is contained in:
BlueRose 2024-11-07 20:09:40 +08:00
parent 56cde80e70
commit 16879bfaed

View File

@ -3,7 +3,7 @@
1. 模仿ChaosBone使用CUDA直接读取Bone动画数据并且传递给动画蓝图。CUDA具有访问指定显存的功以此节约io损耗假定用户使用双显卡渲染/直播推流将AI动捕的负荷移动到另一张卡上。
2. 使用多线程与帧采样解决数据抖动问题。同时可以略微降低ai动补的性能要求。
- 卡通渲染:
1. 兼容VRM格式。
1. 兼容VRM格式。VoidHUB
2. 兼容多种渲染风格Unity-Chan、VRM、罪恶装备等。并在此基础上尝试研发下一代卡通渲染风格。
1. 需要一种能够向渲染管线传递大量参数的功能:
1. 增加GBuffer数量。
@ -13,10 +13,13 @@
3. 需要收集插画作品PSD源文件对风格进行分类之后对图层进行分类。尝试用图形算法与AI尝试还原每个图层。
4. 参考日本动画有关 “摄影”的方法AE并且在UE中实现。
5. 以4个时间段&天气环境状态制作LookDev场景并且保证时间循环下效果平滑需要调整曲线
3. 对c端用户来说
6. Lumen以及MageLight ReSTIR的支持。
3. AI
1. 渲染管线里5.3已经支持神经网络NNE接口。 其中一种方法使用ONNX
4. 对c端用户来说
1. 需要一个简单出效果的东西。简单调节参数。
2. 有几个风格模版。
4. 一个角色的渲染控制只:基础材质(参数+贴图、ToonDataAsset。方便管理与迭代。
5. 一个角色的渲染控制只:基础材质(参数+贴图、ToonDataAsset。方便管理与迭代。
- 面捕&VMC
1. 抖音既然是一个全球性的平台在兼容VMC与LiveLinkFace的基础。进行扩展比如VMC中增加更多的场景控制、整活互动功能。使用ARKit开发类似FaceMask的工具让用户可做出更多的表情与表演效果。
2. 面捕矫正问题。