diff --git a/07-Other/简历/方向.md b/07-Other/简历/方向.md index 159ca98..e407e2b 100644 --- a/07-Other/简历/方向.md +++ b/07-Other/简历/方向.md @@ -3,7 +3,7 @@ 1. 模仿ChaosBone,使用CUDA直接读取Bone动画数据并且传递给动画蓝图。(CUDA具有访问指定显存的功以此节约io损耗)假定用户使用双显卡(渲染/直播推流)将AI动捕的负荷移动到另一张卡上。 2. 使用多线程与帧采样解决数据抖动问题。同时可以略微降低ai动补的性能要求。 - 卡通渲染: - 1. 兼容VRM格式。 + 1. 兼容VRM格式。(VoidHUB) 2. 兼容多种渲染风格,Unity-Chan、VRM、罪恶装备等。并在此基础上尝试研发下一代卡通渲染风格。 1. 需要一种能够向渲染管线传递大量参数的功能: 1. 增加GBuffer数量。 @@ -13,10 +13,13 @@ 3. 需要收集插画作品PSD源文件,对风格进行分类之后,对图层进行分类。尝试用图形算法与AI尝试还原每个图层。 4. 参考日本动画有关 “摄影”的方法(AE),并且在UE中实现。 5. 以4个时间段&天气环境状态制作LookDev场景,并且保证时间循环下效果平滑(需要调整曲线) - 3. 对c端用户来说: + 6. Lumen以及MageLight ReSTIR的支持。 + 3. AI + 1. 渲染管线里5.3已经支持神经网络(NNE)接口。 其中一种方法使用ONNX + 4. 对c端用户来说: 1. 需要一个简单出效果的东西。简单调节参数。 2. 有几个风格模版。 - 4. 一个角色的渲染控制只:基础材质(参数+贴图)、ToonDataAsset。方便管理与迭代。 + 5. 一个角色的渲染控制只:基础材质(参数+贴图)、ToonDataAsset。方便管理与迭代。 - 面捕&VMC: 1. 抖音既然是一个全球性的平台,在兼容VMC与LiveLinkFace的基础。进行扩展,比如VMC中增加更多的场景控制、整活互动功能。使用ARKit开发类似FaceMask的工具,让用户可做出更多的表情与表演效果。 2. 面捕矫正问题。