vault backup: 2024-10-12 11:52:39

This commit is contained in:
BlueRose 2024-10-12 11:52:39 +08:00
parent 799fb64faa
commit 70ea3a47b7
2 changed files with 13 additions and 14 deletions

View File

@ -1 +1 @@
{"582020846":{"582020846":{"currentFile":{"count":1,"lastUpdated":1727792069567}}},"婚礼布置2W。老妈去谈。":{"婚礼布置2W。老妈去谈。":{"currentFile":{"count":1,"lastUpdated":1725803390742}}},"如下所示:":{"如下所示:":{"currentFile":{"count":1,"lastUpdated":1725940732272}}},"剩下8通道":{"剩下8通道":{"currentFile":{"count":1,"lastUpdated":1726629297275}}},"根据bComputeExport分别使用RDG的ComputeShader与PixelShader输出DepthStencil。":{"根据bComputeExport分别使用RDG的ComputeShader与PixelShader输出DepthStencil。":{"currentFile":{"count":1,"lastUpdated":1727249472660}}},"MeshDraw":{"MeshDraw":{"internalLink":{"count":1,"lastUpdated":1727260163677}}}}
{"582020846":{"582020846":{"currentFile":{"count":1,"lastUpdated":1727792069567}}},"剩下8通道":{"剩下8通道":{"currentFile":{"count":1,"lastUpdated":1726629297275}}},"根据bComputeExport分别使用RDG的ComputeShader与PixelShader输出DepthStencil。":{"根据bComputeExport分别使用RDG的ComputeShader与PixelShader输出DepthStencil。":{"currentFile":{"count":1,"lastUpdated":1727249472660}}},"MeshDraw":{"MeshDraw":{"internalLink":{"count":1,"lastUpdated":1727260163677}}},"实现了一个在屏幕空间宽度恒定的":{"实现了一个在屏幕空间宽度恒定的":{"currentFile":{"count":1,"lastUpdated":1728700795488}}}}

View File

@ -3,10 +3,11 @@
## Gameplay
## MultiDraw
实现了PC与移动端平台的Backface描边与类多Pass效果。
其中描边支持宽度对FOV、深度的自适应。
## AIGC
### AnimationRetargeting
公司搞了一个AI生成动画的平台可以给用户指定的角色模型生成动画。其中比较重要的就是高效的动画重定向。
公司开发的AI生成动画的平台通过用户输入的文字描述来给指定的角色模型生成动画。我在该项目中实现了高效的动画重定向。
我实现了3种方案
1. 使用Blender插件通过cmd调用的方式进行重定向。 缺点:转换速度比较慢,会影响用户使用体验。
@ -14,22 +15,23 @@
3. 移植UE5骨骼链重定向逻辑到qt中实现跨平台的重定向程序。优点效率高、准确性高。200ms左右主要消耗在读取与生成FBX文件上。
QRetargetService实现了以下功能
1. 对fbx、bvh动画进行重定向并且输出fbx文件。
2. 支持字符流输入动画数据,并进行重定向。
3. 支持NPY动画数据输入。
4. 支持FBXStream读取/写入数据。
5. 重定向Pose对齐。
1. 实现UE5骨骼链重定向算法。
2. 对fbx、bvh动画进行重定向并且输出fbx文件。
3. 支持字符流输入动画数据,并进行重定向。
4. 支持NPY动画数据输入。
5. 支持FBXStream读取/写入数据。
6. 重定向Pose对齐。
### UE Docker部署
跑通了UE Docker部署流程。
### AIAutomationTools
### AIMotionRender
模仿一个2022年初的AI APPAI端负责识别用户上传的视频中的动作数据之后发送给AIMotionRender
模仿2022年初的某个AI视频APP。AI端负责识别用户上传的视频中的动作数据与其他相关信息调用AIMotionRender来生成短片。除了角色其他的场景、镜头都是预制
AIMotionRender
1. 将接受到的动画数据重定向并且应用到AI端指定的角色中。
2. 将该角色放入到指定的场景中并且
2. 将该角色放入到指定的场景中并且进行渲染压片并且返回给APP后端。
### AIFacialRender
AI端识别用户输入的台词生成对应的表情、口型、音频文件调用AIFacialRender来生成短片。
### AIMotionAssetTaker
通过调用AIGC API获取动画数据之后再本地进行重定向后生成UE动画资产以此提高动画制作的效率。
@ -41,9 +43,6 @@ AIMotionRender
### AIAutomationTools
# OLD
```markmap {scale=1.1}
## 美术流程