vault backup: 2025-03-31 18:16:57
This commit is contained in:
@@ -285,12 +285,16 @@ obsidianUIMode: source
|
||||
**2024.10-2025.1**
|
||||
实际上是从2024.4月开始进行技术支持的
|
||||
|
||||
因为乐华从字节收购Asoul业务时,字节只教了基础使用方式,只交付了UE工程、脱敏的美术资产源文件。
|
||||
最为关键的使用文档、中台插件、版本管理工具都没有提供。
|
||||
所以需要有一位技术栈宽广的人来Hold住这个项目。在我接收到项目后,发现存在若干之前直播版本不存在的bug,怀疑是交付时搞错了Perforce分支或是使用较早版本进行交付。
|
||||
|
||||
作为唯二的技术人员,我主要负责:
|
||||
- 解析ASoul导播系统,以进行工作流的适配与改造。
|
||||
- Sequoia编辑器改造以适配流程。
|
||||
- 分析ASoul的渲染管线与配套材质系统。
|
||||
- 分析大气环境、道具、换装系统,并进行改造。
|
||||
- 根据节目导演要求制作一些效果道具。
|
||||
- 根据 运营 要求制作一些效果道具。
|
||||
- 修复导播系统bug。
|
||||
- 大型节目优化。
|
||||
- 日常技术支持
|
||||
@@ -303,6 +307,89 @@ obsidianUIMode: source
|
||||
- 网线 & 工位改造。
|
||||
- 直播相关问题解决。
|
||||
### 导播台架构
|
||||
采用C/S分布式架构,即专用服务器作为终端,其他控制客户端分别控制(服务端会检测客户端身份)。
|
||||
采用这种分布式架构的原因是:
|
||||
1. 可以防止All in Boom的问题。控制用客户端挂掉或者电脑出现硬件问题也可以通过其他电脑打开该类型的控制客户端重新运行。该系统主要由 c++为主要底层(20~30%),大量Puerts(50~60%),蓝图(5~10%)构成。
|
||||
2. 满足导播切镜头的需求,可以先从24个镜头中(可以通过SteamDock翻页)选择想要镜头,之后再PVW预览觉得OK后,通过切镜让PGM也开始播放这个镜头。
|
||||
|
||||
- 地图控制:
|
||||
- 加载指定表演区域(采用大世界系统,提前加载,UE4版本采用的是关卡流)
|
||||
- 控制天气、昼夜循环、天空盒。
|
||||
- 添加地图道具、特效。
|
||||
- 控制表演区域的特殊功能。
|
||||
- 角色换装&道具:
|
||||
- 角色换装
|
||||
- 身体各部位的道具
|
||||
- 特效
|
||||
- 动捕&面部&手套控制
|
||||
- 动捕、面部、手套数据ID对应。
|
||||
- 脚步着地。
|
||||
- 动捕时间戳同步。
|
||||
- 动捕道具控制。
|
||||
- 渲染机画面通过采集卡+视频线传到显示器上
|
||||
|
||||
### 渲染管线 & 材质系统
|
||||
|
||||
#### 渲染管线
|
||||
为了能在其他线下场所进行直播(替换官方引擎的USH与USF),ASoul的引擎只使用材质与修改UE Shader的方式来实现卡渲。
|
||||
|
||||
主要的逻辑是:
|
||||
1. 在FGbufferData中添加额外的卡通渲染用变量,之后在DeferredShadingCommon.ush的Encode/Decode函数从GBuffer进行Encode/Decode。
|
||||
2. 在BasePassPixelShader中写入相关信息,并且修改ShadingModelID输出(使用CustomNode):
|
||||
1. ToonSpecularColor
|
||||
2. ToonShadowColor
|
||||
3. ToonShadowLocation
|
||||
4. ToonShadowSmoothness
|
||||
5. ToonSecondaryShadowColor
|
||||
6. ToonForceShadow
|
||||
3. 在ShadingModel.ush 添加对应的ToonShadingModel。
|
||||
4. 修改DeferredLightingCommon.ush,添加了阴影控制功能。
|
||||
5. 修改DeferredLightPixelShaders.usf,设定为LightChannel为2时,才会进行卡通渲染。
|
||||
6. 修改PostProcessCombineLUT.usf实现 NoToneMapping
|
||||
|
||||
#### 材质文档编写
|
||||
天气系统采用纯蓝图 + DataTable(Curve、Parameter)+ 材质制作。
|
||||
### 动捕 & 动画系统
|
||||
有一个名叫MotionProcessor的客户端负责收集各种动捕&面捕&手套信息。
|
||||
#### 动捕
|
||||
动捕系统用的是青瞳,为了解决因为动捕系统延迟抖动问题以及其他客户端获取数据需求。这里采用这个方案:
|
||||
- 在接收到原始诗句后,按照时间戳进行采样。(新开线程,接收120ms的数据)
|
||||
- 发送给一个c#编写的程序,进行数据广播。
|
||||
- 各个客户端在接收动捕数据后,还会根据时间戳再次采样(动画节点)
|
||||
- MotionProcessor中的角色与直播角色共用同一个动画蓝图,不同的逻辑与节点通过一个Bool变量进行区分。
|
||||
|
||||
除此之外还需要处理动捕道具的逻辑(一些道具黏上动捕反光点,可以与虚拟世界的道具同步位置)
|
||||
#### 面捕
|
||||
使用Unity + Arkit实现一个面捕App,主要为了实现:
|
||||
1. 突破52个BlendShape限制。
|
||||
2. 提高单个BlendShape的表现能力。举个例子:吐舌,演员表情被识别后,使用多个BlendShape插值拼合最终得到一个不错的效果。
|
||||
3. 限制一些NG表情。
|
||||
|
||||
可以看到这个节点可以添加一个DataAsset,里面的数据都是由中台的dcc工具根据maya工程中角色的BlendShape生成csv,再导入UE生成。
|
||||
#### ChaosBone
|
||||
使用CUDA编写的物理系统(整合了KawaiiPhysical、SPCR Joint Dynamics)
|
||||
主要用于模拟布料以及刚体(头发)
|
||||
主要解决了:
|
||||
- 效率问题
|
||||
- 布料穿模问题
|
||||
|
||||
### 除了解析之外我还做了哪些工作
|
||||
- 摸索出
|
||||
- 日常解决地编、动捕、建模、导播同学的问题。
|
||||
- 一些效果、道具制作。
|
||||
#### 乐华 实时演出 / 预录制演出切换 适配
|
||||
|
||||
难点:
|
||||
Bug修复:
|
||||
|
||||
#### 版本管理 & 协作
|
||||
解决:
|
||||
|
||||
#### 大型活动优化
|
||||
|
||||
【【A-SOUL】贝拉 2024.07.20 星之回响-贝拉生日演唱会【直播录像】】 https://www.bilibili.com/video/BV1TE421w7ae/?share_source=copy_web&vd_source=fe8142e8e12816535feaeabd6f6cdc8e
|
||||
|
||||
|
||||
|
||||
# 一些成果
|
||||
|
||||
|
Reference in New Issue
Block a user