配置摄像头Video Proc Amp、Camera Control方法
2025-08-04 03:57:29webrtc QOS方法八(JitterBuffer)
脸子姐:
一帧视频的预期渲染时间是发送端发送时间+网络延时时间+解码时间+渲染模块耗时时间。这里应该也不对,一帧视频的预期渲染时间应该 = ExtrapolateLocalTime(该帧的预计本地接收时间) + 抖动延时 + 解码延时+渲染模块延时。
webrtc QOS方法八(JitterBuffer)
脸子姐:
1)发送端发送时间计算函数
TimestampExtrapolator::ExtrapolateLocalTime
这里应该并不是发送端发送时间,这个应该是接受端在接收该帧时通过该帧的时间戳计算出来的接受端的本地接收该帧的时间,和实际本地接收该帧的now_ms不同,这个类统计了所有帧的时间戳和每一帧的接收时间now_ms经过卡尔曼滤波之后拟合出一个线性关系,根据拟合出来的线性关系的斜率和起始点,再结合该帧的时间戳可以预估该帧的本地接收时间,具体怎么拟合的看void TimestampExtrapolator::Update(int64_t tMs, uint32_t ts90khz)这个方法里面的实现。这个时间点很关键,通过这个时间点在加上抖动延时解码延时渲染延时,就能得到该帧的渲染时间,通过渲染时间以及操作该帧的当ca前时间就能计算出该帧送解码前还要等待多长时间。这样才能真正理解jitterbuffer为什么能起到去抖的作用。
编码基础一:侵入式链表
Thinking_Spark:
6,我喜欢
WebRTC QoS方法四.4(Transport-wide Congestion Control协议笔记)
CSDN-Ada助手:
哇, 你的文章质量真不错,值得学习!不过这么高质量的文章, 还值得进一步提升, 以下的改进点你可以参考下: (1)提升标题与正文的相关性。
webrtc QOS方法十一(音视频同步AVSyn实现)
shengutong9765:
为什么这个音频目标延迟 这个日志打印不出来呀
nba世界杯