yx88
发表于 2010-4-20 17:36:41
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要 登录 才可以下载或查看,没有帐号?快速注册
x
视频会议的发展经历了一个从无到有、从不成熟到基本成熟的过程。在这个发展过程中,又相继出现了电视会议、桌面会议、多媒体会议等多种远程会议系统。视频会议系统发展的关键技术之一是视频编码。利用低比特率的视频编解码方案H.263 建议,可将视频图像最少压缩到大约20 kbps,以使其能在普通电话线上通过28.8 kbps 的V.34Modem 传送音频信号。事实上,在音视频编码协议不断改进与发展的同时,视频会议本身的协议也实现了更新换代,目前已出现了基于分组交换网的H.323 建议。视频会议向高性能、多功能、协同性、智能化和集成化方向发展的另一个关键技术是多画面合成技术。1 U, z( J, C6 e0 A
由于传统采用RGB 格式存储数据流以用于多画面合成的方法十分浪费资源。因此,为了在有限的频带条件下最大限度地提高资源利用率,本文提出了一种在不影响画面质量的同时解决其资源利用问题的新方案。事实上。视频会议多画面软件已经应用到生活的诸多领域。而且将会有更广泛地使用。. n3 d; v- F+ O5 p& w
& @ x* S/ P/ ?! ~$ T' l8 @4 w1 数据流的捕获. j; O' R! L* j+ k) _
+ K) l3 w L2 g G, Y" xWindows 下捕获数据包的结构如图l 所示,其中NDIS 的NDIS (Network Driver InteRFace Specification)是Microsoft 和3Com 公司联合制定的网络驱动规范,该规范提供有大量的操作函数。它可为上层的协议驱动提供服务,从而屏蔽了下层各种网卡的差别。NDIS 向上可支持多种网络协议,例如TCP/IP、NWLink IPX/SPX、NETBEUI 等,向下则可支持不同厂家生产的多种网卡。
! E- A: t o8 U3 Q+ o4 I" c9 _/ g
5 O' O% d8 G( ~5 V2 |% c3 x1 y; Z
* `/ t. I' q7 Y3 V% R6 p. o6 K6 K; V5 L
利用 winpcap 进行网络数据包的捕获和过滤的设计步骤如下:! W8 ^0 Y, M, w
4 Y+ |4 p; I7 Q- y(1)打开网卡,设置网卡为混杂模式;
, d2 A/ u- @2 Q
( O; Z) |+ I; l/ U& s; k(2)回调函数Network Tap,得到监听命令后从网络设备驱动程序处收集数据包,并把监听到的数据包传送给过滤程序;
: f4 J) F2 t% ?, ^8 R/ r2 Q; ^
1 x2 R6 m* w, @; k% J( o5 P( N4 I(3)当Packet filter 监听到数据包到达时,NDIS 中间驱动程序调用分组驱动程序,该程序可将数据传递给每一个参与进程的分组过滤程序;
1 ] O. |2 u N* U ] X% K* x, @ ? i( o" u1 H5 n
(4)由Packet filter过滤程序决定丢弃或接收数据包,并将接收的数据拷贝到相应的程序;" g9 J9 H& d4 M& s# b: i2 [
: G$ R$ y9 V5 |' Q* J1 q2 b4 L! P" a(5)通过分组过滤器后,再将未过滤掉的数据包提交给核心缓冲区,当系统缓冲区满后,再将数据包拷贝到用户缓冲区。监听程序可以直接从用户缓冲区中读取捕获的数据包;" t2 s8 E0 |" v
/ W& E4 u( {6 |5 J" H. \+ S* x
(6)关闭网卡。* [2 \7 P* D) ?! k5 Z5 X* N
9 `) Z6 Q2 p/ H. O. M- R$ c2 视频数据流的解码6 [3 r7 E" ]6 e* n3 W7 P- l
0 e( x1 ^6 _7 V7 l% u; X; @- V+ m捕获到的视频数据流。通常在网络传输中都采用H.263视频编码建议,其图像格式为CIF格式。H.263-CIF格式的数据流是一种压缩编码图像格式,这种格式在网络传输过程中可节省频带资源,可在有限的带宽下最大限度地提高资源利用率。但是,CIF格式必须经过处理才能应用于多画面合成。只有通过解码使捕获到的视频数据流变成YUV(RGB)格式后,此图像格式才可直接运用于多画面合成,而且此格式的图像合成也比较方便、快捷。为了使图像由 H.263格式转变为YUV(RGB)格式,应运用H.263解码器进行解码。其编解码算法的概要图如图2所示。
! P6 @# v$ u; }. G' G' A& w- i& N3 c2 @
8 R6 s0 @7 B6 A5 N8 F1 ~# Y* C: q4 q% u+ p9 `1 R/ S
3 多画面合成
3 v4 Y6 b9 Z- {1 Q6 q0 ?1 N+ r) m$ ]0 H
视频数据流经过解码之后,可将其变成YUV(RGB)格式。下一环节即是视频数据流的合成(多画面合成),这也是本文的关键技术。在视频会议系统中,参加会议的与会者或许不只两、三个,所有与会者可能分布全国乃至世界各地。为了使每个与会者都能进行面对面的直接交流,就需要在同一时间看到所有的与会者,因此,多画面合成技术必不可少。通过多画面合成能使N个不同的视频画面实时地在同一台显示器上显示,这样,每一位与会者就都可以运用该软件看到其他成员。" q/ b2 B; x4 J/ o( i, O
% x3 W, q% }0 ?2 j3 e& a2 K
YUV主要的采样格式有YCbCr4:2:O、YCbCr4:2:2、YCbCr4:1:1和YCbCr4:4.:4。其中YCbCr4:1:1比较常用,其含义是每个点保存一个8 bit的亮度值(也就是Y值),每2x2个点保存一个Cr和Cb值,这样,图像在人的视觉中不会起太大的变化。RGB (R,G,B都是8 bit unsigned)模型的4个点需要8×3=24 bits,而现在仅需要8+(8/4)+(8/4)=12 bits,平均每个点占12 bits。这样就把图像的数据压缩至一半。YUV411为每个像素都提取Y分量,UV分量在水平方向上每4个像素采样一次。YUV420并非V分量采样为 0,而只是跟YUV411相比,在水平方向上提高了一倍的色差采样频率,并在垂直方向上以U/V间隔的方式减小了一半色差采样。3 [. {6 L9 ~9 Z7 u* Y# V5 }' G( s
4 w, h# l" W4 W+ `" J9 ~9 ~, ^% I4 G# e# F6 z3 o2 v: m
|
|
|
|
|