请帮我结束痛苦!(关于网络上的图象传输) (200分)

  • 主题发起人 主题发起人 pyh_jerry
  • 开始时间 开始时间
有兴趣的同志看看这里:
图形传送 加 数据操作 混合的问题
http://www.delphibbs.com/delphibbs/dispq.asp?lid=846651
 
建议通过测试找出瓶颈
 
目前有一些数据,已经说明,拷屏是足够快的了,只是网络传输和压缩上都是影响速度的
地方。网速是无法改变的,也就是说,只能是通过更好的压缩或者是,分块拷屏等办法来
减少数据量,提高速度
 
又是压缩;
其实你用DELPHI自己的ZLib就可以。
可是为什么不考虑运动图象编码MPEG4呢?
用用新技术吧!

好像h.263还是属于第一代运动图象编码标准,如果没有记错的话,^_^
 
可是要实现实时的屏幕监控,如何用MPEG4呢,请千堆雪大虾明示。
必须及时把对方屏幕的情况传输过来。
大家不要拘泥于我的问题,请畅所欲言。
最好给出实时屏幕传输的更好的解决方法。而不是死盯在压缩上。
比如传输屏幕变化的部分。我试过了,传送整屏的话用UDP还不好NMStrm快,而且
可能的问题不少。我现在点对点用NMStrm+LZW在局域网可以达到每秒3-8帧.
 
h263不能说属于第几代,而是这个协议已经非常成熟和可靠了
mpeg4看过,是下一代的新标准,不过不一定什么地方和适用
而且现在这种标准之争谁是老大也很难说,不知道有人研究过jpeg2没有,压缩率和效果
让我眼都花了,不过,据说还有一个叫airzip的东西更牛。。。
 
Re一把 :

在制定MPEG-4标准之前,运动图像专家组已经制定了两个运动图像的编码标准,即MP
EG-1和MPEG-2,ITU也制定两个运动图像编码标准,即H.261和H.263。这四个运动图像编码
标准都是把视频序列按时间先后分为一系列的帧,每一帧图像又分成16×16的宏块来进行
运动补偿和编码。这种基于帧、块和像素的编码称为第一代视频编码方案,在编码过程中
不考虑图像的具体结构和内容,因而会产生以下主要问题:

· 将图像固定地分成相同大小的块,在高压缩比的情况下会产生严重的块效应;
· 不能对图像的内容进行查询、编辑和回放等操作;
· 没有利用人类视觉系统的特性。

MEPG-4编码是基于图像内容的第二代视频编码方案,并把基于合成的编码方案也结合
在标准之中。第二代视频编码是基于图像的内容进行编码,根据内容将图像分割成不同的
视频对象VO(Video Object)。例如在可视电话系统中经常将讲话的人作为前景视频对象
,将其余部分作为背景视频对象。前景视频对象由于包含有重要的边界和轮廓信息,而且
其纹理又是理解图像的重要附加信息,因而在编码过程中应尽可能地保留这部分信息,这
也是符合人类视觉系统的特点。在编码过程中前景对象和背景对象采用不同的编码策略
。前景对象的编码压缩尽可能保留视频对象的细节和平滑。对人们不太关心的背景视频
对象,可以采用大压缩比的编码策略,甚至可以不予传输,而是在解码端用其他的背景拼接
成新的背景。基于对象的视频编码不仅解决了在大压缩比编码中产生的块效应,而且能实
现很高的压缩比。采用这样的编码,能对视频对象的形状、大小和颜色等特征进行描述,
并把这些信息附加在编码的码流上,不用解码就能知道这段码流表示的是怎样的物体及其
特征。这种编码有利于实现互联网的图像检索、基于内容的图像数据库检索和交互式多
媒体通信等新功能。
 
还有一个办法。
换显卡!

差别巨大!主要是抓屏速度的差别。比如,TNT m64 换为 Getforce 400 至少提高30%以上的速度。
你要是更老的显卡,就别提了:(
 
谢谢大家,时间太长了,问题虽然还没解决但,给了我不少启示,谢谢[:)]
 
多人接受答案了。
 
ljp686:
我也想要一份源代码来研究研究,谢谢了。我得email是:dissipator_zzy@etang.com
 
ljp686:
大侠,可以借小弟一看啊?
我的happennt@pub.nt.jsinfo.net
谢谢啊!很急!
 
后退
顶部