jjzjj

c++ - 如何调试丢包?

我编写了一个C++应用程序(在Linux上运行),它提供大约400kbps的RTP流。对于大多数目的地来说,这工作正常,但有些目的地会出现数据包丢失的情况。有问题的目的地似乎有一个共同的较慢的连接,但对于我发送的流来说它应该足够快。由于这些目的地能够接收其他应用程序的类似RTP流而不会丢失数据包,因此我的应用程序可能有问题。我已经验证了一些事情:-在tcpdump中,我看到所有RTP数据包都在发送机器上-有一个UDP发送缓冲区(我尝试了64KB到300KB之间的大小)-RTP数据包大部分保持在1400字节以下以避免碎片发送应用程序可以做什么来最大程度地减少数据包丢失的可能性以及调试这种

c++ - 如何调试丢包?

我编写了一个C++应用程序(在Linux上运行),它提供大约400kbps的RTP流。对于大多数目的地来说,这工作正常,但有些目的地会出现数据包丢失的情况。有问题的目的地似乎有一个共同的较慢的连接,但对于我发送的流来说它应该足够快。由于这些目的地能够接收其他应用程序的类似RTP流而不会丢失数据包,因此我的应用程序可能有问题。我已经验证了一些事情:-在tcpdump中,我看到所有RTP数据包都在发送机器上-有一个UDP发送缓冲区(我尝试了64KB到300KB之间的大小)-RTP数据包大部分保持在1400字节以下以避免碎片发送应用程序可以做什么来最大程度地减少数据包丢失的可能性以及调试这种

linux - 使用 avconv 通过无线接入点将实时音频从在线 (alsa hw :0, 0) 流式传输到客户端。

我在我的Miniand的Hackberry(https://www.miniand.com/products/Hackberry%20A10%20Developer%20Board)上安装了linaro12.06。我在hackberry上有无线接入点,ssid为HACK我在朴树上使用这个命令:avconv-falsa-ac1-ihw:0,0-acodecmp2-b64k-frtprtp://10.0.0.1:1234因此,我使用笔记本电脑连接到朴树“HACK”,然后打开终端并输入avplay-irtp://10.0.0.1:1234我没有收到任何音频信号。你知道我做错了什么吗?在朴树上

linux - 使用 avconv 通过无线接入点将实时音频从在线 (alsa hw :0, 0) 流式传输到客户端。

我在我的Miniand的Hackberry(https://www.miniand.com/products/Hackberry%20A10%20Developer%20Board)上安装了linaro12.06。我在hackberry上有无线接入点,ssid为HACK我在朴树上使用这个命令:avconv-falsa-ac1-ihw:0,0-acodecmp2-b64k-frtprtp://10.0.0.1:1234因此,我使用笔记本电脑连接到朴树“HACK”,然后打开终端并输入avplay-irtp://10.0.0.1:1234我没有收到任何音频信号。你知道我做错了什么吗?在朴树上

android - 使用 RTP 从 Android 到 PC 的相机流式传输

我想为Android编写一个应用程序,用于将相机流式传输到PC(H.263、MPEG_4)。我找到了一些库:sipandroid、jlibrtp。SIP安卓:RTP数据包是流式传输的(wireshark可以很好地在PC上捕获它),但VLC无法播放。Jlibrtp:API有问题,使用VLC无法正确播放流。可能对这些库进行了一些调整(使其适用于相机流),或者还有其他一些具有干净API和示例的库?感谢您的回答。 最佳答案 VLChasbuilt-insupportforRTP,正如@Lukas所说,网络接口(interface)可能是VL

android - 使用 RTP 从 Android 到 PC 的相机流式传输

我想为Android编写一个应用程序,用于将相机流式传输到PC(H.263、MPEG_4)。我找到了一些库:sipandroid、jlibrtp。SIP安卓:RTP数据包是流式传输的(wireshark可以很好地在PC上捕获它),但VLC无法播放。Jlibrtp:API有问题,使用VLC无法正确播放流。可能对这些库进行了一些调整(使其适用于相机流),或者还有其他一些具有干净API和示例的库?感谢您的回答。 最佳答案 VLChasbuilt-insupportforRTP,正如@Lukas所说,网络接口(interface)可能是VL

android - 从 Android 相机创建 RTP 数据包以发送

我是Android和套接字编程的新手。我想创建一个将视频从设备摄像头实时传输到PC的android应用程序。我首先要做的是从PreviewCallback参数中获取原始视频数据并将其转换为RTP数据包。我只是使用JLibRTP来做到这一点。关于传输数据包,我认为有一些相关的类:RtpPkt、RtpSession和RtpSocket。这是我的浏览代码:DatagramSocketrtpSocket=newDatagramSocket();DatagramSocketrtcpSocket=newnewDatagramSocket();RtpSessionrtpSession=newRtpS

android - 从 Android 相机创建 RTP 数据包以发送

我是Android和套接字编程的新手。我想创建一个将视频从设备摄像头实时传输到PC的android应用程序。我首先要做的是从PreviewCallback参数中获取原始视频数据并将其转换为RTP数据包。我只是使用JLibRTP来做到这一点。关于传输数据包,我认为有一些相关的类:RtpPkt、RtpSession和RtpSocket。这是我的浏览代码:DatagramSocketrtpSocket=newDatagramSocket();DatagramSocketrtcpSocket=newnewDatagramSocket();RtpSessionrtpSession=newRtpS

android - 将实时安卓网络摄像头视频上传到 RTP/RTSP 服务器

我已经进行了适当的研究,但仍然缺乏关于我想要实现的目标的信息。所以我想编写一个应用程序,用户可以在其中录制视频并立即(实时)将视频上传到RTP/RTSP服务器。服务器端不会有问题。我不清楚的是如何在手机端实现这一点。到目前为止,我的研究是我必须将录制时的视频写入本地套接字而不是文件,因为如果写入文件,则无法访问3gp文件,直到最终确定(当视频停止并且有关长度和其他内容的标题信息已写入视频。当socket接收到连续的数据后,我需要将其包装成一个RTP数据包发送给远程服务器。我可能还必须先进行基本编码(这还不是很重要)。有没有人知道这个理论到目前为止是否正确。我还想知道是否有人可以向我指出

android - 将实时安卓网络摄像头视频上传到 RTP/RTSP 服务器

我已经进行了适当的研究,但仍然缺乏关于我想要实现的目标的信息。所以我想编写一个应用程序,用户可以在其中录制视频并立即(实时)将视频上传到RTP/RTSP服务器。服务器端不会有问题。我不清楚的是如何在手机端实现这一点。到目前为止,我的研究是我必须将录制时的视频写入本地套接字而不是文件,因为如果写入文件,则无法访问3gp文件,直到最终确定(当视频停止并且有关长度和其他内容的标题信息已写入视频。当socket接收到连续的数据后,我需要将其包装成一个RTP数据包发送给远程服务器。我可能还必须先进行基本编码(这还不是很重要)。有没有人知道这个理论到目前为止是否正确。我还想知道是否有人可以向我指出