jjzjj

javascript - Web 音频 API 分析器节点无法使用麦克风输入

根据http://code.google.com/p/chromium/issues/detail?id=112367阻止获取麦克风输入的错误ChromeCanary的问题现已修复。这部分似乎确实有效。我可以将麦克风输入分配给音频元素并通过扬声器听到结果。但我想连接一个分析器节点以进行FFT。如果我将音频源设置为本地文件,分析器节点工作正常。问题是当连接到麦克风音频流时,分析器节点只返回基值,就好像它根本没有音频流一样。(如果你好奇的话,它一遍又一遍地是-100。)有人知道怎么回事吗?还没有实现吗?这是一个chrome错误吗?我在Windows7上运行26.0.1377.0并启用了ge

javascript - Chrome : navigator. mediaDevices.getUserMedia 不是函数

我在本地主机上并尝试在Chrome中使用MediaDevices.getUserMedia方法。我收到标题中的错误。我知道在Chrome中,只能将此功能与安全来源一起使用,并且localhost被认为是安全来源。此外,这适用于Firefox。这就是我在GoogleDevelopers网站上显示的使用方式https://developers.google.com/web/updates/2015/10/media-devices?hl=en:varconstraints=window.constraints={audio:false,video:true};navigator.media

javascript - 我可以使用 WebRTC 打开 UDP 连接吗?

我们需要使用TFTP协议(protocol)将数据发送到用户的设备,这是一种在UDP上运行的类似FTP的简单协议(protocol)。由于我们无法使用javascript打开UDP套接字,我们一直使用我们的服务器作为代理,将数据发送到我们的服务器并打开从服务器到设备的UDP连接。这样做的缺点是我们的用户需要了解NAT并配置端口转发。那么问题来了,我们能否使用WebRTC打开一个直接的UDP套接字,在浏览器和设备之间发送和接收?http://www.webrtc.org/reference/webrtc-internals/vienetwork#TOC-SendUDPPacket建议我们

javascript - 是否有 chrome ://webrtc-internals/variables in javascript? 的 API

我想访问chrome://webrtc-internals/中的一些记录变量,但我在谷歌上没有找到任何东西——甚至连图表的描述都没有可以看到。我对packetsLost、googCurrentDelayMs和googNacksSent特别感兴趣。为什么我要访问webrtc-internals我正在编写一个共享视频流(p2p)的googlechrome应用程序。它使用peerjs与其他同行共享流,这反过来又在底层使用谷歌的webrtc实现。为了使我的应用程序完美,我需要知道什么时候会发生大的延迟。因为我可以在chrome://webrtc-internals/中看到记录的延迟,所以我想知

javascript - 如何在 WebRTC 对等连接中创建数据通道?

我正在尝试学习如何创建RTCPeerConnection以便我可以使用DataChannelAPI。根据我的理解,这是我尝试过的:varclient=newmozRTCPeerConnection;varserver=newmozRTCPeerConnection;client.createOffer(function(description){client.setLocalDescription(description);server.setRemoteDescription(description);server.createAnswer(function(description)

javascript - 无法在 webrtc 中添加远程 ice candidate

我正在尝试建立一个p2p音频/视频连接b/w2对等点。节点P1向节点P2发送报价。在获得报价时,P2确实-{pc=newRTCPeerConnection(ice);pc.setRemoteDescription(newRTCSessionDescription(msg.offer),onSetRemoteDescriptionSuccess,onSetSessionDescriptionError);functiononSetRemoteDescriptionSuccess(){console.log('onSetRemoteDescriptionSuccesscalled');}f

javascript - WebRTC:强制对等方使用 TURN 服务器

我有一个webrtc应用程序,它工作正常,但是为了测试目的,我需要测试我的TURN服务器是否工作,但是因为两个测试设备都在同一个网络中,我无法测试,认为下面的代码会将候选人限制为仅使用TURN服务器的候选人,functiononIceCandidate(event,targetSessionID,targetUserName){if(event.candidate){varcandidate=event.candidate.candidate;if(candidate.indexOf("relay")但我注意到(非常沮丧),这是行不通的,因为当同行正在创建答案描述时,....a=can

javascript - PeerJS/WebRTC 连接在快速 block 传输时失败

我正在使用PeerJS,但认为这个问题一般与WebRTC有关,希望您能帮助我:我正在尝试编写一个简单的点对点文件共享。我正在为PeerJS连接DataChannel使用serialisation:"none",因为我只发送纯ArrayBuffers.文件大小约为10mb,但我在发送更大的文件(30+mb)时遇到问题,例如在发送大约10-20个900mbzip文件的第一个block后,对等方之间的连接开始抛出Connectionisnotopen。您应该在发送消息之前监听“打开”事件。(在Sender端)我的设置:文件被拖放,Sender使用FileReader以64x1024字节的bl

javascript - 有人可以全面解释 WebRTC 统计 API 吗?

我正在完成视频通信研究生类(class)的WebRTC项目,它本质上是一个视频session聊天室。连接到服务器的每个人都被添加到session中。我需要使用WebRTC中的统计API来显示每个RTCPeerConnection的一些相关性能统计信息(每秒丢失的数据包、抖动、重传等)。这有助于观察性能成本,因为更多的对等方被添加到对话中。然而,API似乎还没有完全充实。它显然经过了一些更新,并且与我见过的一些W3C规范不太匹配(尽管它可能已经过时或者我只是不理解阅读规范的细微差别,但我都不会感到惊讶)。我对API的调用是similartothisone,但解释数据并不简单。例如,当循环

javascript - WebRTC - 如何使本地音频输出静音

我试图在WebRTC中仅将本地音频播放静音,更具体地说是在getUserMedia()之后和建立任何服务器连接之前。我找到的所有选项都不起作用;MuazKhan的这个失败了:varaudioTracks=localMediaStream.getAudioTracks();//ifMediaStreamhasreferencetomicrophoneif(audioTracks[0]){audioTracks[0].enabled=false;}source这个技巧也是describedhere作为“工作”,但在Chrome版本39.0.2171.95(64位)(Ubuntu14.04)