jjzjj

fromConnection

全部标签

iphone - 捕获输出 :didOutputSampleBuffer:fromConnection Performance Issues

我使用AVCaptureSessionPhoto允许用户拍摄高分辨率照片。拍照后,我使用captureOutput:didOutputSampleBuffer:fromConnection:方法在拍摄时检索缩略图。然而,虽然我尝试在委托(delegate)方法中做最少的工作,但该应用程序变得有点迟钝(我说有点迟钝是因为它仍然可用)。此外,iPhone往往会发烫。有什么方法可以减少iPhone必须完成的工作量吗?我通过执行以下操作设置AVCaptureVideoDataOutput:self.videoDataOutput=[[AVCaptureVideoDataOutputalloc]

iOS:未调用 captureOutput:didOutputSampleBuffer:fromConnection

我想从AVCaptureSession的实时馈送中提取帧,我正在使用Apple的AVCam作为测试用例。这是AVCam的链接:https://developer.apple.com/library/ios/samplecode/AVCam/Introduction/Intro.html我发现captureOutput:didOutputSampleBuffer:fromConnection没有被调用,我想知道为什么或我做错了什么。这是我所做的:(1)我让AVCamViewController成为委托(delegate)@interfaceAVCamViewController()(2)

ios - 使用 captureOutput :captureOutput didOutputSampleBuffer:sampleBuffer fromConnection:connection 捕获视频并显示图像

我试图更好地理解AVFoundation框架以及各种Corexxxx框架,因此我决定尝试一个简单的视频捕获,看看是否可以将图像输出到UI。我查看了rosyWriter代码和文档,但没有答案。所以:我有标准的捕获session代码来添加输入和输出。以下内容与问题相关://movingthebufferprocessingoffthemainqueuedispatch_queue_tbufferProcessingQueue=dispatch_queue_create("theBufferQueue",NULL);[self.theOutputsetSampleBufferDelegate