AVCaptureVideoDataOutput
全部标签 目前,使用iPhone5s/6,我能够将120(iPhone5s)或240(iPhone6)帧/秒捕获到CMSampleBufferRef中。但是,返回给我的AVCaptureDeviceFormat仅提供这些高速帧速率,分辨率为1280x720。我想以较低的分辨率(640x480或更低)捕获它,因为我会将其放入循环缓冲区中以供存储。虽然我能够降低didOutputSampleBuffer委托(delegate)方法中的分辨率,但我想知道CMSampleBufferRef是否有任何方法可以通过配置设备或设置直接为我提供较低的分辨率,而不是拍摄720p图像并降低使用CVPixelBuff
我正在使用AVCaptureVideoDataOutput来捕捉相机视频。我想裁剪CMSampleBufferRef以使最终视频成为正方形。但我找不到解决方案来做到这一点。你有什么想法吗?请不要提供AVAssetExportSession。谢谢。 最佳答案 暂时,您可以尝试使用width和height设置字典,如下所示:NSDictionary*videoSettingsDictionary=@{(id)kCVPixelBufferWidthKey:@(width),(id)kCVPixelBufferHeightKey:@(hei
到目前为止,我已经介绍了相机将一个slider放在现在可以缩放相机的slider中,但现在我想放置另一个slider来增加和降低相机的亮度我已经搜索过这个并且我需要使用AVCaptureVideoDataOutput并拍摄单帧我可以使用委托(delegate)方法并处理它,然后用那个框架做你想做的事我在下面发布我的代码并解释其中的其他事情AVCaptureDevice*videoDevice=[AVCaptureDevicedefaultDeviceWithMediaType:AVMediaTypeVideo];//AVCaptureVideoDataOutputif(videoDev
我正在使用AVFoundation框架用iPhone摄像头捕捉视频,我的代码:self.session=[[AVCaptureSessionalloc]init];...self.output=[[AVCaptureVideoDataOutputalloc]init];[self.sessionaddOutput:self.output];在[sessionaddOutput]之前,一切顺利,内存限制在3M,但是在[sessionaddOutput]之后,内存使用每秒增加0.06M,经过一些分钟,App会因为内存警告而崩溃。AVCaptureVideoDataOutput似乎占用太多内
我尝试从AVCaptureVideoDataOutput和AVCaptureAudioDataOutput获取CMSampleBufferRef。AVCamRecorder.h#import@interfaceAVCamRecorder:NSObject{}@property(nonatomic,retain)AVCaptureVideoDataOutput*videoDataOutput;@property(nonatomic,retain)AVCaptureAudioDataOutput*audioDataOutput;@endAVCamRecorder.m#import"AVCa
我试图通过使用“AVFoundation”制作一个像藤蔓一样的视频应用程序。现在我可以通过AVCaptureVideoDataOutput保存视频并可以播放。但不知何故音频不工作,我不知道为什么。我是iOS应用程序的初学者,所以解释起来可能不清楚。希望您能理解我的意思并给我一些提示。这是我正在使用的代码。设置AVCaptureVideoDataOutput和AVCaptureAudioDataOutput:AVCaptureVideoDataOutput*videoDataOutput=[[AVCaptureVideoDataOutputalloc]init];[CaptureSess
iPhone:AVCaptureSessioncaptureoutputcrashing(AVCaptureVideoDataOutput)可能重复我创建了一个带有自定义摄像头的应用程序,用于视频录制。通过使用AVCaptureSession和AVCaptureVideoDataOutput,我得到了录制的视频文件。对于IOS6及更低版本,一切正常。但是当我在带有IOS7的设备上运行相同的应用程序时,应用程序在解除分配具有此问题的相机类时崩溃...thread#1:tid=0x7994,0x3b1eab26libobjc.A.dylib`objc_msgSend+6,stopreaso
我在使用AVCaptureVideoDataOutput和AVCaptureAudioDataOutput录制音频+视频时遇到延迟问题。有时视频会停顿几毫秒,有时音频与视频不同步。我插入了一些日志并观察到首先我在captureOutput回调中得到了很多视频缓冲区,一段时间后我得到了音频缓冲区(有时我根本没有收到音频缓冲区,并且生成的视频没有声音)。如果我注释处理视频缓冲区的代码,我将毫无问题地获得音频缓冲区。这是我正在使用的代码:-(void)initMovieOutput:(AVCaptureSession*)captureSessionLocal{AVCaptureVideoDa
我想知道是否可以通过单个相机设备输入将多个AVCaptureVideoDataOutput添加到AVCaptureSession?我的实验表明,添加第二个VideoDataOutput将导致canAddOutput返回NO。但是我在Apple的文档中找不到任何地方说不允许多数据输出。 最佳答案 我们不能对多个AVCaptureVideoDataOutput对象使用单个AVCaptureSession。您可以做的是使用多个AVCaptureSession对象制作多个AVCaptureVideoDataOutput。您可以创建两个不同的
我用前置摄像头录制了一段视频,输出是镜像的...我试过使用AVMutablecomposition和layerinstructions来翻转视频,但没有成功。谷歌搜索和搜索StackOverflow毫无结果,所以我敢打赌,一个简单、直接的例子可以让很多人受益。 最佳答案 没有迹象表明您正在使用什么来录制视频,我假设AVCaptureSession+AVCaptureVideoDataOutputlazyvarvideoFileOutput:AVCaptureVideoDataOutput=AVCaptureVideoDataOutp