jjzjj

AVFoundation

全部标签

ios - UIImages exported as movie 错误

问题我的AVAssetWriter在使用AVAssetWriterInputPixelBufferAdaptor向其附加5个左右的图像后失败了,我不知道为什么。详情这个热门问题对我有帮助,但不能满足我的需求:HowdoIexportUIImagearrayasamovie?一切都按计划进行,我什至延迟了assetWriterInput直到它可以处理更多媒体。但由于某种原因,它总是在5个左右的图像后失败。我使用的图像是从GIF中提取的帧代码这是我的迭代代码:-(void)writeImageData{__blockinti=0;videoQueue=dispatch_queue_crea

ios - 使用 AVMutableComposition 发布合并视频

我正在使用iOS设备录制短视频片段,然后尝试将多个片段合并为一个较大的视频。一切正常,除了在最终视频中,在每个剪辑片段之间它会闪烁第一个剪辑的第一帧。比如我要合并clip1,clip2,clip3。结果是(clip1)->(clip1的第一帧)->(clip2)->(clip1的第一帧)->(clip3)这是我用来合并它们的代码。AVMutableComposition*mainComposition=[[AVMutableCompositionalloc]init];AVMutableCompositionTrack*compositionVideoTrack=[mainCompos

ios - 未设置 AVAssetResourceLoader 委托(delegate)

我一直在尝试实现AVAssetResourceLoaderDelegate但到目前为止一直无法成功设置委托(delegate),导致我的委托(delegate)代码永远不会被调用。考虑一下:AVURLAsset*asset=[AVURLAssetURLAssetWithURL:urloptions:nil];[asset.resourceLoadersetDelegate:[[MyAssetResourceLoaderDelegateCodealloc]init]queue:queue];NSLog(@"Delegate:%@",asset.resourceLoader.delegat

ios - 使用 AVAssetReader 读取 HLS .ts 段

为了从HLS实时流中提取原始CMSampleBufferRef(用于重新编码视频),我尝试使用AVAssetReader来读取HLS流(.m3u8文件)。由于AVAssetReader不支持直接从网络流读取,我尝试先将HLSm3u8索引文件中列出的.ts文件下载到本地驱动器,然后使用AVAssetReader将其读回。但是,当我尝试使用AVAssetReader打开.ts文件时,出现错误“不支持此媒体格式”(ErrorDomain=AVFoundationErrorDomainCode=-11828“CannotOpen”UserInfo=0x7fd3aa723570{NSLocali

ios - AVFoundation 图像捕获 - 准确捕获用户在 UIImage 中看到的内容

我知道之前有人问过这个问题,我已经在这里尝试了这个问题的所有答案,我认为这其中有一些我不理解的基本问题,所以到目前为止我的努力没有结果。我希望有人能让我觉得自己是个白痴,因为我为此而苦苦挣扎,并为我指明正确的方向。我想做的就是用AVCaptureSession捕捉一个方形的UIImage并将其显示在缩略图View中,看起来与视频层中的区域完全相同。图像捕获工作正常,但是,当将图像添加到我的缩略图View时,图像的顶部和底部会展开以显示用户不可见的AvCaptureVideoPreviewLayer中的照片区域。以下代码初始化我的session,一切正常,但也许我需要在此处更改一些内容以

ios - 为什么 AVFoundation 中不存在 AVPlayerItemAudioOutput?

AVPlayerItemVideoOutput是AVFoundation中AVPlayerItemOutput的子类,我可以获取像素缓冲区格式的视觉数据并进行一些处理。(通过copyPixelBufferForItemTime:)但是,没有相应的AVPlayerItemAudioOutput存在。如何处理音频数据?我必须使用AVAssetReader类来获取它吗? 最佳答案 这是一个很好的问题。-[AVPlayerItemaddOutput:]提到了音频,但在AVPlayerItemOutput.h中找不到任何内容(除非您打算通过A

ios - AVCaptureSession 捕获视频时报错-11819

在我的应用程序中,我使用回调通过AVCaptureSession捕获视频:-(void)captureOutput:(AVCaptureOutput*)captureOutputdidOutputSampleBuffer:(CMSampleBufferRef)sampleBufferfromConnection:(AVCaptureConnection*)connection这在95%的时间里工作正常,但有时预览层会卡住并且我在Xcode控制台中收到以下错误:AVCaptureSessionErrorKey="ErrorDomain=AVFoundationErrorDomainCod

iOS 8——捕获屏幕视频

我正在尝试将我的应用程序的屏幕事件捕获为视频(我可以保存/上传到Youtube)。还有很多其他人想要这样做。虽然答案通常很少,但没有深入解释如何执行此操作或为什么不能执行此操作。有一个付费的(可能是粗略的?)选项here.有这个相关但又不完全清楚的关于截取大量屏幕截图的答案:link.有一个名为MadPadHD的Smule应用程序可以“记录”用户的操作并将它们拼接在一起(但它实际上并没有捕获屏幕,它只是将操作拼接在一起)。这是拼接的输出:link.我的问题如下:捕获屏幕的视频输出并将其转换为视频是否真的可能?如果不是,拍摄大量屏幕截图并将其制作成视频是否可行(性能方面)?如果1和2不成

iOS/AVFoundation : How to eliminate (occasional) blank frames between different videos within an AVComposition during playback

我正在开发的应用程序通过以连续的间隔多次将相同的AVAssetTrack(从原始视频url创建)添加到相同的AVComposition来循环播放视频指定的次数。该应用程序通过从组合的AVMutableCompositionTrack(对于AVMediaTypeVideo)中“删除”时间范围并将新剪辑的AVAssetTrack插入到先前删除的时间范围中,类似地将新视频剪辑插入到现有组合中。但是,在将如上所述的新剪辑插入原始循环视频的重复时间范围内后,偶尔且很少见,会产生空白帧,这些空白帧仅出现在视频循环的过渡点(在合成内),但仅在播放期间-视频可以正确无间隙地导出。这让我相信问题出在AV

ios - 如何更改前置摄像头的曝光?

经过反复试验,我发现iPhone6及以下机型的前置摄像头不支持点击对焦。但是有没有办法改变曝光?我试过下面的代码,但没有任何反应。后置摄像头用这种方法对焦很好,但是当我切换到前置摄像头时没有任何反应。(我使用的是定制相机)。如有任何帮助,我们将不胜感激!-(void)focusAtPoint:(CGPoint)point{AVCaptureDevice*device=[deviceInputdevice];NSArray*inputs=session.inputs;for(AVCaptureDeviceInput*INPUTininputs){AVCaptureDevice*Devic