AVCaptureVideoPreviewLayer
全部标签 我正在尝试在我的应用程序中显示自定义摄像头View的视频预览,但目前预览非常偏离中心-使用前置摄像头时尤其明显。我是这样定位的:ifletpreviewLayer=AVCaptureVideoPreviewLayer(session:captureSession){previewLayer.bounds=scanningView.boundspreviewLayer.position=CGPointMake(CGRectGetMidX(scanningView.bounds),CGRectGetMidY(scanningView.bounds))previewLayer.videoGr
我使用AVCaptureVideoPreviewLayer来显示预览视频层、来自该预览的样本图像并对其进行一些处理。该处理识别图像上的一些点并将它们返回。我想(几乎)实时地在预览层上显示这些点。我在转换这些点时遇到了一些麻烦,尤其是在方向之间切换时。这是我安装预览层的方式:self.previewLayer=[[AVCaptureVideoPreviewLayeralloc]initWithSession:self.captureSession];self.previewLayer.videoGravity=AVLayerVideoGravityResizeAspectFill;这就是
尽管我已经在AVCaptureConnection、AVCaptureSession、AVCaptureVideoPreviewLayer、AVCaptureDevice上多次搜索和阅读文档,AVCaptureInput/Output……我仍然对所有这些AV东西感到困惑。说到这里,对我来说就是一大堆抽象的词,没有多大意义。我想在这里为我阐明这个主题。那么,谁能用通俗易懂的英语连贯地解释正确设置和使用媒体设备的逻辑?什么是AVCaptureVideoPreviewLayer?什么是AVCaptureConnection?输入/输出?我想了解制作这些东西的人在制作时的基本想法。谢谢
我从同一个AVCaptureSession创建了三个AVCaptureVideoPreviewLayers并将它们添加到View层但是发生的是我创建的最后一个出现我想要所有的出现,怎么办?!! 最佳答案 我认为这不可能以简单的方式实现。您可以使用这个GPUImage库,但它的工作方式与AVFoundation不同。您可以在那里创建多个GPUImageView,它们应该实时显示捕获session中的图像。请记住,这可能会降低性能。 关于ios-从同一个AVCaptureSession创建多
我在使用AVCapture时遇到问题。背景故事:我为我的iPad应用制作了一个新的Storyboard,我复制了iPhoneStoryboard,并通过在需要的地方添加.iPad来更改新Storyboard的源代码。目前,我的应用仅使用纵向模式。然而,AVCapture(我用它来显示摄像机的实时画面)只填充了屏幕的一部分,外面有黑条。我还注意到它在3.5"屏幕iPhone上执行此操作。我会按要求添加代码。请让所有说明都super容易理解,这是我的第一个应用程序,我是新手。谢谢!!分支机构编辑:我尝试了Apple文档中的这段代码,但没有成功:AVCaptureSession*captur
我正在使用AVFoundation处理来自摄像机(iPhone4s、iOS6.1.2)的帧。我正在根据AVFoundation编程指南设置AVCaptureSession、AVCaptureDeviceInput、AVCaptureVideoDataOutput。一切都按预期工作,我能够在captureOutput:didOutputSampleBuffer:fromConnection:委托(delegate)中接收帧。我也有一个像这样设置的预览层:AVCaptureVideoPreviewLayer*videoPreviewLayer=[[AVCaptureVideoPreview
我编写了一个静态框架,其中有一个名为ViewfinderViewController的类,它使用AVCaptureSession设置相机。这个ViewController还添加了一个AVCaptureVideoPreviewLayer作为它自己View层的子层://codeinViewfinderViewController.mpreviewLayer=[[AVCaptureVideoPreviewLayeralloc]initWithSession:captureSession];previewLayer.frame=self.view.bounds;previewLayer.vid
我正在使用AVCaptureVideoPreviewLayer来允许用户从iPhone相机拍摄照片。所以我有一个AVCaptureSession,输入为AVCaptureDeviceInput,输出为AVCaptureStillImageOutput。我在视频源上也有动画和控件,但这些很慢而且不稳定,因为后面的视频以最大帧速率运行并占用CPU/GPU。我想限制AVCaptureVideoPreviewLayer的帧率。我看到AVCaptureVideoDataOutput上有minFrameDuration属性,但我在AVCaptureVideoPreviewLayer上找不到任何类似
所以,我正在尝试使用AVFoundation实现一个相机。我想我做的一切都是对的。这就是我正在做的创建session获取视频类型的设备遍历设备以获取背面的摄像头使用#3中提到的设备获取设备输入并将其添加到session中创建类型为AVCaptureStillImageOutput的输出设置输出设置并将其添加到session从我的View2中获取一个CALayer(下面将解释我所说的View2的含义)创建一个AVCaptureVideoPreviewLayer实例将其添加到#7中提到的图层开始运行session所以我有2个观点。上面的是View1,下面的是View2。View1应该提供自
我有一个AVCaptureVideoPreviewLayer(可以很好地全屏显示视频),我试图在另一个我添加为subview的小View中显示一个小预览。为此,我尝试使用renderInContext,但我得到的只是“预览View”中的黑屏。[[self.captureView.layer.sublayersobjectAtIndex:0]renderInContext:context];任何其他层似乎工作正常并显示在我的“预览View”中,为什么AVCaptureVideoPreviewLayer没有? 最佳答案 AVCaptur