jjzjj

AVCaptureDevice

全部标签

ios - 为什么 autoFocusRangeRestriction 没有效果?

您可以通过以下方式告诉iPhone相机对焦于近处或远处的物体:try!device.lockForConfiguration()defer{device.unlockForConfiguration()}device.autoFocusRangeRestriction=.near但是无论我将其设置为近、远还是不设置都没有任何区别。我在两部不同的手机(iPhoneXS和X)上进行了测试,然后将它交给了两位不同的同事进行测试,以防我做错了什么。我们在白天和黑夜测试了画面的一部分近而其余部分远的场景。我们预计,将范围限制设置为近处会导致近处的部分成为焦点,远处的部分也是如此。但它永远行不通。

ios - init() 在 Swift 4 的 AVCaptureDeviceInput 中不可用

我的应用程序中有一个像Snapchat一样显示后置摄像头的ViewController,它在Swift3中运行良好,但是当我更新到Swift4时,编译器不允许我运行它,因为出现以下错误:init()isunavailableforAVCaptureDeviceInput这个ViewController应该像Snapchat一样显示没有任何按钮或额外东西的相机。所以,这里是完整的ViewController代码:importUIKitimportAVFoundationclasscameraViewController:UIViewController,UIImagePickerCont

ios - 如何使用 `AVFoundation` 检测相机是否存在?

现在iOS设备有0~2个摄像头。如何检测它们? 最佳答案 您遍历视频设备...NSArray*videoDevices=[AVCaptureDevicedevicesWithMediaType:AVMediaTypeVideo];AVCaptureDevice*captureDevice=nil;for(AVCaptureDevice*deviceinvideoDevices){if(device.position==AVCaptureDevicePositionFront){//FRONT-FACINGCAMERAEXISTS}}

ios - AVCaptureDevice.requestAccess() 崩溃

我使用Swift3.0和Xcode8Beta2创建了一个iOS单View应用程序。我正在链接AVFoundation.framework。这是我的ViewController代码:importUIKitimportAVFoundationclassViewController:UIViewController{overridefuncviewDidLoad(){super.viewDidLoad()ifAVCaptureDevice.authorizationStatus(forMediaType:AVMediaTypeVideo)==.notDetermined{AVCaptureD

ios - 如何知道iOS相机没有对焦没有调整

我们正在制作一个需要显示以下状态之一的应用:专注,聚焦(调整),不专心。似乎当你四处移动相机时,相机不会尝试调整,直到你停止移动。那么如何识别这种状态呢? 最佳答案 您可以使用AVCaptureDevice的adjustingFocus属性来完成您提到的内容。可以找到更多关于相同的信息here. 关于ios-如何知道iOS相机没有对焦没有调整,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/quest

ios - AVCaptureDevice 的 isLowLightBoostSupported 在 5S iOS 7.1 上始终返回 false(用于自动启用 LowLightBoost WhenAvailable)

我试图在iOS相机应用程序中启用AVCaptureDevice的automaticallyEnablesLowLightBoostWhenAvailable,但我完全无法使AVCaptureDevice的isLowLightBoostSupported返回true。问题:除了锁定配置之外,是否需要执行任何操作才能启用弱光增强API?是否有任何已知原因导致isL​​owLightBoostSupported在完全更新的现代系统上始终返回false(对于所有设备)?我正在iOS7.1的5S上进行测试。为了这个问题的简单起见,我将更改移植到Apple的AVCam测试应用程序中。AVCam中的

iphone - 录制视频时更改相机捕获设备

我正在开发一个iPhone应用程序。在那里,需要暂停和恢复相机。所以我为此使用了AVFoundation而不是使用UIImagePickerController。我的代码是:-(void)startup:(BOOL)isFrontCamera{if(_session==nil){NSLog(@"Startingupserver");self.isCapturing=NO;self.isPaused=NO;_currentFile=0;_discont=NO;//createcapturedevicewithvideoinput_session=[[AVCaptureSessionall

ios - AVCaptureSession 旋转 |视频传输时的方向

我正在开发视频流应用程序,其中我需要捕获前置摄像头视频帧并编码然后传输到另一端,典型的流程是这样的AVCaptureSession->AVCaptureDeviceInput->AVCaptureVideoDataOutput->捕获帧-->编码帧-->发送帧到另一端,它工作正常,我已经将kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange设置为帧格式。还有预览层用于显示预览,当设备方向发生变化时,问题就来了,如果设备从纵向移动到横向,然后在另一端帧旋转90,我期待因为预览层支持方向所以我会自动接收旋转缓冲区Capture回调,但看起来,预览层

ios - Objective-C AVCaptureDevice 前置摄像头

我遵循了一个教程,该教程指导如何制作自定义但简单的相机应用程序,几乎完全符合我想要的使用需求。实际上,我有两个问题需要更改,但我现在将专注于第一个问题。下面的代码允许使用后置摄像头,但我基本上需要更改它以便我可以使用前置摄像头。我还将在此处链接我从中获取的视频,以表彰他们,并且我遵循了其中一位评论者所说的关于使用前置摄像头的内容,但答案根本没有帮助。https://www.youtube.com/watch?v=Xv1FfqVy-KM我根本不擅长编码,但正在努力学习。任何帮助,将不胜感激!非常感谢。@interfaceViewController()@end@implementatio

iOS:未调用 captureOutput:didOutputSampleBuffer:fromConnection

我想从AVCaptureSession的实时馈送中提取帧,我正在使用Apple的AVCam作为测试用例。这是AVCam的链接:https://developer.apple.com/library/ios/samplecode/AVCam/Introduction/Intro.html我发现captureOutput:didOutputSampleBuffer:fromConnection没有被调用,我想知道为什么或我做错了什么。这是我所做的:(1)我让AVCamViewController成为委托(delegate)@interfaceAVCamViewController()(2)