jjzjj

AVCaptureDevice

全部标签

ios - 不能将 AVCaptureDevice 与闪光灯一起使用

我遇到了困难,因为一些我认为应该很简单的事情。我只想在我的iOS应用程序中拍照时点亮闪光灯。我尝试的所有方法都失败了,或者只成功了20%。下面是点亮闪光灯的代码://Herewehave:captureDevice.hasFlash&&captureDevice.isFlashModeSupported(.On)do{trycaptureDevice.lockForConfiguration()captureDevice.flashMode=.OncaptureDevice.unlockForConfiguration()}catchleterrorasNSError{print("c

ios - AVCaptureDevice 低光增强 swift

有谁知道如何为您的iOS相机应用程序设置弱光增强?这是我拥有的代码,但无法使其正常工作。letbackCamera=AVCaptureDevice.defaultDevice(withMediaType:AVMediaTypeVideo)do{trybackCamera?.lockForConfiguration()if(backCamera?.isLowLightBoostSupported==true){backCamera?.automaticallyEnablesLowLightBoostWhenAvailable=true}backCamera?.unlockForConfi

ios - 使用 AVCaptureVideo 在 Swift 中捕获 240 fps 的视频

我想在我的iPhone显示屏上看到240fps的视频预览。我的代码(简单)是这样的(如下):进行session,激活相机,并在显示屏上显示实际的视频预览。varsession:AVCaptureSession?varstillImageOutput:AVCaptureStillImageOutput?varvideoPreviewLayer:AVCaptureVideoPreviewLayer?overridefuncviewDidLoad(){super.viewDidLoad()super.viewWillAppear(true)session=AVCaptureSession()

ios - 是否可以创建一个继承自 AVCaptureDevice 的类?

我正在尝试像这样创建一个从AVCaptureDevice继承的类在MyClass.h文件中@interfaceMyClass:AVCaptureDevice但是如何在init方法中将AVCaptureDevice实例分配给“self”?这是我现在的方法(不起作用...)在MyClass.m文件中-(id)init{self=[superinit];if(self){NSArray*devices=[AVCaptureDevicedevicesWithMediaType:AVMediaTypeVideo];AVCaptureDevice*captureDevice=[devicesfir

ios - 我正在尝试切换此代码以使用前置摄像头

我是编程新手,正在尝试修复此代码以使用前置摄像头而不是默认设置为后置摄像头。我不确定我需要更改什么才能使其正常工作。这是我的示例代码:-(void)viewWillAppear:(BOOL)animated{session=[[AVCaptureSessionalloc]init];[sessionsetSessionPreset:AVCaptureSessionPresetPhoto];AVCaptureDevice*inputDevice=[AVCaptureDevicedefaultDeviceWithMediaType:AVMediaTypeVideo];NSError*err

ios - iOS 模拟器上的 AVAuthorizationStatusNotDetermined

[AVCaptureDeviceauthorizationStatusForMediaType:AVMediaTypeAudio]在iOS模拟器上总是返回AVAuthorizationStatusNotDetermined,即使尝试调用[AVCaptureDevicerequestAccessForMediaType:AVMediaTypeAudio...]导致立即授予权限(甚至没有权限对话框!)。我怎么知道我是否有麦克风权限? 最佳答案 虽然让事情在iOS模拟器上正常工作不是很重要,但可以先检查AVAudioSession.sha

iphone - AVCaptureStillImageOutput 的 UIImage 方向不正确

我正在尝试从AVCaptureStillImageOutput捕获像素数据,并注意到在将图像裁剪为CGImage后,它会重新定向。为了对此进行测试,我将临时图像输出到照片库。现在我注意到,即使在裁剪图像之前,它的缩略图也会旋转,而完整图像不会。(当我将UIImage传递到需要正确尺寸图像的自定义pixelDataManager时,这后来成为一个问题。)设置captureVideoPreviewLayer.orientation=AVCaptureVideoOrientationPortrait;和[videoConnectionsetVideoOrientation:AVCapture

ios - 相机设置逻辑 iOS

尽管我已经在AVCaptureConnection、AVCaptureSession、AVCaptureVideoPreviewLayer、AVCaptureDevice上多次搜索和阅读文档,AVCaptureInput/Output……我仍然对所有这些AV东西感到困惑。说到这里,对我来说就是一大堆抽象的词,没有多大意义。我想在这里为我阐明这个主题。那么,谁能用通俗易懂的英语连贯地解释正确设置和使用媒体设备的逻辑?什么是AVCaptureVideoPreviewLayer?什么是AVCaptureConnection?输入/输出?我想了解制作这些东西的人在制作时的基本想法。谢谢

ios - AVCaptureDevice videoZoomFactor 总是超出范围

我正在尝试通过以下代码设置相机的缩放级别:AVCaptureDevice*videoDevice=[AVCaptureDevicedefaultDeviceWithMediaType:AVMediaTypeVideo];if([videoDevicelockForConfiguration:nil]){floatnewzoom=1.3;videoDevice.videoZoomFactor=newzoom;[videoDeviceunlockForConfiguration];}此代码在ios7中不起作用(在ios9中有效),它总是导致异常:Terminatingappduetounc

ios 9 AVCaptureDevice 设置焦点

我正在尝试使用前置摄像头设置焦点。overridefunctouchesBegan(touches:Set,withEventevent:UIEvent?){letscreenSize=cameraView.bounds.sizeletframeSize:CGSize=view.frame.sizeiflettouchPoint=touches.first{varlocation:CGPoint=touchPoint.locationInView(cameraView)print("TapLocation:X:\(location.x),Y:\(location.y)")ifcamer