jjzjj

Avdepthdata

全部标签

ios - 来自 AVDepthData 的深度图不同于 Photoshop 中的 HEIC 文件深度数据

我正在使用以下代码提取深度图(按照Apple自己的示例):-(nullableAVDepthData*)depthDataFromImageData:(nonnullNSData*)imageDataorientation:(CGImagePropertyOrientation)orientation{AVDepthData*depthData=nil;CGImageSourceRefimageSource=CGImageSourceCreateWithData((CFDataRef)imageData,NULL);if(imageSource){NSDictionary*auxDat

在没有iPhone 7+的情况下使用Avdepthdata获取媒体

在不拥有iPhone7+的情况下,为Avdepthdata构建应用程序的最佳方法是什么?深度数据只能在具有双镜头相机的iPhone7+上捕获。但是我猜任何IOS11设备都可以处理深度数据,只要它可以访问包含它的照片。我找不到Apple或其他方面的任何此类媒体资源。有人有吗?或者,还有更好的方法?我试图查看iPhone7+模拟器库,但是模拟器崩溃了,因为它不支持深度演示应用程序正在使用的金属。看答案您将需要一个(像我这样的人),其中iPhone7+带有iOS11的人来向您发送图像。在iOS11上访问Safari的链接,然后点击more...->SaveImagehttp://helloca

ios - 如何从 AVDepthData 缓冲区读取 CGPoint 处的深度数据

我试图在捕获的图像中的某个点找到深度数据,并返回以米为单位的距离。我已启用深度数据并在图像旁边捕获数据。我从图像中心的X、Y坐标(以及按下时)获取点,并使用将其转换为缓冲区索引Int((width-touchPoint.x)*(height-touchPoint.y))WIDTH和HEIGHT是捕获图像的尺寸。不过,我不确定这是否是实现此目标的正确方法。我这样处理深度数据:funchandlePhotoDepthCalculation(point:Int){guardletdepth=self.photoelse{return}////ConvertDisparitytoDepth//

ios - 如何从 AVDepthData 缓冲区读取 CGPoint 处的深度数据

我试图在捕获的图像中的某个点找到深度数据,并返回以米为单位的距离。我已启用深度数据并在图像旁边捕获数据。我从图像中心的X、Y坐标(以及按下时)获取点,并使用将其转换为缓冲区索引Int((width-touchPoint.x)*(height-touchPoint.y))WIDTH和HEIGHT是捕获图像的尺寸。不过,我不确定这是否是实现此目标的正确方法。我这样处理深度数据:funchandlePhotoDepthCalculation(point:Int){guardletdepth=self.photoelse{return}////ConvertDisparitytoDepth//