jjzjj

ios - AVCAPTURE 图像方向

我有一个允许用户拍照的ViewController。我将avcapture边界设置为屏幕上View的边界。在这个View之上我有一个CollectionView。因此用户可以捕获多张照片,然后将它们添加到上面的CollectionView中。我在上面的预览中无法正确显示方向。代码如下:@IBOutletweakvarimagePreviews:UICollectionView!@IBOutletweakvarimgPreview:UIView!varsession:AVCaptureSession?varstillImageOutput:AVCaptureStillImageOutpu

swift - 为什么过滤裁剪图像比过滤调整大小的图像慢 4 倍(两者具有相同的尺寸)

我一直在努力解决这个问题,但没有成功。我有一个非常简单的Swift命令行应用程序,它接受一个参数——要加载的图像路径。它裁剪图像并使用SepiaTone滤镜过滤图像片段。它工作得很好。它将图像裁剪为200x200并使用SepiaTone对其进行过滤。现在这就是我面临的问题-整个过程在我的MacBookAir上花费了600ms。现在,当我将输入图像调整(而不是裁剪)到相同尺寸(200x200)时,它需要150毫秒。这是为什么呢?在这两种情况下,我都会过滤尺寸为200x200的图像。我正在使用thisparticularimage用于测试(5966x3978)。更新:正是这一行代码在处理裁

ios - 快速访问 EXIF 字典

信息:使用Swift和CGI​​mageSourceCreateWithURL函数。我正在尝试从URL加载文件,然后编辑包含该特定照片的所有数据的字典。这是.swift文件中的代码。leturl=NSURL(string:"http://jwphotographic.co.uk/Images/1.jpg")letimageSource=CGImageSourceCreateWithURL(url,nil)letimageProperties=CGImageSourceCopyPropertiesAtIndex(imageSource,0,nil)asDictionaryprintln(

ios - 将 UIImage 裁剪为 alpha

我有一个相当大的、几乎是全屏的图像,我将在iPad上显示它。图像大约有80%的透明度。我需要在客户端确定不透明像素的边界框,然后裁剪到该边界框。浏览StackOverflow上的其他问题并阅读一些CoreGraphics文档,我认为我可以通过以下方式完成此任务:CGBitmapContextCreate(...)//Usethistorendertheimagetoabytearray..-iteratethroughthisbytearraytofindtheboundingbox..CGImageCreateWithImageInRect(image,boundingRect);这

ios - 将 UIImage 裁剪为 alpha

我有一个相当大的、几乎是全屏的图像,我将在iPad上显示它。图像大约有80%的透明度。我需要在客户端确定不透明像素的边界框,然后裁剪到该边界框。浏览StackOverflow上的其他问题并阅读一些CoreGraphics文档,我认为我可以通过以下方式完成此任务:CGBitmapContextCreate(...)//Usethistorendertheimagetoabytearray..-iteratethroughthisbytearraytofindtheboundingbox..CGImageCreateWithImageInRect(image,boundingRect);这

ios - 将 CALayer 添加到 MKOverlayRenderer?

在iOS7中,MKOverlayView被MKOverlayRenderer取代。之前,我可以添加一个UIImageView作为MKOverlayView的subview,并访问MKOverlayView的CALayer.现在,如果UIView没有进入MKOverlayRenderer,我不确定如何添加自定义CALayer(我有一个CAKeyFrameAnimation快速浏览一系列图片)。我如何将UIImageView添加到MKOverlayRenderer中?我如何在CGContextRef中添加一个CALayer(由MKOverlayRenderer使用)?我尝试自己做,但根本没

ios - 将 CALayer 添加到 MKOverlayRenderer?

在iOS7中,MKOverlayView被MKOverlayRenderer取代。之前,我可以添加一个UIImageView作为MKOverlayView的subview,并访问MKOverlayView的CALayer.现在,如果UIView没有进入MKOverlayRenderer,我不确定如何添加自定义CALayer(我有一个CAKeyFrameAnimation快速浏览一系列图片)。我如何将UIImageView添加到MKOverlayRenderer中?我如何在CGContextRef中添加一个CALayer(由MKOverlayRenderer使用)?我尝试自己做,但根本没

objective-c - 如果 CGImageCreate 的数据提供者使用由应用程序创建的数组,那么对 CGImageCreate 的正确调用会是什么样子?

我正在尝试在内存中创建位图作为drawLayer:inContext:方法(此方法是CALayer委托(delegate)协议(protocol)的一部分)将调用的模式函数的一部分。模式函数看起来类似于:staticconstsize_tkComponentsPerPixel=4;staticconstsize_tkBitsPerComponent=sizeof(unsignedchar)*8;NSIntegerlayerHeight=160;NSIntegerlayerWidth=160;CGContextSaveGState(context);CGColorSpaceRefrgb=

objective-c - 如果 CGImageCreate 的数据提供者使用由应用程序创建的数组,那么对 CGImageCreate 的正确调用会是什么样子?

我正在尝试在内存中创建位图作为drawLayer:inContext:方法(此方法是CALayer委托(delegate)协议(protocol)的一部分)将调用的模式函数的一部分。模式函数看起来类似于:staticconstsize_tkComponentsPerPixel=4;staticconstsize_tkBitsPerComponent=sizeof(unsignedchar)*8;NSIntegerlayerHeight=160;NSIntegerlayerWidth=160;CGContextSaveGState(context);CGColorSpaceRefrgb=

ios - 如何将 CGImage 转换为 CMSampleBufferRef?

我想将CGImage转换为CMSampleBufferRef并使用appendSampleBuffer将其附加到AVAssetWriterInput:方法。我已设法使用以下代码获取CMSampleBufferRef,但appendSampleBuffer:在我提供生成的CMSampleBufferRef时仅返回NO。我做错了什么?-(void)appendCGImage:(CGImageRef)frame{constintwidth=CGImageGetWidth(frame);constintheight=CGImageGetHeight(frame);//Createadummyp