jjzjj

ios - 在 IOS 中比较两个图像的 RGB

在我的应用程序中,我需要比较两个图像的RGB是否相同。我正在使用这段代码...-(CGFloat)compareImage:(UIImage*)imgPrecapturedImage:(UIImage*)imgCaptured{intcolorDiff;CFDataRefpixelData=CGDataProviderCopyData(CGImageGetDataProvider(imgPre.CGImage));intmyWidth=(int)CGImageGetWidth(imgPre.CGImage)/2;intmyHeight=(int)CGImageGetHeight(img

ios - 修剪 UIImage 边框

这是我要修剪的图像示例。我想去掉图像周围的边框(在本例中是顶部和底部的黑条)。我在Github上找到了一个库:CKImageAdditions,但是它似乎不起作用。当我传入UIColor(具有RGB颜色)时,它只返回相同的图像。我可以找到很多示例和类别类,这些示例和类别类会修剪带有任何透明像素作为边框的UIImage,但在这种情况下,我需要修剪黑色。我已经对我的图像中的颜色进行了采样,它们的颜色值确实是255,但它似乎与上述库所寻找的不匹配。有没有人有他们使用过的图书馆或任何见解?我搜索了又搜索,CKImageAdditions是我唯一能找到的广告用颜色修剪的东西(尽管不幸的是在我的情

ios - 将 CIImage 转换为 CGImage 太慢

我需要将CIImage转换为CGImage。这是我目前使用的代码:CGImageRefimg=[myContextcreateCGImage:ciImagefromRect:[ciImageextent]];但是他的这行代码对于常规尺寸的图片来说非常慢。我可以正确使用它的速度要慢得多。是否有另一种更快的方法将这些CIImages转换为CGImages?最后,我使用CoreGraphics将CGImages绘制到CGContext中。如果有一种方法可以直接将CIImages绘制到CGContext,我认为这也应该更快。这可能吗?谢谢 最佳答案

iphone - 什么时候释放 UIImage?

我使用下面的代码绘制一个子图像UIImage*subIm=getSubImage(large,rect);[subImdrawInRect:self.bounds];其中getSubImage定义如下UIImage*getSubImage(UIImage*uim,CGRectrc){CGImageRefimref=CGImageCreateWithImageInRect(uim.CGImage,rc);UIImage*sub=[UIImageimageWithCGImage:imref];CGImageRelease(imref);NSLog(@"subimageretainCount

objective-c - 正确裁剪从照片库中获取的图像

我一整天都在研究这个,并在SO和google上查看了很多问题,但到目前为止我想不出任何正确的东西。我在运行iOS5.1.1的iPad上拍摄了一张照片,并使用照片应用对其进行了裁剪。然后我从Assets库中获得对它的引用,并获得未裁剪的全分辨率图像。我发现裁剪信息包含在AdjustmentXMP中metadata的key在我的ALAssetRepresentation目的。所以我使用XMP信息裁剪照片,这是我得到的:原始照片(1,936x2,592):正确裁剪的照片,如照片应用程序中所示(1,420x1,938):用下面的代码裁剪的照片(也是1,420x1,938,但向右裁剪了大约200

Swift playground - 无法将过滤后的 UIImage 转换为 CGImage

在Swiftplayground中,我正在加载JPEG,将其转换为UIImage并将其过滤为单色。然后我将生成的过滤图像转换为UIImage。输入和过滤后的图像正确显示。然后我将两个图像都转换为CGImage类型。这适用于输入图像,但过滤后的图像从转换中返回nil://GetaninputimageletimageFilename="yosemite.jpg"letinputImage=UIImage(named:imageFilename)letinputCIImage=CIImage(image:inputImage!)//Filtertheinputimage-makeitmon

xcode - 如何从我的 XCode Assets 目录中获取 CGImage

我正在使用XCode开发一个OSX项目。我在XCode中的Assets目录中添加了一个图像集。它叫做“Foo”。如何从中获取CGImage?从中获取NSImage似乎很简单:letimage=NSImage(named:"Foo")...但不是我需要的CGImage。具体设置:XCode7.1onOSX10.11El-CapitancodinginSwift2.1importingCocoaandMetalKit编辑:一些人指出了如何通过CGImageForProposedRect方法将NSImage转换为CGImage。我希望完全避免使用NSImage,因为它似乎是一个浪费的中间步骤

ios - 使用 CGPoint 从图像中获取像素颜色

我在Swift中获取某个像素(由CGPoint指定)的像素颜色时遇到了很大的困难。到目前为止,这是我的代码:@IBOutletweakvargraphImage:UIImageView!varimage:UIImage?overridefuncviewDidLoad(){super.viewDidLoad()}funcgetPixelColor(pos:CGPoint)->UIColor{varpixelData=CGDataProviderCopyData(CGImageGetDataProvider(self.graphImage.image!.CGImage))vardata:U

ios - 将 CIImage 实例转换为 CGImage 实例然后再转换为 UIImage 的原因

我正在阅读一篇关于CoreImage的文章我在那里看到了以下几行:ifletoutput=filter?.valueForKey(kCIOutputImageKey)as?CIImage{letcgimgresult=context.createCGImage(output,fromRect:output.extent)letresult=UIImage(CGImage:cgimgresult)imageView?.image=result}如您所见,CIImage实例首先转换为CGImage实例,然后才进入UIImage一。在做了一些研究之后,我发现它与ImageView范围内的图像

swift - CGImage 到 CVPixelBuffer

如何转换CGImage到CVPixelBufferswift?我知道很多问题试图做相反的事情,还有一些客观的C答案,比如thisone但我无法让他们swift工作。这是我得到的最接近的:funcpixelBufferFromCGImage(image:CGImage)->CVPixelBuffer{varpxbuffer:CVPixelBuffer?=nilletoptions:NSDictionary=[:]letwidth=image.widthletheight=image.heightletbytesPerRow=image.bytesPerRowletdataFromImag