jjzjj

CGImageRef

全部标签

ios - Adobe Native Extension iOS h.264 文件编码器

我正在尝试为iOS制作一个adobenative扩展h.264文件编码器。我有编码器部分工作。它在xcode测试项目中运行良好。问题是,当我尝试从ane文件运行它时,它不起作用。我添加从bitmapData转换为CGImage的帧的代码://convertfirstargumentinabitmapDataFREObjectobjectBitmapData=argv[0];FREBitmapDatabitmapData;FREAcquireBitmapData(objectBitmapData,&bitmapData);CGImageReftheImage=getCGImageRefF

ios - 在 UICollectionView 中终止异步 CGImageRef 加载

我有一个模拟封面流程的CollectionView。它像这样从ALAssetLibrary异步加载图像。-(UICollectionViewCell*)collectionView:(UICollectionView*)cvcellForItemAtIndexPath:(NSIndexPath*)indexPath;{myCell*cell=[cvdequeueReusableCellWithReuseIdentifier:@"CELL_ID"forIndexPath:indexPath];dispatch_async(dispatch_get_global_queue(DISPATC

ios - imageWithCGImage 的内存问题

所以这就是要点我有一个程序,它有一个由许多小图像组成的大图像,它获取该图像并将其分成许多较小的图像(如电影的帧),然后用户可以去擦洗通过。我目前使用的是这种方法-(NSMutableArray*)createArrayFromImage:(NSData*)largerImageData{UIImage*largerImage=[UIImageimageWithData:largerImageData];intarraySize=(int)largerImage.size.height/largerImage.size.width;//Findouthowmanyimagestherea

ios - 在后台线程中读取 CGImageRef 会使应用程序崩溃

我有一个很大的jpeg图像,我想在我的opengl引擎中异步加载它。如果在主线程上完成,一切都很好,但速度很慢。当我尝试将图block加载到NSOperationBlock上时,它总是在尝试访问我之前在主线程上加载的共享图像数据指针时崩溃。一定有一些我无法通过后台操作获得的东西,因为我假设我可以访问我在主线程上创建的内存部分。我尝试做的是以下内容:@interfaceMyViewer{}@property(atomic,assign)CGImageRefimageRef;@property(atomic,assign)CGDataProviderRefdataProvider;@pro

ios - CGImageRef 消耗大量内存

我正在为我的一个应用程序屏幕创建模糊图像,为此我使用以下代码UIGraphicsBeginImageContext(self.view.bounds.size);[self.view.layerrenderInContext:UIGraphicsGetCurrentContext()];UIImage*image=UIGraphicsGetImageFromCurrentImageContext();UIGraphicsEndImageContext();CIContext*context=[CIContextcontextWithOptions:nil];CIImage*inputI

ios - 如何创建一个有限的 CIImage?

CIColorMapCIFilter将CIImage作为输入。使用另一个CIFilter(例如CILinearGradient)动态生成该输入图像是有意义的,但是向颜色图过滤器提供过滤器的结果将导致以下错误,例如以下内容:[CIColorMapoutputImage]requirestheinputGradientImagetobefinite即使渐变的起点/终点被指定为CILinearGradient过滤器的输入,图像本身也不是有限的。如何生成有限的CIImage以传递给我的过滤器? 最佳答案 下面是一个示例,说明如何创建固定大小

ios - View 层 drawInContext :UIGraphicsGetCurrentContext() not drawing

我正在尝试将UIView绘制到UIImage中。这是我正在使用的代码:UIGraphicsBeginImageContextWithOptions(myView.bounds.size,YES,0.f);[myView.layerdrawInContext:UIGraphicsGetCurrentContext()];UIImage*img=UIGraphicsGetImageFromCurrentImageContext();UIGraphicsEndImageContext();我已验证myView.bounds.size有效。myView在屏幕上正确显示。但是,img是完全黑色的

ios - 管理 CGImageRef 内存的规则?

使用ARC管理CGImageRef内存的规则是什么?也就是说,有人可以帮我找到正确的文档吗?我正在从照片库中获取图像并创建一个UIImage来显示:CGImageRefnewImage=[assetRepfullResolutionImage];...UIImage*cloudImage=[UIImageimageWithCGImage:newImagescale:scaleorientation:orientation];我需要做CGImageRelease(newImage)吗?我收到内存警告,但它似乎不是我尚未释放的对象的逐渐累积,而且我没有看到Instruments有任何泄漏。

ios - Xcode 静态分析报告 ARC 下的一处泄漏 - CGImageRef - 如何解决

在大约2k行代码中,静态分析器只有一个问题,因此:spellDetailModalViewController*detailVC=[[spellDetailModalViewControlleralloc]init];UIImage*tempImage=self.spellImageView.image;CGRectnewSize=CGRectMake(0.0,0.0,320.0,305.0);CGImageReftemp=CGImageCreateWithImageInRect([tempImageCGImage],newSize);UIImage*passingImage=[UII

ios - 将 NSData 转换为 CGImage 然后再转换回 NSData 会使文件太大

我使用AVFoundation构建了一个相机。一旦我的AVCaptureStillImageOutput完成了它的captureStillImageAsynchronouslyFromConnection:completionHandler:方法,我就创建了一个NSData对象,如下所示:NSData*imageData=[AVCaptureStillImageOutputjpegStillImageNSDataRepresentation:imageDataSampleBuffer];一旦我有了NSData对象,我想旋转图像-但不转换为UIImage。我发现我可以转换为CGImage