jjzjj

GPUImage

全部标签

ios - 使用 UISlider 应用 GPUImage 过滤器

我正在使用GPUImage过滤器创建一个简单的图像亮度、对比度和饱和度调整工具。该View有一个ImageView和每个过滤器的3个slider。起初我以为我会在每个slider的值发生变化时应用每个过滤器,但后来我意识到必须链接过滤器。所以我写了下面的代码。此代码的问题在于仅将亮度滤镜应用于图像。-(IBAction)brightnessSlider:(UISlider*)sender{brightnessValue=sender.value;UIImage*inputImage=[UIImageimageNamed:@"2.jpg"];GPUImagePicture*stillIm

iOS/AVFoundation : How to eliminate (occasional) blank frames between different videos within an AVComposition during playback

我正在开发的应用程序通过以连续的间隔多次将相同的AVAssetTrack(从原始视频url创建)添加到相同的AVComposition来循环播放视频指定的次数。该应用程序通过从组合的AVMutableCompositionTrack(对于AVMediaTypeVideo)中“删除”时间范围并将新剪辑的AVAssetTrack插入到先前删除的时间范围中,类似地将新视频剪辑插入到现有组合中。但是,在将如上所述的新剪辑插入原始循环视频的重复时间范围内后,偶尔且很少见,会产生空白帧,这些空白帧仅出现在视频循环的过渡点(在合成内),但仅在播放期间-视频可以正确无间隙地导出。这让我相信问题出在AV

ios切换相机前后分辨率改变AVCaptureSessionPresetHigh

我使用了GPUImage库,我的前置摄像头session预设是AVCaptureSessionPresetPhoto,后置摄像头是AVCaptureSessionPresetHigh,if(self.isFrontFacingCameraPresent){[selfsetCaptureSessionPreset:AVCaptureSessionPresetHigh];}else{[selfsetCaptureSessionPreset:AVCaptureSessionPresetPhoto];}[selfrotateCamera];初始状态为使用前置摄像头,分辨率为1280x960;现

ios - 无法完成 GPUImageMovieWriter completionBlock 的过程

当完成block即将完成使用GPUImage类设置视频亮度的过程时,输出视频为0kb,并在GPUImageMovieWriter.m文件上崩溃,并给出以下错误。Proj_name(1232,0xb0219000)malloc:*mach_vm_map(size=8388608)失败(错误代码=3)*错误:无法安全地分配区域***在malloc_error_break设置断点调试这里有人使用过GPUImage来提高视频亮度吗? 最佳答案 GPUImageBrightnessFilter:调整图像的亮度brightness:调整后的亮度

视频文件上的过滤器:gpuimage还是核心图像?

我必须在视频文件上应用过滤器。哪个更好的gpuimage或核心图像?看答案如果您只想开发iOS,则使用coreimage可能会更好。如果您也需要在Android上应用过滤器,请使用GPUIMAGE。因为您可以在这两个平台上使用几乎相同的着色器文件。

ios - 如何在 iOS 应用程序中使用 Lightroom 预设作为照片或视频的滤镜?

如何通过GPUImage或CoreGraphics或通过LightroomPresets中的任何其他框架将滤镜应用于图像。如何在图像上单独使用Lightroom预设的元素(对比度、饱和度、色调、清晰度等)。个别Lightroom预设元素: 最佳答案 不幸的是,这不是一件容易的事,因为要使用Lightroom预设作为滤镜,您需要制作Lightroom的自制子集。1:用文本编辑器打开预设文件,看看Lightroom是用什么处理来达到这个效果的,是不是这样value={settings={AutoLateralCA=0,Blacks201

iphone - 图像 90 度旋转 AVCam

我在Stackoverflow中查看了大量问题,但没有一个能解决我的问题。因此,我使用的是Apple的AVCam示例:http://developer.apple.com/library/ios/#samplecode/AVCam/Introduction/Intro.html所以,当我拍照并将其保存在图像库中时,它很好,但是当我通过裁剪它在屏幕上显示它以及当我使用将它发送到服务器时NSData*pictureData=UIImageJPEGRepresentation(self.snappedPictureView.image,0.9);它发送90度旋转!这是我裁剪的代码:UIIma

ios - 使用 GPUImageMovieWriter 记录 OpenGL View

我正在尝试创建一个将使用我的应用进行记录的OpenGLView。我正在尝试使用GPUImageMovieWriter和GPUImageUIElement记录View这样:self.imageUIElement=[[GPUImageUIElementalloc]initWithView:self.myView];NSString*pathToMovie=[NSHomeDirectory()stringByAppendingPathComponent:@"Documents/Movie.m4v"];unlink([pathToMovieUTF8String]);//Ifafilealrea

ios - 使用 GPUImageTransformFilter 和 iOS Pan Gesture 转换 GPUImage 位置?

我在使用GPUImage转换滤镜时遇到问题。我正在使用平移手势识别器来重新定位图像。我的代码有效,但图像以大约一半的速度移动。如果我将CGAffineTransformnewTransform坐标加倍,图像会按预期拖动。但是,当我开始一个新的平移手势时,图像跳到距中心距离大约两倍的点。也许我的数学不对。有任何想法吗?或者,谁能提出比我这里提供的更好的解决方案?-(void)move:(UIPanGestureRecognizer*)sender{//TranslatedCGPointfromGPUImageViewCGPointtranslation=[sendertranslatio

ios - GPUImageAlphaBlendFilter实时处理来自GPUImageStillCamera源码

我正在使用GPUImage库,我正在尝试实时混合两个图像,并将它们显示在GPUImageView上。我正在尝试将普通相机输入与其过滤版本进行alpha混合。这是我正在尝试做的事情:----------------->----v--camera--|alphablend---->imageview----->colorfilter--^我找到了一些关于使用混合过滤器的帖子,但它们似乎不是实时处理的方法。我找到了https://github.com/BradLarson/GPUImage/issues/319,GPUImage:blendingtwoimages,和https://gith