我有一个视觉上相当复杂的应用程序,它有一个基本的 UIViewController 和几个 UIViews(由我子类化和扩展)。我会定期抛出 UIAlertViews 和 UIPopOverControllers。
我正在努力开发一种视频录制解决方案,以便在用户使用该应用程序时,它会记录正在发生的事情以供日后汇报。
我有一个部分有效的解决方案,但它非常慢(每秒不能超过 1 帧),有一些问题(图像当前旋转和倾斜,但我想我可以解决这个问题)这不是我认为的理想解决方案。
我跳出了那个思路,开始实现一个使用 UIGetImageFromCurrentImageContext() 的解决方案,但它一直给我 nil 图像,即使是从 drawRect: 中调用时也是如此>.
不过,我突然想到,我不想一直调用 drawRect: 只是为了截屏!我不想实际启动任何额外的绘图,只是捕捉屏幕上的内容。
我很高兴发布我正在使用的代码,但它还没有真正起作用。有谁知道一个好的解决方案来做我正在寻找的事情?
我找到的一个解决方案并不完全适合我,因为它似乎从未捕获 UIAlertViews 和其他重叠 View 。
有什么帮助吗?
谢谢!
颠簸
最佳答案
我无法进行全尺寸实时视频编码。但是,作为替代方案,请考虑这一点。
不记录帧,而是记录发生的 Action (带有时间戳)。然后,当你想回放时,只需重放 Action 即可。您已经有了代码,因为您在“现实生活”中执行了它。
您所做的就是及时重播这些相同的 Action 。
编辑
如果你想尝试录音,这就是我所做的(注意,我放弃了它......这是一个正在进行的实验,所以就拿它作为我如何接近它的例子......没有什么是生产 -准备好)。我能够以 640x360 的分辨率录制实时音频/视频,但分辨率对我来说太低了。在 iPad 上看起来不错,但当我将视频移到我的 Mac 上观看时就很糟糕了。
我在使用更高的分辨率时遇到了问题。我从 RosyWriter 示例项目中改编了大部分代码。以下是设置 Assets 编写器、开始录制以及将 UIImage 添加到视频流的主要例程。
祝你好运。
CGSize const VIDEO_SIZE = { 640, 360 };
- (void) startRecording
{
dispatch_async(movieWritingQueue, ^{
NSLog(@"startRecording called in state 0x%04x", state);
if (state != STATE_IDLE) return;
state = STATE_STARTING_RECORDING;
NSLog(@"startRecording changed state to 0x%04x", state);
NSError *error;
//assetWriter = [[AVAssetWriter alloc] initWithURL:movieURL fileType:AVFileTypeQuickTimeMovie error:&error];
assetWriter = [[AVAssetWriter alloc] initWithURL:movieURL fileType:AVFileTypeMPEG4 error:&error];
if (error) {
[self showError:error];
}
[self removeFile:movieURL];
[self resumeCaptureSession];
[self.delegate recordingWillStart];
});
}
// TODO: this is where we write an image into the movie stream...
- (void) writeImage:(UIImage*)inImage
{
static CFTimeInterval const minInterval = 1.0 / 10.0;
static CFAbsoluteTime lastFrameWrittenWallClockTime;
CFAbsoluteTime thisFrameWallClockTime = CFAbsoluteTimeGetCurrent();
CFTimeInterval timeBetweenFrames = thisFrameWallClockTime - lastFrameWrittenWallClockTime;
if (timeBetweenFrames < minInterval) return;
// Not really accurate, but we just want to limit the rate we try to write frames...
lastFrameWrittenWallClockTime = thisFrameWallClockTime;
dispatch_async(movieWritingQueue, ^{
if ( !assetWriter ) return;
if ((state & STATE_STARTING_RECORDING) && !(state & STATE_MASK_VIDEO_READY)) {
if ([self setupAssetWriterImageInput:inImage]) {
[self videoIsReady];
}
}
if (state != STATE_RECORDING) return;
if (assetWriter.status != AVAssetWriterStatusWriting) return;
CGImageRef cgImage = CGImageCreateCopy([inImage CGImage]);
if (assetWriterVideoIn.readyForMoreMediaData) {
CVPixelBufferRef pixelBuffer = NULL;
// Resize the original image...
if (!CGSizeEqualToSize(inImage.size, VIDEO_SIZE)) {
// Build a context that's the same dimensions as the new size
CGRect newRect = CGRectIntegral(CGRectMake(0, 0, VIDEO_SIZE.width, VIDEO_SIZE.height));
CGContextRef bitmap = CGBitmapContextCreate(NULL,
newRect.size.width,
newRect.size.height,
CGImageGetBitsPerComponent(cgImage),
0,
CGImageGetColorSpace(cgImage),
CGImageGetBitmapInfo(cgImage));
// Rotate and/or flip the image if required by its orientation
//CGContextConcatCTM(bitmap, transform);
// Set the quality level to use when rescaling
CGContextSetInterpolationQuality(bitmap, kCGInterpolationHigh);
// Draw into the context; this scales the image
//CGContextDrawImage(bitmap, transpose ? transposedRect : newRect, imageRef);
CGContextDrawImage(bitmap, newRect, cgImage);
// Get the resized image from the context and a UIImage
CGImageRef newImageRef = CGBitmapContextCreateImage(bitmap);
CGContextRelease(bitmap);
CGImageRelease(cgImage);
cgImage = newImageRef;
}
CFDataRef image = CGDataProviderCopyData(CGImageGetDataProvider(cgImage));
int status = CVPixelBufferPoolCreatePixelBuffer(kCFAllocatorDefault, self.assetWriterPixelBufferAdaptor.pixelBufferPool, &pixelBuffer);
if(status != 0){
//could not get a buffer from the pool
NSLog(@"Error creating pixel buffer: status=%d", status);
}
// set image data into pixel buffer
CVPixelBufferLockBaseAddress( pixelBuffer, 0 );
uint8_t* destPixels = CVPixelBufferGetBaseAddress(pixelBuffer);
// Danger, Will Robinson!!!!! USE_BLOCK_IN_FRAME warning...
CFDataGetBytes(image, CFRangeMake(0, CFDataGetLength(image)), destPixels);
if(status == 0){
//CFAbsoluteTime thisFrameWallClockTime = CFAbsoluteTimeGetCurrent();
CFTimeInterval elapsedTime = thisFrameWallClockTime - firstFrameWallClockTime;
CMTime presentationTime = CMTimeAdd(firstBufferTimeStamp, CMTimeMake(elapsedTime * TIME_SCALE, TIME_SCALE));
BOOL success = [self.assetWriterPixelBufferAdaptor appendPixelBuffer:pixelBuffer withPresentationTime:presentationTime];
if (!success)
NSLog(@"Warning: Unable to write buffer to video");
}
//clean up
CVPixelBufferUnlockBaseAddress( pixelBuffer, 0 );
CVPixelBufferRelease( pixelBuffer );
CFRelease(image);
CGImageRelease(cgImage);
} else {
NSLog(@"Not ready for video data");
}
});
}
-(BOOL) setupAssetWriterImageInput:(UIImage*)image
{
NSDictionary* videoCompressionProps = [NSDictionary dictionaryWithObjectsAndKeys:
[NSNumber numberWithDouble:1024.0*1024.0], AVVideoAverageBitRateKey,
nil ];
NSDictionary* videoSettings = [NSDictionary dictionaryWithObjectsAndKeys:
AVVideoCodecH264, AVVideoCodecKey,
//[NSNumber numberWithInt:image.size.width], AVVideoWidthKey,
//[NSNumber numberWithInt:image.size.height], AVVideoHeightKey,
[NSNumber numberWithInt:VIDEO_SIZE.width], AVVideoWidthKey,
[NSNumber numberWithInt:VIDEO_SIZE.height], AVVideoHeightKey,
videoCompressionProps, AVVideoCompressionPropertiesKey,
nil];
NSLog(@"videoSettings: %@", videoSettings);
assetWriterVideoIn = [AVAssetWriterInput assetWriterInputWithMediaType:AVMediaTypeVideo outputSettings:videoSettings];
NSParameterAssert(assetWriterVideoIn);
assetWriterVideoIn.expectsMediaDataInRealTime = YES;
NSDictionary* bufferAttributes = [NSDictionary dictionaryWithObjectsAndKeys:
[NSNumber numberWithInt:kCVPixelFormatType_32ARGB], kCVPixelBufferPixelFormatTypeKey, nil];
self.assetWriterPixelBufferAdaptor = [AVAssetWriterInputPixelBufferAdaptor assetWriterInputPixelBufferAdaptorWithAssetWriterInput:assetWriterVideoIn sourcePixelBufferAttributes:bufferAttributes];
//add input
if ([assetWriter canAddInput:assetWriterVideoIn]) {
[assetWriter addInput:assetWriterVideoIn];
}
else {
NSLog(@"Couldn't add asset writer video input.");
return NO;
}
return YES;
}
关于iOS 截图/App 录制技巧,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/9823242/
这里有一个很好的答案解释了如何在Ruby中下载文件而不将其加载到内存中:https://stackoverflow.com/a/29743394/4852737require'open-uri'download=open('http://example.com/image.png')IO.copy_stream(download,'~/image.png')我如何验证下载文件的IO.copy_stream调用是否真的成功——这意味着下载的文件与我打算下载的文件完全相同,而不是下载一半的损坏文件?documentation说IO.copy_stream返回它复制的字节数,但是当我还没有下
我是Google云的新手,我正在尝试对其进行首次部署。我的第一个部署是RubyonRails项目。我基本上是在关注thisguideinthegoogleclouddocumentation.唯一的区别是我使用的是我自己的项目,而不是他们提供的“helloworld”项目。这是我的app.yaml文件runtime:customvm:trueentrypoint:bundleexecrackup-p8080-Eproductionconfig.ruresources:cpu:0.5memory_gb:1.3disk_size_gb:10当我转到我的项目目录并运行gcloudprevie
当我在我的Rails应用程序根目录中运行rakedoc:app时,API文档是使用/doc/README_FOR_APP作为主页生成的。我想向该文件添加.rdoc扩展名,以便它在GitHub上正确呈现。更好的是,我想将它移动到应用程序根目录(/README.rdoc)。有没有办法通过修改包含的rake/rdoctask任务在我的Rakefile中执行此操作?是否有某个地方可以查找可以修改的主页文件的名称?还是我必须编写一个新的Rake任务?额外的问题:Rails应用程序的两个单独文件/README和/doc/README_FOR_APP背后的逻辑是什么?为什么不只有一个?
我正在尝试解析一个文本文件,该文件每行包含可变数量的单词和数字,如下所示:foo4.500bar3.001.33foobar如何读取由空格而不是换行符分隔的文件?有什么方法可以设置File("file.txt").foreach方法以使用空格而不是换行符作为分隔符? 最佳答案 接受的答案将slurp文件,这可能是大文本文件的问题。更好的解决方案是IO.foreach.它是惯用的,将按字符流式传输文件:File.foreach(filename,""){|string|putsstring}包含“thisisanexample”结果的
相信很多人在录制视频的时候都会遇到各种各样的问题,比如录制的视频没有声音。屏幕录制为什么没声音?今天小编就和大家分享一下如何录制音画同步视频的具体操作方法。如果你有录制的视频没有声音,你可以试试这个方法。 一、检查是否打开电脑系统声音相信很多小伙伴在录制视频后会发现录制的视频没有声音,屏幕录制为什么没声音?如果当时没有打开音频录制,则录制好的视频是没有声音的。因此,建议在录制前进行检查。屏幕上没有声音,很可能是因为你的电脑系统的声音被禁止了。您只需打开电脑系统的声音,即可录制音频和图画同步视频。操作方法:步骤1:点击电脑屏幕右下侧的“小喇叭”图案,在上方的选项中,选择“声音”。 步骤2:在“声
1.错误信息:Errorresponsefromdaemon:Gethttps://registry-1.docker.io/v2/:net/http:requestcanceledwhilewaitingforconnection(Client.Timeoutexceededwhileawaitingheaders)或者:Errorresponsefromdaemon:Gethttps://registry-1.docker.io/v2/:net/http:TLShandshaketimeout2.报错原因:docker使用的镜像网址默认为国外,下载容易超时,需要修改成国内镜像地址(首先阿里
我正在使用Postgres.app在OSX(10.8.3)上。我已经修改了我的PATH,以便应用程序的bin文件夹位于所有其他文件夹之前。Rammy:~phrogz$whichpg_config/Applications/Postgres.app/Contents/MacOS/bin/pg_config我已经安装了rvm并且可以毫无错误地安装pggem,但是当我需要它时我得到一个错误:Rammy:~phrogz$gem-v1.8.25Rammy:~phrogz$geminstallpgFetching:pg-0.15.1.gem(100%)Buildingnativeextension
动漫制作技巧是很多新人想了解的问题,今天小编就来解答与大家分享一下动漫制作流程,为了帮助有兴趣的同学理解,大多数人会选择动漫培训机构,那么今天小编就带大家来看看动漫制作要掌握哪些技巧?一、动漫作品首先完成草图设计和原型制作。设计草图要有目的、有对象、有步骤、要形象、要简单、符合实际。设计图要一致性,以保证制作的顺利进行。二、原型制作是根据设计图纸和制作材料,可以是手绘也可以是3d软件创建。在此步骤中,要注意的问题是色彩和平面布局。三、动漫制作制作完成后,加工成型。完成不同的表现形式后,就要对设计稿进行加工处理,使加工的难易度降低,并得到一些基本准确的概念,以便于后续的大样、准确的尺寸制定。四、
print"Enteryourpassword:"pass=STDIN.noecho(&:gets)puts"Yourpasswordis#{pass}!"输出:Enteryourpassword:input.rb:2:in`':undefinedmethod`noecho'for#>(NoMethodError) 最佳答案 一开始require'io/console'后来的Ruby1.9.3 关于ruby-为什么不能使用类IO的实例方法noecho?,我们在StackOverflow上
我的测试尝试访问网页并验证页面上是否存在某些元素。例如,它访问http://foo.com/homepage.html并检查Logo图像,然后访问http://bar.com/store/blah.html并检查页面上是否出现了某些文本。我的目标是访问经过Kerberos身份验证的网页。我发现Kerberos代码如下:主文件uri=URI.parse(Capybara.app_host)kerberos=Kerberos.new(uri.host)@kerberos_token=kerberos.encoded_tokenkerberos.rb文件classKerberosdefini