jjzjj

AudioEngine

全部标签

swift - 如何使用 AVAudioPCMBuffer 播放声音

我无法使用AVAudioPCMBuffer播放声音(尽管我可以使用AVAudioFile播放)。我收到了这个错误。错误:AVAudioBuffer.mm:169:-[AVAudioPCMBufferinitWithPCMFormat:frameCapacity:]:所需条件为false:isCommonFormat下面是我的代码,非常感谢您的帮助。importUIKitimportAVFoundationclassViewController:UIViewController{letaudioEngine:AVAudioEngine=AVAudioEngine()letaudioFil

xcode - 使用 Swift 通过 iPhone 扬声器强制播放音频文件

我有一个应用程序可以录制然后播放音频文件。目前正在通过耳机扬声器播放音频播放。有人能告诉我Swift将如何处理编码以强制从扬声器中输出音频吗?下面是我用来播放音频文件的实例之一:@IBActionfuncplayAudioVader(sender:UIButton){playAudioWithVariablePitch(-1000)}funcplayAudioWithVariablePitch(pitch:Float){audioPlayer.stop()audioEngine.stop()audioEngine.reset()varaudioPlayerNode=AVAudioPla

ios - 重启录音时 AVAudioEngine inputNode installTap 崩溃

我正在我的应用中实现语音识别。当我第一次向ViewController展示语音识别逻辑时,一切正常。但是,当我再次尝试呈现ViewController时,出现以下崩溃:ERROR:[0x190bf000]>avae>AVAudioNode.mm:568:CreateRecordingTap:requiredconditionisfalse:IsFormatSampleRateAndChannelCountValid(format)***Terminatingappduetouncaughtexception'com.apple.coreaudio.avfaudio',reason:'r

ios - 重启录音时 AVAudioEngine inputNode installTap 崩溃

我正在我的应用中实现语音识别。当我第一次向ViewController展示语音识别逻辑时,一切正常。但是,当我再次尝试呈现ViewController时,出现以下崩溃:ERROR:[0x190bf000]>avae>AVAudioNode.mm:568:CreateRecordingTap:requiredconditionisfalse:IsFormatSampleRateAndChannelCountValid(format)***Terminatingappduetouncaughtexception'com.apple.coreaudio.avfaudio',reason:'r

ios - 添加效果后导出音频文件

我有一个音频文件,我想使用一些效果(如音高效果)进行处理,然后将最终结果写入文件。在我处理文件并将其保存到光盘之前,我让用户播放音高效果并实时收听变化。这就是我做实时事情的方式:letaudioSession=AVAudioSession.sharedInstance()audioSession.setCategory(AVAudioSessionCategoryPlayback,error:nil)audioSession.setActive(true,error:nil)audioEngine=AVAudioEngine()audioFile=AVAudioFile(forRead

ios - 添加效果后导出音频文件

我有一个音频文件,我想使用一些效果(如音高效果)进行处理,然后将最终结果写入文件。在我处理文件并将其保存到光盘之前,我让用户播放音高效果并实时收听变化。这就是我做实时事情的方式:letaudioSession=AVAudioSession.sharedInstance()audioSession.setCategory(AVAudioSessionCategoryPlayback,error:nil)audioSession.setActive(true,error:nil)audioEngine=AVAudioEngine()audioFile=AVAudioFile(forRead

ios - 如何使用 Swift 在 iOS 中捕获音频样本?

我在网上找到了很多关于在iOS中处理音频的示例,但其中大部分都已经过时并且不适用于我要实现的目标。这是我的项目:我需要从两个来源捕获音频样本-麦克风输入和存储的音频文件。我需要对这些样本执行FFT以生成整个剪辑的“指纹”,并应用一些额外的过滤器。最终目标是打造一款类似于Shazam等的歌曲识别软件。在iOS8中捕获单个音频样本以执行快速傅里叶变换的最佳方法是什么?我想象最终会得到大量的它们,但我怀疑它可能不会像那样工作。其次,如何使用Accelerate框架来处理音频?这似乎是在iOS中对音频执行复杂分析的最有效方式。我在网上看到的所有例子都是使用旧版本的iOS和Objective-C

ios - 如何使用 Swift 在 iOS 中捕获音频样本?

我在网上找到了很多关于在iOS中处理音频的示例,但其中大部分都已经过时并且不适用于我要实现的目标。这是我的项目:我需要从两个来源捕获音频样本-麦克风输入和存储的音频文件。我需要对这些样本执行FFT以生成整个剪辑的“指纹”,并应用一些额外的过滤器。最终目标是打造一款类似于Shazam等的歌曲识别软件。在iOS8中捕获单个音频样本以执行快速傅里叶变换的最佳方法是什么?我想象最终会得到大量的它们,但我怀疑它可能不会像那样工作。其次,如何使用Accelerate框架来处理音频?这似乎是在iOS中对音频执行复杂分析的最有效方式。我在网上看到的所有例子都是使用旧版本的iOS和Objective-C

ios - 使用 AudioEngine 的音效

背景-我在Apple最近的WWDC上发布的以下视频列表中看到了一个名为“AVAudioEngineinPractice”的视频,用于将音效应用于音频。https://developer.apple.com/videos/wwdc/2014/之后,我成功地使用以下代码改变了音频的音调://AudioEngineisinitializedinviewDidLoad()audioEngine=AVAudioEngine()//ThefollowingActioniscalledonclickingabutton@IBActionfuncchipmunkPlayback(sender:UIBu

ios - 使用 AudioEngine 的音效

背景-我在Apple最近的WWDC上发布的以下视频列表中看到了一个名为“AVAudioEngineinPractice”的视频,用于将音效应用于音频。https://developer.apple.com/videos/wwdc/2014/之后,我成功地使用以下代码改变了音频的音调://AudioEngineisinitializedinviewDidLoad()audioEngine=AVAudioEngine()//ThefollowingActioniscalledonclickingabutton@IBActionfuncchipmunkPlayback(sender:UIBu