jjzjj

kAudioUnitProperty

全部标签

ios - AudioToolbox AUAudioFilePlayer 属性说明

我对AUAudioFilePlayer的以下属性感到困惑。Apple的文档充其量是令人困惑的:kAudioUnitProperty_ScheduleStartTimeStampkAudioUnitProperty_ScheduledFilePrimekAudioUnitProperty_ScheduledFileRegion有人可以对每种用法提供一些说明吗?好像他们的用法重叠了?谢谢。 最佳答案 是的,这很困惑。StartTime正是您所想的那样:它定义了您为该音频单元安排的所有切片/区域的播放时间线的开始。由于在播放之前需要将音频

iphone - 什么时候设置 kAudioUnitProperty_StreamFormat?

什么时候设置kAudioUnitProperty_StreamFormat(还有kAudioUnitProperty_SampleRate)?对于我的AUGraph中的每个AU?或者只为AU混音器设置它就足够了吗?安德烈 最佳答案 您将其设置在每个音频单元的输入和输出上。iphone只允许输入有符号整数。所以不要为float而烦恼,它根本行不通。你设置采样率使用CAStreamBasicDesciptionmyDescription;我的描述.mSampleRate=44100.0f;//并对其他选项执行此操作,例如mBitsPer

ios - 核心音频离线渲染 GenericOutput

有人成功地使用core-Audio完成了离线渲染吗?我必须混合两个音频文件并应用混响(使用2个AudioFilePlayer、MultiChannelMixer、Reverb2和RemoteIO)。得到它的工作。我可以在预览时保存它(在RemoteIO的renderCallBack上)。我需要保存它而不播放它(离线)。提前致谢。 最佳答案 离线渲染使用GenericOutputAudioUnit为我工作。我在这里分享工作代码。核心音频框架似乎有点。但是其中的小东西,如ASBD、参数……等正在制造这些问题。努力它会工作。不要放弃:-)

ios - 核心音频离线渲染 GenericOutput

有人成功地使用core-Audio完成了离线渲染吗?我必须混合两个音频文件并应用混响(使用2个AudioFilePlayer、MultiChannelMixer、Reverb2和RemoteIO)。得到它的工作。我可以在预览时保存它(在RemoteIO的renderCallBack上)。我需要保存它而不播放它(离线)。提前致谢。 最佳答案 离线渲染使用GenericOutputAudioUnit为我工作。我在这里分享工作代码。核心音频框架似乎有点。但是其中的小东西,如ASBD、参数……等正在制造这些问题。努力它会工作。不要放弃:-)