jjzjj

SFSpeechRecognizer

全部标签

iOS 10.0 语音识别报错kAFAssistantErrorDomain

我尝试如下使用语音识别leturlpath=Bundle.main().pathForResource("myvoice2",ofType:"m4a")leturl:URL=URL.init(fileURLWithPath:urlpath!)letrecognizer=SFSpeechRecognizer()letrequest=SFSpeechURLRecognitionRequest(url:url)recognizer?.recognitionTask(with:request,resultHandler:{(result,error)inprint(result?.bestTr

ios - 重启录音时 AVAudioEngine inputNode installTap 崩溃

我正在我的应用中实现语音识别。当我第一次向ViewController展示语音识别逻辑时,一切正常。但是,当我再次尝试呈现ViewController时,出现以下崩溃:ERROR:[0x190bf000]>avae>AVAudioNode.mm:568:CreateRecordingTap:requiredconditionisfalse:IsFormatSampleRateAndChannelCountValid(format)***Terminatingappduetouncaughtexception'com.apple.coreaudio.avfaudio',reason:'r

ios - 重启录音时 AVAudioEngine inputNode installTap 崩溃

我正在我的应用中实现语音识别。当我第一次向ViewController展示语音识别逻辑时,一切正常。但是,当我再次尝试呈现ViewController时,出现以下崩溃:ERROR:[0x190bf000]>avae>AVAudioNode.mm:568:CreateRecordingTap:requiredconditionisfalse:IsFormatSampleRateAndChannelCountValid(format)***Terminatingappduetouncaughtexception'com.apple.coreaudio.avfaudio',reason:'r

ios - 连续语音识别。使用 SFSpeechRecognizer (ios10-beta)

我正在尝试执行续。在iOS10测试版上使用AVCapture进行语音识别。我设置了captureOutput(...)以持续获取CMSampleBuffers。我将这些缓冲区直接放入我之前设置的SFSpeechAudioBufferRecognitionRequest中,如下所示:...dosomesetupSFSpeechRecognizer.requestAuthorization{authStatusinifauthStatus==SFSpeechRecognizerAuthorizationStatus.authorized{self.m_recognizer=SFSpeech

ios - 连续语音识别。使用 SFSpeechRecognizer (ios10-beta)

我正在尝试执行续。在iOS10测试版上使用AVCapture进行语音识别。我设置了captureOutput(...)以持续获取CMSampleBuffers。我将这些缓冲区直接放入我之前设置的SFSpeechAudioBufferRecognitionRequest中,如下所示:...dosomesetupSFSpeechRecognizer.requestAuthorization{authStatusinifauthStatus==SFSpeechRecognizerAuthorizationStatus.authorized{self.m_recognizer=SFSpeech

ios - 使用 Speech kit ios 时由于未捕获的应用程序崩溃而终止应用程序

我在实现语音转文本时遇到了这个错误:Terminatingappduetouncaughtexception'com.apple.coreaudio.avfaudio',reason:'requiredconditionisfalse:_recordingTap==nil'和:ERROR:[0x1b2df5c40]>avae>AVAudioNode.mm:565:CreateRecordingTap:requiredconditionisfalse:_recordingTap==nil这是我的viewController的代码:publicclassViewController:UIV

ios - 使用 Speech kit ios 时由于未捕获的应用程序崩溃而终止应用程序

我在实现语音转文本时遇到了这个错误:Terminatingappduetouncaughtexception'com.apple.coreaudio.avfaudio',reason:'requiredconditionisfalse:_recordingTap==nil'和:ERROR:[0x1b2df5c40]>avae>AVAudioNode.mm:565:CreateRecordingTap:requiredconditionisfalse:_recordingTap==nil这是我的viewController的代码:publicclassViewController:UIV

ios - SFSpeechRecognizer 是否需要互联网连接?

SFSpeechRecognizer是否像Siri一样工作,是在Apple服务器上完成处理还是在iPhone本地完成? 最佳答案 语音识别API的描述在此link指出"Inthecaseofspeechrecognition,permissionisrequiredbecausedataistransmittedandtemporarilystoredonApple’sserverstoincreasetheaccuracyofspeechrecognition."所以这似乎表明处理是在Apple服务器上进行的。

ios - 在 AVSpeechUtterance 之后使用 SFSpeechRecognizer 时出现 AVAudioSession 问题

在通过AVSpeechUtterance向用户说出欢迎消息后,我正在尝试使用SFSpeechRecognizer进行语音转文本。但是随机地,语音识别没有开始(在说出欢迎信息之后),并抛出下面的错误信息。[avas]错误:AVAudioSession.mm:1049:-[AVAudioSessionsetActive:withOptions:error:]:停用正在运行I/O的AudioSession。在停用AudioSession之前,应停止或暂停所有I/O。它工作了几次。我不清楚为什么它不能始终如一地工作。我尝试了其他SO帖子中提到的解决方案,其中提到检查是否有正在运行的音频播放器。

ios - SFSpeechRecognizer 没有正确处理上下文字符串

SFSpeechRecognizer对于我的用例来说非常不准确。我尝试设置contextual字符串,因为我有一组要与之匹配的单词。但它仍然无法这样做。我需要任何其他配置吗?我正在使用Apple提供的示例项目,仅进行了以下更改:recognitionRequest.contextualStrings=@[@"ironman",@"metal",@"stark",@"superhero",@"boyfriend",@"pepper",@"arrogant",@"stylish"]; 最佳答案 我的理解是contextualString