关闭。这个问题需要更多focused.它目前不接受答案。想改进这个问题吗?更新问题,使其只关注一个问题editingthispost.关闭5年前。Improvethisquestion我遵循了本教程:https://cmusphinx.github.io/wiki/tutorialpocketsphinx/#initialization并在VS中构建了这两个文件。现在我想在我的项目中使用这个库,但我不知道如何在VisualStudio中绑定(bind)它。有人可以帮帮我吗?提前致谢
任何人都可以向我解释如何使用pocketsphinx将我的语音转换为文本吗?我试试这个:importcom.example.speechtutor.SpeechRecognizerRecorder;importcom.example.speechtutor.SpeechRecognizerRecorderSetup;importedu.cmu.pocketsphinx.Hypothesis;importedu.cmu.pocketsphinx.RecognitionListener;importstaticedu.cmu.pocketsphinx.Assets.syncAssets;p
我有一些关于在Android手机上安装Pocketsphinx的问题,但我无法在CMUSphinx的支持论坛、IRC、现有的StackOverflow帖子或密集的谷歌搜索中找到答案。如果这里的任何人有时间并愿意提供帮助,我将不胜感激。首先,我对是否可以在Android上安装Pocketsphinx感到困惑。我相信我需要Javabin才能在Android上运行,所以我尝试安装Sphinx4。为了测试该程序,我创建了一个空Activity并将HelloWorld演示文件移动到onCreate方法中。然后,我将以下库添加到构建路径中:js.jarjsapi-1.0-base.jarjunit
我正在构建一个语音识别Android应用程序,它将充当虚拟个人助理,执行以下任务:预约/提醒天气信息对Wolfram|Alpha/维基百科的一般查询-(即谁导演了捉鬼敢死队,英镑-美元汇率是多少)我的问题是使用Pocketsphinx还是GoogleAPI?最初我使用“android.speech.RecognitionListener”进行设置,效果很好,但是我想实现关键字识别,这样用户除了说话之外不需要进行任何交互。显然GoogleAPI不支持这个,所以我研究了为此使用pocketsphinx,并且仍然在应用程序的其余部分使用google(我听说pocketsphinx不那么准确?
我正在尝试使用PocketSphinxAndroidDemo项目为Android构建PocketSphinx。我已经放弃了使用Cygwin和Windows构建它并安装了UbuntuVM的追求。我正在取得进步,但我似乎被卡住了,我似乎无法弄清楚。它必须是我所缺少的简单东西。ndk-build提供以下输出(已剪裁):Compilethumb:pocketsphinx_jni头文件(显然)不在与JNI文件相同的文件夹中。LOCAL_C_INCLUDES标志已在Android.mk文件中设置以包含所需的header-include$(CLEAR_VARS)LOCAL_C_INCLUDES:=$
我正在尝试制作一个Python应用程序,它可以使用PyAudio、SpeechRecognition和PocketSphinx录制音频并将其翻译成英文文本。我在MacOSXElCapitan版本10.11.2上运行。遵循类似thisone的教程和其他人,我已经下载了PyAudio版本0.2.9、SpeechRecognition以及PocketSphinx。我已经将它们安装到Conda环境中。我已按照此site中的说明进行操作在我的OSX上使用brewinstallswiggitpython,希望它能有所帮助。这是我的代码:#Loadpackagesimportspeech_recog
我想在android中使用sphinx4语音识别。最近我在java中使用sphinx4语音识别并成功实现。但我的问题是pockesphinx是android的语音识别。我无法理解教程。我尝试了很多次运行pocketsphinx但未能成功,因为我不知道Linux命令,我想实现pocketsphinx和eclipseHelios,我的操作系统是windows7。任何人都可以给我一些步骤来实现pocketsphinx与windows7和eclipseforandroid。现在已经两周了,我只是访问教程,但我什么也做不了。所以请。任何人都可以帮助我。或者即使有任何东西可以将我的sphinx4j
我需要在我的Android应用程序中离线训练CMUSphinx。我下载了this使用此参数的项目,但当我启动它时出现此错误:Fatalsignal11(SIGSEGV)at0x0000001c(code=1)。当Sphinx找不到声学模型时,我也会遇到这个错误。我找到了我的问题的答案here,但这对我不起作用。我做错了什么,任何人都可以为我提供任何教程或一个好的答案吗?所以问题是如何使用.jsgf文件而不是.DMP文件作为Pocketsphinx的语言模型,就像它在Inimesed项目的Recognizer任务中使用的那样? 最佳答案
在尝试使用适用于Android的PocketSphinx之前,我使用了Google的语音识别API。我不需要设置搜索名称或字典文件。它只是认出了被告知的每一个词。现在,在PocketSphinx中,我需要这样做。但我只能找到如何为一个词设置识别,或者设置识别器认为这些是唯一存在的词的词典(演示项目中可用的只有几个词),这意味着如果有人说类似的话,识别器认为它是字典中列出的单词。我只想问,如何设置几个搜索名称,或者如何设置它来识别所有可用的单词(甚至是大量的单词)?也许有人有一个包含大量单词的字典文件? 最佳答案 BeforeItri
所以python表现得好像它根本听不到我麦克风的任何声音。问题来了。我有一个Python(2.7)脚本,假设它使用Gstreamer访问我的麦克风并通过Pocketsphinx为我进行语音识别。我正在使用PulseAudio,我的设备是RaspberryPi。我的麦克风是Playstation3Eye。现在,我已经让pocketsphinx_continuous正确运行并识别我在.dict和.lm文件中定义的单词。经过几次试运行后,准确度约为85-90%。所以马上我知道我的麦克风通过pocketsphinx+脉冲音频正常拾取声音。仅供引用,我运行了以下命令:pocketsphinx_c