——利用讯飞开发平台作为第三方库

首先需要在讯飞开发平台下载SDK,网址为, 讯飞开发平台 ,这些SDK 下载都是免费的,当然你需要先注册。在SDK 中不仅包含相应的jar包,还有一些相应的demo,可以供你参考学习

在我们下载下来第一个SDK 之后就可以进行开发了,讯飞的SDK 给我们提供了详尽而强大的函数支持,下面我就从代码的角度来进行一些解释。

package myVoice; import java.awt.Button; import java.awt.Font; import java.awt.Frame; import java.awt.GridLayout; import java.awt.Panel; import java.awt.TextArea; import java.awt.event.ActionEvent; import java.awt.event.ActionListener; import java.lang.reflect.Parameter; import java.util.ArrayList; import javax.swing.ImageIcon; import javax.swing.JFrame; import javax.swing.JLabel; import com.iflytek.cloud.speech.RecognizerListener; import com.iflytek.cloud.speech.RecognizerResult; import com.iflytek.cloud.speech.SpeechError; import com.iflytek.cloud.speech.SpeechRecognizer; import com.iflytek.cloud.speech.SpeechUtility; import com.iflytek.util.DebugLog; import com.iflytek.util.JsonParser; import com.iflytek.util.Version; public class VoiceSpeech extends Frame implements ActionListener { Button startBtn; Button stopBtn; TextArea textArea; // 语音听写对象 SpeechRecognizer speechRecognize; private static final String DEF_FONT_NAME = "宋体" ; private static final int DEF_FONT_STYLE = Font.BOLD; private static final int DEF_FONT_SIZE = 30 ; private static final int TEXT_COUNT = 100 ; public VoiceSpeech () { // 初始化听写对象 speechRecognize = SpeechRecognizer.createRecognizer(); // 设置组件 startBtn = new Button( "start" ); stopBtn = new Button( "stop" ); textArea = new TextArea(); Panel btnPanel = new Panel(); Panel textPanel = new Panel(); // Button startBtn = new Button("开始"); //添加监听器 startBtn.addActionListener( this ); stopBtn.addActionListener( this ); btnPanel.add(startBtn); btnPanel.add(stopBtn); textPanel.add(textArea); add(btnPanel); add(textPanel); // 设置窗体 setLayout( new GridLayout( 2 , 1 )); setSize( 400 , 300 ); setTitle( "语音识别" ); setLocation( 200 , 200 ); setVisible( true ); public void actionPerformed (ActionEvent e) { if (e.getSource() == startBtn) { textArea.setText( "*************你说的是:" ); if (!speechRecognize.isListening()) speechRecognize.startListening(recognizerListener); speechRecognize.stopListening(); } else if (e.getSource() == stopBtn) { speechRecognize.stopListening(); * 听写监听器 private RecognizerListener recognizerListener = new RecognizerListener() { public void onBeginOfSpeech () { // DebugLog.Log( "onBeginOfSpeech enter" ); // ((JLabel) jbtnRecognizer.getComponent(0)).setText("听写中..."); // jbtnRecognizer.setEnabled(false); public void onEndOfSpeech () { DebugLog.Log( "onEndOfSpeech enter" ); * 获取听写结果. 获取RecognizerResult类型的识别结果,并对结果进行累加,显示到Area里 public void onResult (RecognizerResult results, boolean islast) { DebugLog.Log( "onResult enter" ); // 如果要解析json结果,请考本项目示例的 com.iflytek.util.JsonParser类 String text = JsonParser.parseIatResult(results.getResultString()); // String text = results.getResultString(); // JsonParser json = new JsonParser(); // String newTest = json.parseIatResult(text); // textArea.setText(newTest); textArea.append(text); text = textArea.getText(); if ( null != text) { int n = text.length() / TEXT_COUNT + 1 ; int fontSize = Math.max( 10 , DEF_FONT_SIZE - 2 * n); DebugLog.Log( "onResult new font size=" + fontSize); int style = n > 1 ? Font.PLAIN : DEF_FONT_SIZE; Font newFont = new Font(DEF_FONT_NAME, style, fontSize); textArea.setFont(newFont); if (islast) { iatSpeechInitUI(); public void onVolumeChanged ( int volume) { DebugLog.Log( "onVolumeChanged enter" ); if (volume == 0 ) volume = 1 ; else if (volume >= 6 ) volume = 6 ; // labelWav.setIcon(new ImageIcon("res/mic_0" + volume + ".png")); public void onError (SpeechError error) { DebugLog.Log( "onError enter" ); if ( null != error) { DebugLog.Log( "onError Code:" + error.getErrorCode()); textArea.setText(error.getErrorDescription( true )); iatSpeechInitUI(); public void onEvent ( int eventType, int arg1, int agr2, String msg) { DebugLog.Log( "onEvent enter" ); * 听写结束,恢复初始状态 public void iatSpeechInitUI () { // labelWav.setIcon(new ImageIcon("res/mic_01.png")); // jbtnRecognizer.setEnabled(true); // ((JLabel) jbtnRecognizer.getComponent(0)).setText("开始听写"); public static void main (String[] args) { // 初始化 StringBuffer param = new StringBuffer(); param.append( "appid=" + Version.getAppid() ); // param.append( ","+SpeechConstant.LIB_NAME_32+"=myMscName" ); SpeechUtility.createUtility( param.toString() ); VoiceSpeech t = new VoiceSpeech();

1.SpeechRecognizer类,语音识别类,语音识别,包括听写、语法识别功能。本类使用单例,调用者使用本类的对象,只需要通过createRecognizer()创建 一次对象后,便可一直使用该对象,直到通过调用destroy()进行单例对象销毁。调 用者可通过getRecognizer()获取当前已经创建的单例。我们在一开始导包,把相应的类导入,然后声明语音识别类,然后在VoiceSpeech类的构造器中初始化。

2.在SpeechRecognizer类中有很多有关语音识别的方法,

(1)startListening方法,开始进行语音识别,其方法的参数是一个回调函数,这个方法是另一个类RecognizerListener声明的实例,在其匿名内部类中重写关键的方法,借此到底我们想要的结果,我们在onResult方法中重写,把识别的结果通过json解析之后(识别的结果默认是json格式),把它依次添加到文本栏上面,之后我们对文本栏的内容进行文字字体大小等的设定

(2)stopListening方法,等录音结束之后,调用该方法,把录音结果通过网络传输给讯飞远程识别平台进行解析,解析完成之后,把解析结果传送过来

3.在main方法中先要进行SpeechUtility.createUtility,这是讯飞SDK的初始化,相当于远程连接讯飞识别平台,因为Java现在还不支持离线识别,所以在进行识别方法调用之前,必须连接讯飞开发平台,这个方法的作用正是如此,其参数就是不同的识别版本

4.因为很多方法都是讯飞提供的,所以我们需要导入相应的包

import com .iflytek .cloud .speech .RecognizerListener ; import com .iflytek .cloud .speech .RecognizerResult ; import com .iflytek .cloud .speech .SpeechError ; import com .iflytek .cloud .speech .SpeechRecognizer ; import com .iflytek .cloud .speech .SpeechUtility ; import com .iflytek .util .DebugLog ; import com .iflytek .util .JsonParser ;//json解析类 import com .iflytek .util .Version ;//版本类

这些在SDK 中都有

最终的结果

ps:因为只是注重识别功能,所以界面很丑。。。

——利用讯飞开发平台作为第三方库首先需要在讯飞开发平台下载SDK,网址为,讯飞开发平台,这些SDK 下载都是免费的,当然你需要先注册。在SDK 中不仅包含相应的jar包,还有一些相应的demo,可以供你参考学习在我们下载下来第一个SDK 之后就可以进行开发了,讯飞的SDK 给我们提供了详尽而强大的函数支持,下面我就从代码的角度来进行一些解释。代码package myV...
可以离线识别,但是暂时只有一个小的语音库,识别准确率特别低。如果谁有训练语音库的方法希望可以分享一下。谢谢!springboot框架搭的一个小demo。原文地址还有前端页面html和js,有录音,播放,翻译等小功能,详情见下边原文地址。 原文: java 离线 文语音文字识别 - Rolay - 博客园转载注明出处:https://www.cnblogs.com/rolayblog/p/15237099.html 项目需要,要 实现 类似小爱同学的语音控制功能,并且要离线,不能花公司一分钱。...
科大讯飞SDK使用研究 语音听写(主要对象 SpeechRecognizer)初始化SpeechRecognizer recognizer=SpeechRecognizer.createRecognizer(activity,initListener);设置参数 /** * 参数设置,可设置的参数有: * 1.引擎类型 SpeechConstant.ENGINE_TYPE ,可选值
策略 1——停止挖掘 Law of Holes 是说当自己进洞就应该停止挖掘。对于单体式应用不可管理时这是最佳建议。换句话说,应该停止让单体式应用继续变大,也就是说当开发新功能时不应该为旧单体应用添加新代码,最佳方法应该是将新功能开发成独立微服务。如下图所示: 除了新服务和传统应用,还有两个模块,其一是请求路由器,负责处理入口(http)请求,有点像之前提到的 API 网关。路由器将新功能请求发送给新开发的服务,而将传统请求还发给单体式应用。 另外一个是胶水代码(glue code),将微服务和单体应用集
语音识别 (ASR)【长语音】 语音识别 (Automatic Speech Recognition)是以语音为研究对象,通过语音信号处理和模式识别让机器自动识别和理解人类口述的语。 语音识别 技术就是让机器通过识别和理解过程把语音信号转变为相应的文本或命令的高技术。 语音识别 是一门涉及面很广的交叉学科,它与声学、语音学、语言学、信息理论、模式识别理论以及神经生物学等学科都有非常密切的关系。 sdk基于DeepSpeech2模型 实现 语音识别 ,识别效果不错。 DeepSpeech2是基于PaddlePaddle