import com.iflytek.cloud.speech.RecognizerListener; import com.iflytek.cloud.speech.RecognizerResult; import com.iflytek.cloud.speech.SpeechError; import com.iflytek.cloud.speech.SpeechRecognizer; import com.iflytek.cloud.speech.SpeechUtility; import com.iflytek.util.DebugLog; import com.iflytek.util.JsonParser; import com.iflytek.util.Version; public class VoiceSpeech extends Frame implements ActionListener { Button startBtn; Button stopBtn; TextArea textArea; // 语音听写对象 SpeechRecognizer speechRecognize; private static final String DEF_FONT_NAME = "宋体"; private static final int DEF_FONT_STYLE = Font.BOLD; private static final int DEF_FONT_SIZE = 30; private static final int TEXT_COUNT = 100; public VoiceSpeech() { // 初始化听写对象 speechRecognize = SpeechRecognizer.createRecognizer(); // 设置组件 startBtn = new Button("start"); stopBtn = new Button("stop"); textArea = new TextArea(); Panel btnPanel = new Panel(); Panel textPanel = new Panel(); // Button startBtn = new Button("开始"); //添加监听器 startBtn.addActionListener(this); stopBtn.addActionListener(this); btnPanel.add(startBtn); btnPanel.add(stopBtn); textPanel.add(textArea); add(btnPanel); add(textPanel); // 设置窗体 setLayout(new GridLayout(2, 1)); setSize(400, 300); setTitle("语音识别"); setLocation(200, 200); setVisible(true); public void actionPerformed(ActionEvent e) { if (e.getSource() == startBtn) { textArea.setText("*************你说的是:"); if (!speechRecognize.isListening()) speechRecognize.startListening(recognizerListener); speechRecognize.stopListening(); } else if (e.getSource() == stopBtn) { speechRecognize.stopListening(); * 听写监听器 private RecognizerListener recognizerListener = new RecognizerListener() { public void onBeginOfSpeech() { // DebugLog.Log( "onBeginOfSpeech enter" ); // ((JLabel) jbtnRecognizer.getComponent(0)).setText("听写中..."); // jbtnRecognizer.setEnabled(false); public void onEndOfSpeech() { DebugLog.Log("onEndOfSpeech enter"); * 获取听写结果. 获取RecognizerResult类型的识别结果,并对结果进行累加,显示到Area里 public void onResult(RecognizerResult results, boolean islast) { DebugLog.Log("onResult enter"); // 如果要解析json结果,请考本项目示例的 com.iflytek.util.JsonParser类 String text = JsonParser.parseIatResult(results.getResultString()); // String text = results.getResultString(); // JsonParser json = new JsonParser(); // String newTest = json.parseIatResult(text); // textArea.setText(newTest); textArea.append(text); text = textArea.getText(); if (null != text) { int n = text.length() / TEXT_COUNT + 1; int fontSize = Math.max(10, DEF_FONT_SIZE - 2 * n); DebugLog.Log("onResult new font size=" + fontSize); int style = n > 1 ? Font.PLAIN : DEF_FONT_SIZE; Font newFont = new Font(DEF_FONT_NAME, style, fontSize); textArea.setFont(newFont); if (islast) { iatSpeechInitUI(); public void onVolumeChanged(int volume) { DebugLog.Log("onVolumeChanged enter"); if (volume == 0) volume = 1; else if (volume >= 6) volume = 6; // labelWav.setIcon(new ImageIcon("res/mic_0" + volume + ".png")); public void onError(SpeechError error) { DebugLog.Log("onError enter"); if (null != error) { DebugLog.Log("onError Code:" + error.getErrorCode()); textArea.setText(error.getErrorDescription(true)); iatSpeechInitUI(); public void onEvent(int eventType, int arg1, int agr2, String msg) { DebugLog.Log("onEvent enter"); * 听写结束,恢复初始状态 public void iatSpeechInitUI() { // labelWav.setIcon(new ImageIcon("res/mic_01.png")); // jbtnRecognizer.setEnabled(true); // ((JLabel) jbtnRecognizer.getComponent(0)).setText("开始听写"); public static void main(String[] args) { // 初始化 StringBuffer param = new StringBuffer(); param.append( "appid=" + Version.getAppid() ); // param.append( ","+SpeechConstant.LIB_NAME_32+"=myMscName" ); SpeechUtility.createUtility( param.toString() ); VoiceSpeech t = new VoiceSpeech();

1.SpeechRecognizer类,语音识别类,语音识别,包括听写、语法识别功能。本类使用单例,调用者使用本类的对象,只需要通过createRecognizer()创建 一次对象后,便可一直使用该对象,直到通过调用destroy()进行单例对象销毁。调 用者可通过getRecognizer()获取当前已经创建的单例。我们在一开始导包,把相应的类导入,然后声明语音识别类,然后在VoiceSpeech类的构造器中初始化。

2.在SpeechRecognizer类中有很多有关语音识别的方法,

(1)startListening方法,开始进行语音识别,其方法的参数是一个回调函数,这个方法是另一个类RecognizerListener声明的实例,在其匿名内部类中重写关键的方法,借此到底我们想要的结果,我们在onResult方法中重写,把识别的结果通过json解析之后(识别的结果默认是json格式),把它依次添加到文本栏上面,之后我们对文本栏的内容进行文字字体大小等的设定

(2)stopListening方法,等录音结束之后,调用该方法,把录音结果通过网络传输给讯飞远程识别平台进行解析,解析完成之后,把解析结果传送过来

3.在main方法中先要进行SpeechUtility.createUtility,这是讯飞SDK的初始化,相当于远程连接讯飞识别平台,因为Java现在还不支持离线识别,所以在进行识别方法调用之前,必须连接讯飞开发平台,这个方法的作用正是如此,其参数就是不同的识别版本

4.因为很多方法都是讯飞提供的,所以我们需要导入相应的包

import com.iflytek.cloud.speech.RecognizerListener; import com.iflytek.cloud.speech.RecognizerResult; import com.iflytek.cloud.speech.SpeechError; import com.iflytek.cloud.speech.SpeechRecognizer; import com.iflytek.cloud.speech.SpeechUtility; import com.iflytek.util.DebugLog; import com.iflytek.util.JsonParser;//json解析类 import com.iflytek.util.Version;//版本类

这些在SDK 中都有

最终的结果

ps:因为只是注重识别功能,所以界面很丑。。。