失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > 科大讯飞语音识别和语音合成//////-08-17

科大讯飞语音识别和语音合成//////-08-17

时间:2021-07-30 10:00:34

相关推荐

科大讯飞语音识别和语音合成//////-08-17

科大讯飞语音识别和语音合成

暑假搞了一个基于中医药的智能问答app,今天整理一下开发过程和用到的技术等,开发中遇到了一个语音识别以及合成的功能最后用科大讯飞提供的语音识别接口实现。

1、先上实现代码(官方文档里也有)

添加权限

<!-- 连接网络权限,用于执行云端语音能力 --><uses-permission android:name="android.permission.INTERNET" /> <!-- 获取手机录音机使用权限,听写、识别、语义理解需要用到此权限 --><uses-permission android:name="android.permission.RECORD_AUDIO" /> <!-- 读取网络信息状态 --><uses-permission android:name="android.permission.ACCESS_NETWORK_STATE" /> <!-- 获取当前wifi状态 --><uses-permission android:name="android.permission.ACCESS_WIFI_STATE" /> <!-- 允许程序改变网络连接状态 --><uses-permission android:name="android.permission.CHANGE_NETWORK_STATE" /> <!-- 读取手机信息权限 --><uses-permission android:name="android.permission.READ_PHONE_STATE" /> <!-- 读取联系人权限,上传联系人需要用到此权限 --><uses-permission android:name="android.permission.READ_CONTACTS" /><uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE" />

JsonParser工具类用于解析json

package com.example.myapplication;import org.json.JSONArray ;import org.json.JSONObject ;import org.json.JSONTokener ;/*** Json结果解析类*/public class JsonParser {public static String parseIatResult(String json) {StringBuffer ret = new StringBuffer() ;try {JSONTokener tokener = new JSONTokener(json) ;JSONObject joResult = new JSONObject(tokener) ;JSONArray words = joResult.getJSONArray("ws" );for (int i = 0; i < words.length(); i++) {// 转写结果词,默认使用第一个结果JSONArray items = words.getJSONObject(i).getJSONArray("cw" );JSONObject obj = items.getJSONObject(0 );ret.append(obj.getString("w" ));// 如果需要多候选结果,解析数组其他字段// for(int j = 0; j < items.length(); j++)// {// JSONObject obj = items.getJSONObject(j);// ret.append(obj.getString("w"));// }}} catch (Exception e) {e.printStackTrace();}return ret.toString();}public static String parseGrammarResult(String json) {StringBuffer ret = new StringBuffer() ;try {JSONTokener tokener = new JSONTokener(json) ;JSONObject joResult = new JSONObject(tokener) ;JSONArray words = joResult.getJSONArray("ws" );for (int i = 0; i < words.length(); i++) {JSONArray items = words.getJSONObject(i).getJSONArray("cw" );for (int j = 0; j < items.length() ; j++){JSONObject obj = items.getJSONObject(j);if (obj.getString("w").contains( "nomatch")){ret.append( "没有匹配结果.") ;return ret.toString();}ret.append( "【结果】" + obj.getString("w" ));ret.append("【置信度】 " + obj.getInt("sc" ));ret.append("\n ");}}} catch (Exception e) {e.printStackTrace();ret.append(" 没有匹配结果 .");}return ret.toString();}public static String parseLocalGrammarResult(String json) {StringBuffer ret = new StringBuffer() ;try {JSONTokener tokener = new JSONTokener(json) ;JSONObject joResult = new JSONObject(tokener) ;JSONArray words = joResult.getJSONArray("ws" );for (int i = 0; i < words.length(); i++) {JSONArray items = words.getJSONObject(i).getJSONArray("cw" );for (int j = 0; j < items.length() ; j++){JSONObject obj = items.getJSONObject(j);if (obj.getString("w").contains( "nomatch")){ret.append( "没有匹配结果.") ;return ret.toString();}ret.append( "【结果】" + obj.getString("w" ));ret.append("\n ");}}ret.append("【置信度】 " + joResult.optInt("sc" ));} catch (Exception e) {e.printStackTrace();ret.append(" 没有匹配结果 .");}return ret.toString();}}

代码实现

package com.example.myapplication;import android.app.Activity ;import android.os.Bundle ;import android.util.Log ;import android.view.View ;import android.widget.Button ;import android.widget.EditText ;import android.widget.Toast ;import com.iflytek.cloud.ErrorCode ;import com.iflytek.cloud.InitListener ;import com.iflytek.cloud.RecognizerListener ;import com.iflytek.cloud.RecognizerResult ;import com.iflytek.cloud.SpeechConstant ;import com.iflytek.cloud.SpeechError ;import com.iflytek.cloud.SpeechRecognizer ;import com.iflytek.cloud.SpeechSynthesizer ;import com.iflytek.cloud.SpeechUtility ;import com.iflytek.cloud.SynthesizerListener ;import com.iflytek.cloud.ui.RecognizerDialog ;import com.iflytek.cloud.ui.RecognizerDialogListener ;import org.json.JSONException ;import org.json.JSONObject ;import java.util.HashMap ;import java.util.LinkedHashMap ;public class MainActivity3 extends Activity implements View.OnClickListener {private static final String TAG = MainActivity.class .getSimpleName();private EditText et_input;private Button btn_startspeech;Button btn_startspeektext;// 用HashMap存储听写结果private HashMap<String, String> mIatResults = new LinkedHashMap<String , String>();@Overrideprotected void onCreate(Bundle savedInstanceState) {super .onCreate(savedInstanceState) ;initView();SpeechUtility.createUtility(this,SpeechConstant.APPID+"=5f24232a");//接入appid}public void initView() {setContentView(R.layout.activity_main3);et_input = (EditText) findViewById(R.id.et_input);btn_startspeech = findViewById(R.id.btn_startspeech);btn_startspeektext = findViewById(R.id.btn_startspeektext);btn_startspeech.setOnClickListener(this) ;btn_startspeektext .setOnClickListener(this) ;}@Overridepublic void onClick(View v) {switch (v.getId()) {case R.id.btn_startspeech://语音识别(把声音转文字)startSpeechDialog();break;case R.id. btn_startspeektext:// 语音合成(把文字转声音)speekText();break;}}private void speekText() {//1. 创建 SpeechSynthesizer 对象 , 第二个参数: 本地合成时传 InitListenerSpeechSynthesizer mTts = SpeechSynthesizer.createSynthesizer( this, null);//2.合成参数设置,详见《 MSC Reference Manual》 SpeechSynthesizer 类//设置发音人(更多在线发音人,用户可参见 附录 13.2mTts.setParameter(SpeechConstant. VOICE_NAME, "aisbabyxu" ); // 设置发音人mTts.setParameter(SpeechConstant. SPEED, "30" );// 设置语速mTts.setParameter(SpeechConstant. VOLUME, "70" );// 设置音量,范围 0~100mTts.setParameter(SpeechConstant. ENGINE_TYPE, SpeechConstant. TYPE_CLOUD); //设置云端//设置合成音频保存位置(可自定义保存位置),保存在 “./sdcard/iflytek.pcm”//保存在 SD 卡需要在 AndroidManifest.xml 添加写 SD 卡权限//仅支持保存为 pcm 和 wav 格式, 如果不需要保存合成音频,注释该行代码//mTts.setParameter(SpeechConstant. TTS_AUDIO_PATH, "./sdcard/iflytek.pcm" );//3.开始合成mTts.startSpeaking( et_input.getText().toString(), new MySynthesizerListener()) ;}class MySynthesizerListener implements SynthesizerListener {@Overridepublic void onSpeakBegin() {showTip(" 开始播放 ");}@Overridepublic void onSpeakPaused() {showTip(" 暂停播放 ");}@Overridepublic void onSpeakResumed() {showTip(" 继续播放 ");}@Overridepublic void onBufferProgress(int percent, int beginPos, int endPos ,String info) {// 合成进度}@Overridepublic void onSpeakProgress(int percent, int beginPos, int endPos) {// 播放进度}@Overridepublic void onCompleted(SpeechError error) {if (error == null) {showTip("播放完成 ");} else if (error != null ) {showTip(error.getPlainDescription( true));}}@Overridepublic void onEvent(int eventType, int arg1 , int arg2, Bundle obj) {// 以下代码用于获取与云端的会话 id,当业务出错时将会话 id提供给技术支持人员,可用于查询会话日志,定位出错原因// 若使用本地能力,会话 id为null//if (SpeechEvent.EVENT_SESSION_ID == eventType) {//String sid = obj.getString(SpeechEvent.KEY_EVENT_SESSION_ID);//Log.d(TAG, "session id =" + sid);//}}}private void startSpeechDialog() {//1. 创建RecognizerDialog对象RecognizerDialog mDialog = new RecognizerDialog(MainActivity3.this, new MyInitListener()) ;//2. 设置accent、 language等参数mDialog.setParameter(SpeechConstant.LANGUAGE,"zh_cn");// 设置中文mDialog.setParameter(SpeechConstant.ACCENT,"mandarin");//普通话// 若要将UI控件用于语义理解,必须添加以下参数设置,设置之后 onResult回调返回将是语义理解// 结果// mDialog.setParameter("asr_sch", "1");// mDialog.setParameter("nlp_version", "2.0");//3.设置回调接口mDialog.setListener( new MyRecognizerDialogListener()) ;//4. 显示dialog,接收语音输入mDialog.show() ;}class MyRecognizerDialogListener implements RecognizerDialogListener {/*** @param results* @param isLast 是否说完了*/@Overridepublic void onResult(RecognizerResult results, boolean isLast) {String result = results.getResultString(); //为解析的showTip(result) ;System. out.println(" 没有解析的 :" + result);String text = JsonParser.parseIatResult(result) ;//解析过后的System. out.println(" 解析后的 :" + text);String sn = null;// 读取json结果中的 sn字段try {JSONObject resultJson = new JSONObject(results.getResultString()) ;sn = resultJson.optString("sn" );} catch (JSONException e) {e.printStackTrace();}mIatResults .put(sn, text) ;//没有得到一句,添加到StringBuffer resultBuffer = new StringBuffer();for (String key : mIatResults.keySet()) {resultBuffer.append(mIatResults .get(key));}//et_input.setText(resultBuffer.toString());// 设置输入框的文本------------------------------------et_input .setSelection(et_input.length()) ;//把光标定位末尾}@Overridepublic void onError(SpeechError speechError) {}}class MyInitListener implements InitListener {@Overridepublic void onInit(int code) {if (code != ErrorCode.SUCCESS) {showTip("初始化失败 ");}}}/*** 语音识别*/private void startSpeech() {//1. 创建SpeechRecognizer对象,第二个参数: 本地识别时传 InitListenerSpeechRecognizer mIat = SpeechRecognizer.createRecognizer( this, null); //语音识别器//2. 设置听写参数,详见《 MSC Reference Manual》 SpeechConstant类mIat.setParameter(SpeechConstant. DOMAIN, "iat" );// 短信和日常用语: iat (默认)mIat.setParameter(SpeechConstant. LANGUAGE, "zh_cn" );// 设置中文mIat.setParameter(SpeechConstant. ACCENT, "mandarin" );// 设置普通话//3. 开始听写mIat.startListening( mRecoListener);}// 听写监听器private RecognizerListener mRecoListener = new RecognizerListener() {// 听写结果回调接口 (返回Json 格式结果,用户可参见附录 13.1);//一般情况下会通过onResults接口多次返回结果,完整的识别内容是多次结果的累加;//关于解析Json的代码可参见 Demo中JsonParser 类;//isLast等于true 时会话结束。public void onResult(RecognizerResult results, boolean isLast) {Log.e (TAG, results.getResultString());System.out.println(results.getResultString()) ;showTip(results.getResultString()) ;}// 会话发生错误回调接口public void onError(SpeechError error) {showTip(error.getPlainDescription(true)) ;// 获取错误码描述Log. e(TAG, "error.getPlainDescription(true)==" + error.getPlainDescription(true ));}// 开始录音public void onBeginOfSpeech() {showTip(" 开始录音 ");}//volume 音量值0~30, data音频数据public void onVolumeChanged(int volume, byte[] data) {showTip(" 声音改变了 ");}// 结束录音public void onEndOfSpeech() {showTip(" 结束录音 ");}// 扩展用接口public void onEvent(int eventType, int arg1 , int arg2, Bundle obj) {}};private void showTip (String data) {Toast.makeText( this, data, Toast.LENGTH_SHORT).show() ;}}

布局文件

<?xml version="1.0" encoding="utf-8"?><androidx.constraintlayout.widget.ConstraintLayout xmlns:android="/apk/res/android"xmlns:app="/apk/res-auto"xmlns:tools="/tools"android:layout_width="match_parent"android:layout_height="match_parent"tools:context=".MainActivity3"><LinearLayout xmlns:android= "/apk/res/android"android:layout_width="match_parent"android:layout_height="match_parent"android:orientation="vertical"><EditTextandroid:id="@+id/et_input"android:layout_margin="10dp"android:layout_width="match_parent"android:layout_height="80dp"android:hint="请输入文本信息 ..." /><Buttonandroid:id="@+id/btn_startspeech"android:text="点击按钮语音输入 "android:layout_width="match_parent"android:layout_height="wrap_content" /><Buttonandroid:id="@+id/btn_startspeektext"android:text="语音合成(把文字转声音) "android:layout_width="match_parent"android:layout_height="wrap_content" /></LinearLayout></androidx.constraintlayout.widget.ConstraintLayout>

目录配置(由于刚开始用不熟悉如何集成用了网上很多方法都是不行,一气之下把东西都放在了网上说的每一个目录下,最后竟然可以了!!!不知道为啥,结果就是app最后体积太大,可是也没啥好办法了,哎)

如果觉得《科大讯飞语音识别和语音合成//////-08-17》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。