讯飞离线语音合成新版(Aikit)-android sdk合成 demo(Java版本)

这篇具有很好参考价值的文章主要介绍了讯飞离线语音合成新版(Aikit)-android sdk合成 demo(Java版本)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言:科大讯飞的新版离线语音合成,由于官网demo是kt语言开发的,咱也看不懂kt,搜遍了全网也没看到一个java版的新版离线语音demo,现记录下,留给有缘人参考!!!!!毕竟咱在这上面遇到了不少的坑。如果能留言指正,那就更好了。

第一步:

​ 官网注册账号---》实名认证---》点击语音合成---》离线语音合成(新版)---》android sdk下载

​ sdk:下载的sdk是和当前账号绑定的,文档上方有appkey,secret等等

第二步:

​ 安卓项目中设置以下权限,在AndroidManifest.xml中

    <!--连接网络权限,用于执行云端语音能力 -->
    <uses-permission android:name="android.permission.INTERNET"/>
    <!--获取手机录音机使用权限,听写、识别、语义理解需要用到此权限 -->
    <uses-permission android:name="android.permission.RECORD_AUDIO"/>
    <!--读取网络信息状态 -->
    <uses-permission android:name="android.permission.ACCESS_NETWORK_STATE"/>
    <!--获取当前wifi状态 -->
    <uses-permission android:name="android.permission.ACCESS_WIFI_STATE"/>
    <!--允许程序改变网络连接状态 -->
    <uses-permission android:name="android.permission.CHANGE_NETWORK_STATE"/>
    <!--读取手机信息权限 -->
    <uses-permission android:name="android.permission.READ_PHONE_STATE"/>
    <!--读取联系人权限,上传联系人需要用到此权限 -->
    <uses-permission android:name="android.permission.READ_CONTACTS"/>
    <!--外存储写权限,构建语法需要用到此权限 -->
    <uses-permission android:name="android.permission.WRITE_EXTERNAL_STORAGE"/>
    <!--外存储读权限,构建语法需要用到此权限 -->
    <uses-permission android:name="android.permission.READ_EXTERNAL_STORAGE"/>
    <!--手机定位信息,用来为语义等功能提供定位,提供更精准的服务-->
    <!--定位信息是敏感信息,可通过Setting.setLocationEnable(false)关闭定位请求 -->
    <uses-permission android:name="android.permission.ACCESS_FINE_LOCATION"/>
    <!--如需使用人脸识别,还要添加:摄相头权限,拍照需要用到 -->
    <uses-permission android:name="android.permission.CAMERA" />

    <!--配置权限,用来记录应用配置信息 -->
    <uses-permission android:name="android.permission.WRITE_SETTINGS"
        tools:ignore="ProtectedPermissions" />
    android:requestLegacyExternalStorage="true"

第三步:

​ 获取设备外部存储权限,后续需要把发音人的音频文件拷贝到设备中

    /**
     * 查看当前设备是否有存储权限:
     *      没有:请求获取权限
     *      有:复制当前项目assets下的xtts文件夹到设备根目录下(语音合成所必须的文件)
     * @param context
     */
    private void requestStoragePermission(Context context) {
        if (ContextCompat.checkSelfPermission(context, Manifest.permission.WRITE_EXTERNAL_STORAGE)
                != PackageManager.PERMISSION_GRANTED) {
            ActivityCompat.requestPermissions(this,
                    new String[]{Manifest.permission.WRITE_EXTERNAL_STORAGE},
                    REQUEST_STORAGE_PERMISSION);
        }
    }

    /**
     * 请求获取存储权限
     * @param requestCode
     * @param permissions
     * @param grantResults
     */
    @Override
    public void onRequestPermissionsResult(int requestCode, String[] permissions, int[] grantResults) {
        super.onRequestPermissionsResult(requestCode, permissions, grantResults);
        if (requestCode == REQUEST_STORAGE_PERMISSION) {
            if (grantResults.length > 0 && grantResults[0] == PackageManager.PERMISSION_GRANTED) {
                Log.i(TAG, "onRequestPermissionsResult: permission granted");
                //再次判断存储权限是否已授予
                boolean permission = FileUtils.hasStoragePermission(getApplicationContext());
                if (!permission) {
                    Toast.makeText(getApplicationContext(), "没有存储权限,请重新获取!", Toast.LENGTH_SHORT).show();
                    return;
                }
                // 应用具有存储权限
                Log.i(TAG,"成功获取存储权限!");
                //判断xtts文件是否存在,不存在则复制,存在则忽略
                FileUtils.createXttsDirAndCopyFile(getApplicationContext());
            } else {
                Log.i(TAG, "onRequestPermissionsResult: permission denied");
                Toast.makeText(this, "You Denied Permission", Toast.LENGTH_SHORT).show();
            }
        }
    }

第四步:

​ 拷贝五个发音人的资源文件到当前设备的xtts文件目录下。这个文件在官方的demo文件中:

package com.epean.store.utils;

import android.Manifest;
import android.content.Context;
import android.content.pm.PackageManager;
import android.content.res.AssetManager;
import android.os.Build;
import android.os.Environment;
import android.util.Log;


import com.epean.store.R;

import java.io.File;
import java.io.FileOutputStream;
import java.io.IOException;
import java.io.InputStream;
import java.io.OutputStream;

/**
 * 讯飞语音合成文件复制公共功能
 *	以下五个文件:
 *		e3fe94474_1.0.0_xTTS_CnCn_xiaoyan_2018_arm.irf
*		e4b08c6f3_1.0.0_xTTS_CnCn_xiaofeng_2018_fix_arm.dat
*		e4caee636_1.0.2_xTTS_CnCn_front_Emb_arm_2017.irf
*		e05d571cc_1.0.0_xTTS_CnCn_xiaoyan_2018_fix_arm.dat
*		ebdbd61ae_1.0.0_xTTS_CnCn_xiaofeng_2018_arm.irf
 */
public class FileUtils {
    private static final String TAG = "FileUtils";
    // 获取外部存储路径
    public static String getExternalStoragePath() {
        return Environment.getExternalStorageDirectory().getAbsolutePath();
    }

    // 创建xtts目录
    public static void createDirectory(String directoryPath) {
        File directory = new File(directoryPath);
        if (!directory.exists()) {
            if (directory.mkdirs()) {
                Log.d(TAG, "Directory created: " + directoryPath);
            } else {
                Log.e(TAG, "Failed to create directory: " + directoryPath);
            }
        } else {
            Log.d(TAG, "Directory already exists: " + directoryPath);
        }
    }

    // 判断目录是否为空
    public static boolean isDirectoryEmpty(String directoryPath) {
        File directory = new File(directoryPath);
        if (directory.exists() && directory.isDirectory()) {
            File[] files = directory.listFiles();
            return files == null || files.length == 0;
        }
        return true;
    }

    // 递归复制文件
    public static void copyFiles(Context context, String sourceDir, String destinationDir) throws IOException {
        AssetManager assetManager = context.getAssets();
        String[] files = assetManager.list(sourceDir);
        if (files != null && files.length > 0) {
            createDirectory(destinationDir);
            for (String fileName : files) {
                String sourcePath = sourceDir + File.separator + fileName;
                String destinationPath = destinationDir + File.separator + fileName;

                if (assetManager.list(sourcePath).length > 0) {
                    // 如果是目录,递归复制目录
                    copyFiles(context, sourcePath, destinationPath);
                } else {
                    // 如果是文件,复制文件
                    copyFile(context, sourcePath, destinationPath);
                }
            }
        }
    }

    // 复制文件
    public static void copyFile(Context context, String sourcePath, String destinationPath) throws IOException {
        InputStream inputStream = null;
        OutputStream outputStream = null;

        try {
            inputStream = context.getAssets().open(sourcePath);
            outputStream = new FileOutputStream(destinationPath);
            byte[] buffer = new byte[4096];
            int length;
            while ((length = inputStream.read(buffer)) > 0) {
                outputStream.write(buffer, 0, length);
            }
            Log.d(TAG, "File copied: " + destinationPath);
        } finally {
            if (inputStream != null) {
                try {
                    inputStream.close();
                } catch (IOException e) {
                    Log.e(TAG, "Failed to close input stream", e);
                }
            }
            if (outputStream != null) {
                try {
                    outputStream.close();
                } catch (IOException e) {
                    Log.e(TAG, "Failed to close output stream", e);
                }
            }
        }
    }

    /**
     * 创建讯飞语音合成所必须的目录:xtts并复制音频文件
     * @param context
     */
    public static void createXttsDirAndCopyFile(Context context){
        // 获取外部存储路径
        String externalStoragePath = FileUtils.getExternalStoragePath();

        String xttsFolderPath = externalStoragePath + File.separator + context.getString(R.string.dir);
        // 创建xtts文件夹
        FileUtils.createDirectory(xttsFolderPath);
        // 判断xtts文件夹是否为空
        if (FileUtils.isDirectoryEmpty(xttsFolderPath)) {
            // 复制assets目录下的xtts文件夹中的所有文件到外部存储的xtts文件夹中
            try {
                FileUtils.copyFiles(context, context.getString(R.string.dir), xttsFolderPath);
            } catch (IOException e) {
                Log.e(TAG, "文件复制失败"+e.getMessage());
            }
        } else {
            // xtts文件夹不为空
            Log.d(TAG, "xtts folder is not empty. Skipping the operation.");
        }
    }

    public static boolean hasStoragePermission(Context context) {
        if (Build.VERSION.SDK_INT >= Build.VERSION_CODES.M) {
            int permissionResult = context.checkSelfPermission(Manifest.permission.WRITE_EXTERNAL_STORAGE);
            return permissionResult == PackageManager.PERMISSION_GRANTED;
        }
        return true;
    }

}

第五步:

​ 通用工具播放类,实现代码如下:

​ initSDK() :sdk整个项目只需要初始化一次

​ playAudio(String content, Context context):播放通用方法文章来源地址https://www.toymoban.com/news/detail-505092.html

package com.epean.store.utils;

import android.content.Context;
import android.media.AudioFormat;
import android.media.AudioManager;
import android.media.AudioTrack;
import android.os.Environment;
import android.util.Log;

import androidx.annotation.NonNull;

import com.epean.store.R;
import com.iflytek.aikit.core.AiEvent;
import com.iflytek.aikit.core.AiHandle;
import com.iflytek.aikit.core.AiHelper;
import com.iflytek.aikit.core.AiListener;
import com.iflytek.aikit.core.AiRequest;
import com.iflytek.aikit.core.AiResponse;
import com.iflytek.aikit.core.AiText;
import com.iflytek.aikit.core.AuthListener;
import com.iflytek.aikit.core.ErrType;


import org.apache.commons.lang3.StringUtils;

import java.io.File;

import java.util.List;

public class AudioPlayByKeyUtils {
    private static final String TAG = "AudioPlayByKeyUtils";
    private static int sampleRateInHz = 16000;
    private static int channelConfig = AudioFormat.CHANNEL_OUT_MONO;
    private static int audioFormat = AudioFormat.ENCODING_PCM_16BIT;
    private static int bufferSizeInBytes = AudioTrack.getMinBufferSize(sampleRateInHz, channelConfig, audioFormat);
    //语音合成文件缓存数组
    private static byte[] cacheArray;
    private static AiHandle handle;
    //播放组件
    private static AudioTrack audioTrack = new AudioTrack(AudioManager.STREAM_MUSIC, sampleRateInHz, channelConfig, audioFormat, bufferSizeInBytes, AudioTrack.MODE_STREAM);
    //SDK初始化
    public static void initSDK(Context context){
        try {
            //外部存储绝对路径
            File externalStorageDirectory = Environment.getExternalStorageDirectory();
            // 初始化参数构建
            AiHelper.Params params = AiHelper.Params.builder()
                    .appId(context.getString(R.string.appId))
                    .apiKey(context.getString(R.string.apiKey))
                    .apiSecret(context.getString(R.string.apiSecret))
                    .workDir(externalStorageDirectory.getAbsolutePath() +File.separator+ context.getString(R.string.dir))//SDK工作路径,这里为绝对路径
                    .authInterval(60*60*24) //授权更新间隔
                    .build();
            // 初始化
            AiHelper.getInst().init(context, params);
            // 注册SDK 初始化状态监听
            AiHelper.getInst().registerListener(coreListener);
            // 注册能力结果监听
            AiHelper.getInst().registerListener(context.getString(R.string.enginID), aiRespListener);
        }catch (Exception e){
            Log.e(TAG,"语音合成初始化出现异常"+e.getMessage());
        }
    }

    public static void playAudio(String content, Context context){
        if (StringUtils.isEmpty(content)){
            Log.e(TAG,"播报内容不能为空!");
            return;
        }
        //已初始化则略过
        initSDK(context);
        //避免脏数据
        cacheArray = null;
        //音量及播报人等参数设置
        AiRequest.Builder paramBuilder = audioParam();

        handle  = AiHelper.getInst().start(context.getString(R.string.enginID),paramBuilder.build(),null);
        if (!handle.isSuccess()) {
            Log.e(TAG, "ERROR::START | handle code:" + handle.getCode());
            return;
        }

        //自定义文本参数
        AiRequest.Builder dataBuilder = contentParame(content);
        //开始合成,合成结果可通过回调接口获取
        int ret = AiHelper.getInst().write(dataBuilder.build(), handle);
        //ret 值为0 写入成功;非0失败
        if (ret != 0) {
            String error = "start write failed" + ret;
            Log.e(TAG, error);
        }
    }
    /**
     * 封装自定义文本参数
     * @param content
     * @return
     */
    @NonNull
    private static AiRequest.Builder contentParame(String content) {
        AiRequest.Builder dataBuilder = AiRequest.builder();
        //输入文本数据
        AiText textData = AiText
                .get("text")
                .data(content) //输入文本
                .valid();
        dataBuilder.payload(textData);
        return dataBuilder;
    }

    /**
     * 音量及播报人等参数设置
     */
    @NonNull
    private static AiRequest.Builder audioParam() {
        AiRequest.Builder paramBuilder = AiRequest.builder();
        paramBuilder.param("vcn", "xiaoyan");
        paramBuilder.param("language", 1);
        paramBuilder.param("pitch", 50);
        paramBuilder.param("volume", 50);
        paramBuilder.param("speed", 50);
        paramBuilder.param("reg", 0);
        paramBuilder.param("rdn", 0);
        paramBuilder.param("textEncoding", "UTF-8");
        return paramBuilder;
    }

    /**
     * SDK监听回调
     */
    private static AuthListener coreListener = new AuthListener() {
        @Override
        public void onAuthStateChange(final ErrType type, final int code) {
            Log.i(TAG,"core listener code:" + code);
            switch (type) {
                case AUTH:
                    Log.i(TAG,"SDK状态:授权结果码" + code);
                    break;
                case HTTP:
                    Log.i(TAG,"SDK状态:HTTP认证结果" + code);
                    break;
                default:
                    Log.i(TAG,"SDK状态:其他错误");
            }
        }
    };


    /**
     *能力监听回调
     */
    private static AiListener aiRespListener = new AiListener() {
        //获取合成结果,封装到缓存数组中
        @Override
        public void onResult(int handleID, List<AiResponse> outputData, Object usrContext) {
            if (outputData == null || outputData.isEmpty()) {
                return;
            }
            if (null != outputData && outputData.size() > 0) {
                for (int i = 0; i < outputData.size(); i++) {
                    byte[] bytes = outputData.get(i).getValue();
                    if (bytes == null) {
                        continue;
                    }else {
                        if (cacheArray == null) {
                            cacheArray = bytes;
                        } else {
                            byte[] resBytes = new byte[(cacheArray != null ? cacheArray.length : 0) + bytes.length];
                            if (cacheArray != null) {
                                System.arraycopy(cacheArray, 0, resBytes, 0, cacheArray.length);
                            }
                            System.arraycopy(bytes, 0, resBytes, cacheArray != null ? cacheArray.length : 0, bytes.length);
                            cacheArray = resBytes;
                        }
                    }
                }
            }
        }

        @Override
        public void onEvent(int handleID, int event, List<AiResponse> eventData, Object usrContext){
            if (event == AiEvent.EVENT_UNKNOWN.getValue()){
            }
            if (event == AiEvent.EVENT_START.getValue()){
            }
            if (event == AiEvent.EVENT_END.getValue()){
                if (handle != null){
                    int rets = AiHelper.getInst().end(handle);
                    if (rets != 0) {
                        String error = "end failed" + rets;
                        Log.e(TAG, error);
                    }
                }
                cacheArray = null;
            }
            if (event == AiEvent.EVENT_PROGRESS.getValue()){
                if (cacheArray != null) {
                    audioTrack.write(cacheArray, 0, cacheArray.length);
                    audioTrack.play();
                }
            }
        }
        @Override
        public void onError(int handleID, int err, String msg, Object usrContext){
            if (handle != null){
                int rets = AiHelper.getInst().end(handle);
                if (rets != 0) {
                    String error = "end failed" + rets;
                    Log.e(TAG, error);
                }
            }
        }
    };

    /**
     * 释放资源
     */
    public static void destory(){
//        AiHelper.getInst().unInit();
        cacheArray = null;
    }
}

到了这里,关于讯飞离线语音合成新版(Aikit)-android sdk合成 demo(Java版本)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 科大讯飞语音合成Java springboot集成

    科大讯飞语音合成 文本转语音 一、引入依赖: 二、下载响应的sdk,我这里是下载的java win版本的sdk SDK下载 - 科大讯飞api接口 - 讯飞开放平台 三、具体代码: 从下载的依赖里面找到对应文件,给代码里面替换成你的绝对路径,运行即可 备注:这个地方需要你自己的账号下载

    2024年02月15日
    浏览(51)
  • 技术解读 | 科大讯飞语音技术最新进展之二:语音识别与语音合成

    这一篇内容将围绕语音识别与合成方向,继续为大家带来相关技术解析。 “风物长宜放眼量”。面向人机交互更加自然流畅的未来,智能语音技术进展如何?该走向何方? 以下内容根据讯飞研究院杰出科学家潘嘉在NCMMSC 2022上的主题演讲《科大讯飞语音技术前沿进展》整理。

    2024年02月07日
    浏览(61)
  • 微信小程序调用科大讯飞 在线合成语音接口(文字转语音)

    科大讯飞在线文档 https://www.xfyun.cn/doc/tts/online_tts/API.html 科大讯飞调用接口 地址 https://blog.csdn.net/jinxi1112/article/details/122835386 微信小程序base64转ArrayBuffer替代方案 https://www.homedt.net/43939.html 注意点 调用函数 参考大佬的实例 这里说一下注意的点 微信小程序 不支持在线的 base64

    2024年02月10日
    浏览(44)
  • 【虚幻引擎】UE4/UE5科大讯飞文字合成语音

    B站视频链接:https://space.bilibili.com/449549424?spm_id_from=333.1007.0.0   第一步:首先进入讯飞开放平台注册一个账号,然后创建一个 创建一个应用,命名按照你自己的想法来,会产生一个APPID,具体参考UE4如何接入科大讯飞的语音识别_ue4 科大讯飞的语音识别_飞起的猪的博客-CSDN博

    2024年02月13日
    浏览(72)
  • 科大讯飞语音离线命令识别

    准备工作 注册讯飞账号,做相关的认证,只有认证通过才能下载部分免费的资源。官网地址:https://console.xfyun.cn/ 创建我的应用后再在离线命令识别 操作前先查看一下这个官方文档Android 语音识别(Recognizer) | 讯飞开放平台文档中心 (xfyun.cn) 1、必要文件包复制到自己的项目目录

    2023年04月08日
    浏览(60)
  • 科大讯飞语音SDK下载及测试

    一、SDK 下载 进入讯飞开发平台官网http://www.xfyun.cn/,右上角进行注册登录,登录后点击进入SDK下载。            2.创建新应用               3.填入相关信息         4.创建完后提交后回到SDK下载页面,刷新页面,应用选择前面创建的应用,平台选择Linux,SDK选择

    2024年02月08日
    浏览(74)
  • 离线语音交互技术路线之语音合成(TTS)篇

      在ChatGPT大行其道之际,我心血来潮想要研究研究如何实现离线语音交互,把它和ChatGPT相结合,自己尝试实现个语音助手玩玩。本篇文章主要先从整体上分析了离线语音交互的技术实现路线,以及每个环节可能用到的参考技术,然后详细阐述了其中一个环节:语音合成(

    2024年02月09日
    浏览(51)
  • GEC6818科大讯飞离线语音识别

    在下载SDK时需要注意选择Linux的版本!! 在官网下载离线语音的包,解压后可以得到下面的一些文件夹: 解压后你需要知道自己命令放在下面的文件夹中 关于Make file文件: 关于asr_offline_sample.c文件: asr_offline_sample.c 文件是我们更改为自己的逻辑的文件,但是也不需要都了解

    2024年01月17日
    浏览(56)
  • 【C#】Whisper 离线语音识别(微软晓晓语音合成的音频)(带时间戳、srt字幕)...

    语音合成语音识别 用微软语音合成功能生成xiaoxiao的语音。 用Whisper离线识别合成的语音输出srt字幕。 一、语音合成 参考这个网址:https://www.bilibili.com/read/cv19064633 合成的音频:晓晓朗读-温柔 二、Whisper 语音识别 下载模型后放入程序目录下: 请注意,主要示例目前仅使用

    2024年02月06日
    浏览(46)
  • 免费离线语音识别软件开发工具包(SDK):实现高效准确的语音识别

    语音识别技术在当今信息时代扮演着重要的角色,为用户提供了更加便捷和自然的交互方式。然而,传统的语音识别方案通常需要依赖云服务器进行语音数据的处理,这可能会涉及到隐私问题和网络延迟。为了解决这些问题,免费离线语音识别软件开发工具包(SDK)应运而生

    2024年02月04日
    浏览(60)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包