微软的语音合成服务(TTS)拥有500多种高品质的音色,并且在全球都有节点可以接入,在国内访问延迟可以控制在毫秒级。下面介绍在不需要编码的情况下,如何快速体验微软TTS的效果。

方式一、微软语音库UI界面

语音库地址:Speech Studio

条件:有微软开发账号

访问微软的语音库页面,在页面上选择需要体验的声音,然后输入对应文本,就能实时合成语音。

没有账号的话,可以听官方给的demo,效果可能会有差异。

方式二、REST API

TTS API:文本转语音 API 参考 (REST) - 语音服务 - Azure AI services | Microsoft Learn

条件:有语音服务的token

开发者有可能没有账号的权限,但是一定有sts的token,服务上线也需要这个token。

通过API获取音频需要分三步:

  1. 选取语音名称

  2. 获取TTS的访问token

  3. 调用语音合成接口

选取语音名称

一般我们会先在语音库试听声音的demo,大致选定几个声音。然后在“示例代码”里找到:

config.SpeechSynthesisVoiceName = "zh-CN-XiaochenMultilingualNeural";

"zh-CN-XiaochenMultilingualNeural"就是当前声音对应的名字。

另外,可以通过声音列表接口,获取全部支持的声音和可用的区域:

curl 'https://eastasia.tts.speech.microsoft.com/cognitiveservices/voices/list' --header 'Authorization: Bearer {accessToken}' 


--- 返回值 ---
[
    {
        "Name": "Microsoft Server Speech Text to Speech Voice (af-ZA, AdriNeural)",
        "DisplayName": "Adri",
        "LocalName": "Adri",
        "ShortName": "af-ZA-AdriNeural",
        "Gender": "Female",
        "Locale": "af-ZA",
        "LocaleName": "Afrikaans (South Africa)",
        "SampleRateHertz": "48000",
        "VoiceType": "Neural",
        "Status": "GA",
        "WordsPerMinute": "147"
    },
    ...
]

请求头里的accessToken就是第二步获取到访问token。

获取访问token

获取访问token需要先拿到语音服务的apiKey,这个需要用微软账号在后台先创建出来。然后通过接口获取访问token:

curl -X POST 'https://eastasia.api.cognitive.microsoft.com/sts/v1.0/issueToken' --header 'Ocp-Apim-Subscription-Key: {apiKey}' -d ''

调用语音合成接口

拿到访问token后,就能直接通过语音API /cognitiveservices/v1合成音频:

curl -X POST 'https://eastasia.tts.speech.microsoft.com/cognitiveservices/v1' \
-H 'Authorization: Bearer {accessToken}' \
-H 'X-Microsoft-OutputFormat: audio-24khz-48kbitrate-mono-mp3' \
-H 'User-Agent: TEST' \
-H 'Content-Type: application/ssml+xml' \
-d '<speak version="1.0" xmlns="https://www.w3.org/2001/10/synthesis" xml:lang="en-US">
  <voice name="zh-CN-XiaochenMultilingualNeural">
        hi there!How was your weekend?Did you do anything interesting?
  </voice>
</speak>' --output test.mp3

这里有几个注意点:

  1. apiKey是和区域绑定,选择endpoint的时候要注意对应关系。区域和endpoint关系

  2. X-Microsoft-OutputFormat决定合成音频的采样率和格式等信息,16khz效果较差,24khz和48kzh才有真人的感觉。音频输出格式

  3. body里填的是SSML格式内容,voice标签可以指定声音名字。SSML介绍

方式三、通过SDK合成

SDK方式:文本转语音快速入门 - 语音服务 - Azure AI services | Microsoft Learn

条件:有语音服务的token

通过SDK合成原理是本地与TTS服务建立websocket连接,支持合成音频内容流式输出,并且增加了许多回调事件。

线上环境应该优先使用SDK合成方式,这种方式准备环境比较复杂,需要预安装一些插件,具体不展开介绍,可以查看官方文档。安装语音SDK

安装完环境后,调用方式如下:

SpeechConfig config = SpeechConfig.fromSubscription("{apiKey}", "{region}");
config.setSpeechSynthesisOutputFormat(SpeechSynthesisOutputFormat.Audio24Khz48KBitRateMonoMp3);
config.setSpeechSynthesisVoiceName("zh-CN-XiaochenMultilingualNeural");
SpeechSynthesizer speechSynthesizer = new SpeechSynthesizer(config, null);
SpeechSynthesisResult speechSynthesisResult = speechSynthesizer.SpeakSsml("""
                    <speak version="1.0" xmlns="https://www.w3.org/2001/10/synthesis" xml:lang="en-US">
                      <voice name="zh-CN-XiaochenMultilingualNeural">
                            hi there!How was your weekend?Did you do anything interesting?
                      </voice>
                    </speak>
                    """);
System.out.println("音频的二进制内容:" + speechSynthesisResult.getAudioData());

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部