|
最新快照版本请使用Spring AI 1.1.0! |
OpenAI 文本转语音(TTS)
前提条件
-
创建OpenAI账户并获取API密钥。你可以在OpenAI注册页面注册,并在API密钥页面生成API密钥。
-
添加
春艾开胃依赖于你项目的构建文件。更多信息请参阅依赖管理部分。
自动配置
|
春季AI自动配置、起始模块的工件名称发生了重大变化。 更多信息请参阅升级说明。 |
Spring AI 为 OpenAI 文本转语音客户端提供了 Spring Boot 自动配置。要启用该功能,请在项目的 Maven 中添加以下依赖项pom.xml文件:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-starter-model-openai</artifactId>
</dependency>
或者去你的Gradlebuild.gradle构建文件:
dependencies {
implementation 'org.springframework.ai:spring-ai-starter-model-openai'
}
| 请参考依赖管理部分,将Spring AI的物料清单添加到你的构建文件中。 |
语音属性
连接性质
前缀春.ai.openai作为属性前缀,允许你连接到OpenAI。
属性 |
描述 |
默认值 |
Spring.ai.openai.base-url |
连接的URL(链接) |
|
spring.ai.openai.api-key(春.ai.openai.api-key) |
API 密钥 |
- |
spring.ai.openai.organization-id |
你可以选择指定用于 API 请求的组织。 |
- |
spring.ai.openai.project-id |
可选地,你可以指定用于 API 请求的项目。 |
- |
| 对于属于多个组织的用户(或通过其遗留用户 API 密钥访问项目),你可以选择指定用于 API 请求的组织和项目。 这些 API 请求的使用将计入指定组织和项目的使用。 |
配置属性
|
现在通过带有前缀的顶层属性配置,启用和禁用音频语音自动配置 启用时,spring.ai.model.audio.speech=openai(默认启用) 要禁用,可以选择 spring.ai.model.audio.speech=none(或任何与 openai 不匹配的值) 此改动旨在允许配置多个模型。 |
前缀spring.ai.openai.audio.speech作为属性前缀,用于配置OpenAI文本转语音客户端。
| 属性 | 描述 | 默认值 |
|---|---|---|
spring.ai.model.audio.speech |
启用音频语音模型 |
OpenAI |
spring.ai.openai.audio.speech.base-url |
连接的URL(链接) |
|
spring.ai.openai.audio.speech.api-key |
API 密钥 |
- |
spring.ai.openai.audio.speech.organization-id |
你可以选择指定用于 API 请求的组织。 |
- |
spring.ai.openai.audio.speech.project-id |
可选地,你可以指定用于 API 请求的项目。 |
- |
spring.ai.openai.audio.speech.options.model |
用于生成音频的模型ID。对于OpenAI的TTS API,请使用可用的模型之一:tts-1或tts-1-hd。 |
TTS-1 |
spring.ai.openai.audio.speech.options.voice |
用于合成的语音。对于OpenAI的TTS API,可选的音色包括:合金、回声、寓言、黑曜石、新星和闪光。 |
合金 |
spring.ai.openai.audio.speech.options.response-format |
音频输出格式。支持的格式包括mp3、opus、aac、flac、wav和PCM。 |
mp3 |
spring.ai.openai.audio.speech.options.speed |
语音合成的速度。可接受的范围是0.25(最慢)到4.0(最快)。 |
1.0 |
你可以覆盖公共信息Spring.ai.openai.base-url,spring.ai.openai.api-key(春.ai.openai.api-key),spring.ai.openai.organization-id和spring.ai.openai.project-id性能。
这spring.ai.openai.audio.speech.base-url,spring.ai.openai.audio.speech.api-key,spring.ai.openai.audio.speech.organization-id和spring.ai.openai.audio.speech.project-id如果设置了属性,属性优先于常见属性。
如果你想为不同模型和不同模型端点使用不同的OpenAI账户,这非常有用。 |
所有以spring.ai.openai.image.options可以在运行时被覆盖。 |
运行时选项
这OpenAiAudioSpeechOptions类提供了在发送文本转语音请求时可用的选项。启动时,指定了以下选项spring.ai.openai.audio.speech但你可以在运行时覆盖这些设置。
例如:
OpenAiAudioSpeechOptions speechOptions = OpenAiAudioSpeechOptions.builder()
.model("tts-1")
.voice(OpenAiAudioApi.SpeechRequest.Voice.ALLOY)
.responseFormat(OpenAiAudioApi.SpeechRequest.AudioResponseFormat.MP3)
.speed(1.0f)
.build();
SpeechPrompt speechPrompt = new SpeechPrompt("Hello, this is a text-to-speech example.", speechOptions);
SpeechResponse response = openAiAudioSpeechModel.call(speechPrompt);
手动配置
添加春艾开胃对你项目Maven的依赖pom.xml文件:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-openai</artifactId>
</dependency>
或者去你的Gradlebuild.gradle构建文件:
dependencies {
implementation 'org.springframework.ai:spring-ai-openai'
}
| 请参考依赖管理部分,将Spring AI的物料清单添加到你的构建文件中。 |
接下来,创建一个OpenAiAudioSpeechModel:
var openAiAudioApi = new OpenAiAudioApi()
.apiKey(System.getenv("OPENAI_API_KEY"))
.build();
var openAiAudioSpeechModel = new OpenAiAudioSpeechModel(openAiAudioApi);
var speechOptions = OpenAiAudioSpeechOptions.builder()
.responseFormat(OpenAiAudioApi.SpeechRequest.AudioResponseFormat.MP3)
.speed(1.0f)
.model(OpenAiAudioApi.TtsModel.TTS_1.value)
.build();
var speechPrompt = new SpeechPrompt("Hello, this is a text-to-speech example.", speechOptions);
SpeechResponse response = openAiAudioSpeechModel.call(speechPrompt);
// Accessing metadata (rate limit info)
OpenAiAudioSpeechResponseMetadata metadata = response.getMetadata();
byte[] responseAsBytes = response.getResult().getOutput();
实时音频流媒体
语音API支持使用分块传输编码进行实时音频流传输。这意味着音频可以在完整文件生成并可访问之前播放。
var openAiAudioApi = new OpenAiAudioApi()
.apiKey(System.getenv("OPENAI_API_KEY"))
.build();
var openAiAudioSpeechModel = new OpenAiAudioSpeechModel(openAiAudioApi);
OpenAiAudioSpeechOptions speechOptions = OpenAiAudioSpeechOptions.builder()
.voice(OpenAiAudioApi.SpeechRequest.Voice.ALLOY)
.speed(1.0f)
.responseFormat(OpenAiAudioApi.SpeechRequest.AudioResponseFormat.MP3)
.model(OpenAiAudioApi.TtsModel.TTS_1.value)
.build();
SpeechPrompt speechPrompt = new SpeechPrompt("Today is a wonderful day to build something people love!", speechOptions);
Flux<SpeechResponse> responseStream = openAiAudioSpeechModel.stream(speechPrompt);
示例代码
-
OpenAiSpeechModelIT.java测试提供了一些通用的使用示例。