|
最新快照版本请使用Spring AI 1.1.0! |
DeepSeek 聊天
Spring AI 支持 Deepseek 的各种 AI 语言模型。你可以与DeepSeek语言模型互动,基于DeepSeek模型创建多语言会话助手。
前提条件
你需要用 DeepSeek 创建一个 API 密钥来访问 DeepSeek 的语言模型。
在DeepSeek注册页面创建账户,并在API密钥页面生成Tokens。
Spring AI 项目定义了一个配置属性,名为spring.ai.deepseek.api-key你应该设置为API 密钥获取自 API 密钥页面。
你可以在你的application.properties文件:
spring.ai.deepseek.api-key=<your-deepseek-api-key>
为了在处理敏感信息如 API 密钥时增强安全性,您可以使用 Spring 表达式语言(SpEL)引用自定义环境变量:
# In application.yml
spring:
ai:
deepseek:
api-key: ${DEEPSEEK_API_KEY}
# In your environment or .env file
export DEEPSEEK_API_KEY=<your-deepseek-api-key>
你也可以在应用代码中编程设置此配置:
// Retrieve API key from a secure source or environment variable
String apiKey = System.getenv("DEEPSEEK_API_KEY");
自动配置
Spring AI 为 DeepSeek 聊天模型提供 Spring Boot 自动配置。
要启用它,请在项目的 Maven 中添加以下依赖pom.xml文件:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-starter-model-deepseek</artifactId>
</dependency>
或者去你的Gradlebuild.gradle文件。
dependencies {
implementation 'org.springframework.ai:spring-ai-starter-model-deepseek'
}
| 请参考依赖管理部分,将Spring AI的物料清单添加到你的构建文件中。 |
聊天属性
重试属性
前缀spring.ai.retry作为属性前缀,允许你配置 DeepSeek 聊天模型的重试机制。
| 属性 | 描述 | 默认值 |
|---|---|---|
spring.ai.retry.max尝试 |
重试次数上限。 |
10 |
spring.ai.retry.backoff.initial-interval |
指数式退避政策的初始睡眠时长。 |
两秒钟。 |
spring.ai.retry.backoff.multiplier |
后退间隔倍数。 |
5 |
spring.ai.retry.backoff.max区间 |
最大退回时间。 |
3分钟。 |
spring.ai.retry.on-client-errors |
如果为假,则抛出非瞬态AiException,且不尝试重试 |
false |
spring.ai.retry.exclude-on-http-codes |
不应该触发重试的HTTP状态码列表(例如抛出非瞬态Ai异常)。 |
empty |
spring.ai.retry.on-http-codes |
应触发重试的HTTP状态码列表(例如抛出TransientAiException)。 |
empty |
连接性质
前缀春.ai.深寻作为可以连接 DeepSeek 的属性前缀。
| 属性 | 描述 | 默认值 |
|---|---|---|
Spring.ai.deepseek.base-URL |
连接的URL(链接) |
|
spring.ai.deepseek.api-key |
API 密钥 |
- |
配置属性
前缀春.ai.deepseek.chat是允许您配置DeepSeek聊天模型实现的属性前缀。
| 属性 | 描述 | 默认值 |
|---|---|---|
spring.ai.deepseeek.chat.enabled |
启用DeepSeek聊天模式。 |
true |
spring.ai.deepseek.chat.base-url |
可选地覆盖 spring.ai.deepseek.base-url,以提供针对聊天的 URL |
|
spring.ai.deepseek.chat.api-key |
可选地覆盖 spring.ai.deepseek.api-key,提供针对聊天的 API 密钥 |
- |
spring.ai.deepseek.chat.completions-path |
通往聊天补全端点的路径 |
|
spring.ai.deepseek.chat.beta-prefix-path |
beta功能端点的前缀路径 |
|
spring.ai.deepseek.chat.options.model |
型号的识别码。你可以使用deepseek-reasoner或deepseek-chat。 |
深度搜寻聊天 |
spring.ai.deepseek.chat.options.frequency 惩罚 |
数字介于-2.0到2.0之间。正值会根据新标记在文本中已有的频率进行惩罚,降低模型逐字重复同一行的可能性。 |
0.0f |
spring.ai.deepseek.chat.options.maxTokens |
聊天补全时最多可生成的Tokens数。输入标记和生成标记的总长度受模型上下文长度限制。 |
- |
spring.ai.deepseek.chat.options.presence惩罚 |
数字介于-2.0到2.0之间。正值会根据新Tokens是否出现在文本中来惩罚它们,从而提高模型讨论新话题的可能性。 |
0.0f |
spring.ai.deepseek.chat.options.stop |
最多有4个序列,API会停止生成更多Tokens。 |
- |
spring.ai.deepseek.chat.options.temperature. |
应该用哪个采样温度,在0到2之间。像0.8这样的高值会让输出更随机,而像0.2这样的低值则会让输出更聚焦和确定性强。我们通常建议修改这部分或top_p,但不要两者兼作。 |
1.0华氏度 |
spring.ai.deepseek.chat.options.topP |
一种与温度抽样不同的替代方案,称为核抽样,模型考虑以top_p概率质量计算的符号结果。因此,0.1 意味着只考虑构成概率质量最高 10% 的Tokens。我们通常建议调整温度或调节,但不要两者兼顾。 |
1.0华氏度 |
spring.ai.deepseek.chat.options.logprobs |
是否返回输出Tokens的对数概率。如果为真,返回消息内容中每个输出Tokens的对数概率。 |
- |
spring.ai.deepseek.chat.options.topLogprobs |
一个介于0到20之间的整数,表示每个标记位置最可能返回的标记数量,每个标记对应对数概率。如果使用该参数,logprobs 必须设置为 true。 |
- |
你可以覆盖公共信息Spring.ai.deepseek.base-URL和spring.ai.deepseek.api-key对于聊天模型实现。
这spring.ai.deepseek.chat.base-url和spring.ai.deepseek.chat.api-key如果属性被设置,则优先于共同属性。
如果你想为不同模型和不同模型端点使用不同的 DeepSeek 账户,这非常有用。 |
运行时选项
DeepSeekChatOptions.java提供模型配置,如使用模型、温度、频率惩罚等。
启动时,默认选项可以配置为DeepSeekChatModel(api, options)构造者或spring.ai.deepseek.chat.options.*性能。
运行时,你可以通过添加新的、针对特定请求的选项来覆盖默认选项提示叫。
例如,要覆盖特定请求的默认型号和温度:
ChatResponse response = chatModel.call(
new Prompt(
"Generate the names of 5 famous pirates. Please provide the JSON response without any code block markers such as ```json```.",
DeepSeekChatOptions.builder()
.withModel(DeepSeekApi.ChatModel.DEEPSEEK_CHAT.getValue())
.withTemperature(0.8f)
.build()
));
| 除了模型特定的 DeepSeekChatOptions 外,你还可以使用用 ChatOptions#builder() 创建的便携式 ChatOptions 实例。 |
采样控制器(自动配置)
创建一个新的 Spring Boot 项目并添加Spring-AI-starter-model-deepseek对你的POM(或Gradle)依赖。
添加一个application.properties归档于以下src/主/资源用于启用和配置DeepSeek聊天模式的目录:
spring.ai.deepseek.api-key=YOUR_API_KEY
spring.ai.deepseek.chat.options.model=deepseek-chat
spring.ai.deepseek.chat.options.temperature=0.8
替换API密钥凭借你的DeepSeek资历。 |
这将产生深度搜寻聊天模型你可以把这些实现注入到你的类里。
这里有一个简单的例子@Controller使用聊天模式生成文本的课程。
@RestController
public class ChatController {
private final DeepSeekChatModel chatModel;
@Autowired
public ChatController(DeepSeekChatModel chatModel) {
this.chatModel = chatModel;
}
@GetMapping("/ai/generate")
public Map generate(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
return Map.of("generation", chatModel.call(message));
}
@GetMapping("/ai/generateStream")
public Flux<ChatResponse> generateStream(@RequestParam(value = "message", defaultValue = "Tell me a joke") String message) {
var prompt = new Prompt(new UserMessage(message));
return chatModel.stream(prompt);
}
}
聊天前缀完成
聊天前缀补全遵循聊天补全API,用户提供助手的前缀消息,模型完成剩余消息。
使用前缀补全时,用户必须确保消息列表中的最后一条消息是 DeepSeekAssistantMessage。
以下是完整的 Java 代码示例,用于聊天前缀补全。在这个例子中,我们将助手的前缀消息设置为“'''python\n”,以强制模型输出Python代码,并将停止参数设置为['']以防止模型进行额外解释。
@RestController
public class CodeGenerateController {
private final DeepSeekChatModel chatModel;
@Autowired
public ChatController(DeepSeekChatModel chatModel) {
this.chatModel = chatModel;
}
@GetMapping("/ai/generatePythonCode")
public String generate(@RequestParam(value = "message", defaultValue = "Please write quick sort code") String message) {
UserMessage userMessage = new UserMessage(message);
Message assistantMessage = DeepSeekAssistantMessage.prefixAssistantMessage("```python\\n");
Prompt prompt = new Prompt(List.of(userMessage, assistantMessage), ChatOptions.builder().stopSequences(List.of("```")).build());
ChatResponse response = chatModel.call(prompt);
return response.getResult().getOutput().getText();
}
}
推理模型(deepseek-reasoner)
这深寻推理者是DeepSeek开发的一个推理模型。在给出最终答案之前,模型首先生成一条思维链(CoT),以提升回答的准确性。我们的API为用户提供了访问由深寻推理者使他们能够查看、显示和提取这些信息。
你可以使用DeepSeekAssistantMessage以获得由深寻推理者.
public void deepSeekReasonerExample() {
DeepSeekChatOptions promptOptions = DeepSeekChatOptions.builder()
.model(DeepSeekApi.ChatModel.DEEPSEEK_REASONER.getValue())
.build();
Prompt prompt = new Prompt("9.11 and 9.8, which is greater?", promptOptions);
ChatResponse response = chatModel.call(prompt);
// Get the CoT content generated by deepseek-reasoner, only available when using deepseek-reasoner model
DeepSeekAssistantMessage deepSeekAssistantMessage = (DeepSeekAssistantMessage) response.getResult().getOutput();
String reasoningContent = deepSeekAssistantMessage.getReasoningContent();
String text = deepSeekAssistantMessage.getText();
}
推理模型多轮对话
在每轮对话中,模型输出CoT(reasoning_content)和最终答案(内容)。在下一轮对话中,前几轮的CoT未被串接到上下文中,如下图所示:
请注意,如果输入消息序列中包含reasoning_content字段,API将返回400错误。因此,在提出API请求前,你应先从API响应中移除reasoning_content字段,如API示例所示。
public String deepSeekReasonerMultiRoundExample() {
List<Message> messages = new ArrayList<>();
messages.add(new UserMessage("9.11 and 9.8, which is greater?"));
DeepSeekChatOptions promptOptions = DeepSeekChatOptions.builder()
.model(DeepSeekApi.ChatModel.DEEPSEEK_REASONER.getValue())
.build();
Prompt prompt = new Prompt(messages, promptOptions);
ChatResponse response = chatModel.call(prompt);
DeepSeekAssistantMessage deepSeekAssistantMessage = (DeepSeekAssistantMessage) response.getResult().getOutput();
String reasoningContent = deepSeekAssistantMessage.getReasoningContent();
String text = deepSeekAssistantMessage.getText();
messages.add(new AssistantMessage(Objects.requireNonNull(text)));
messages.add(new UserMessage("How many Rs are there in the word 'strawberry'?"));
Prompt prompt2 = new Prompt(messages, promptOptions);
ChatResponse response2 = chatModel.call(prompt2);
DeepSeekAssistantMessage deepSeekAssistantMessage2 = (DeepSeekAssistantMessage) response2.getResult().getOutput();
String reasoningContent2 = deepSeekAssistantMessage2.getReasoningContent();
return deepSeekAssistantMessage2.getText();
}
手动配置
DeepSeekChatModel 实现了聊天模型和StreamingChatModel并使用低级 DeepSeekApi 客户端连接 DeepSeek 服务。
添加春艾深寻对你项目Maven的依赖pom.xml文件:
<dependency>
<groupId>org.springframework.ai</groupId>
<artifactId>spring-ai-deepseek</artifactId>
</dependency>
或者去你的Gradlebuild.gradle文件。
dependencies {
implementation 'org.springframework.ai:spring-ai-deepseek'
}
| 请参考依赖管理部分,将Spring AI的物料清单添加到你的构建文件中。 |
接下来,创建一个深度搜寻聊天模型并用于文本生成:
DeepSeekApi deepSeekApi = DeepSeekApi.builder()
.apiKey(System.getenv("DEEPSEEK_API_KEY"))
.build();
DeepSeekChatOptions options = DeepSeekChatOptions.builder()
.model(DeepSeekApi.ChatModel.DEEPSEEK_CHAT.getValue())
.temperature(0.4)
.maxTokens(200)
.build();
DeepSeekChatModel chatModel = DeepSeekChatModel.builder()
.deepSeekApi(deepSeekApi)
.defaultOptions(options)
.build();
ChatResponse response = chatModel.call(
new Prompt("Generate the names of 5 famous pirates."));
// Or with streaming responses
Flux<ChatResponse> streamResponse = chatModel.stream(
new Prompt("Generate the names of 5 famous pirates."));
这深度搜寻聊天选项提供聊天请求的配置信息。
这DeepSeekChatOptions.Builder是一名流利的期权构建者。
低级 DeepSeekApi 客户端
DeepSeekApi 是 DeepSeek API 的轻量级 Java 客户端。
这里有一个简单的片段,展示了如何以程序方式使用该 API:
DeepSeekApi deepSeekApi =
new DeepSeekApi(System.getenv("DEEPSEEK_API_KEY"));
ChatCompletionMessage chatCompletionMessage =
new ChatCompletionMessage("Hello world", Role.USER);
// Sync request
ResponseEntity<ChatCompletion> response = deepSeekApi.chatCompletionEntity(
new ChatCompletionRequest(List.of(chatCompletionMessage), DeepSeekApi.ChatModel.DEEPSEEK_CHAT.getValue(), 0.7, false));
// Streaming request
Flux<ChatCompletionChunk> streamResponse = deepSeekApi.chatCompletionStream(
new ChatCompletionRequest(List.of(chatCompletionMessage), DeepSeekApi.ChatModel.DEEPSEEK_CHAT.getValue(), 0.7, true));
请关注DeepSeekApi.java的JavaDoc获取更多信息。
DeepSeekApi 样本
-
DeepSeekApiIT.java测试提供了一些使用轻量级库的通用示例。