聊天模型 API
聊天模型 API 使开发人员能够将 AI 驱动的聊天补全功能集成到他们的应用程序中。它利用预训练的语言模型,例如 GPT(生成式预训练转换器),以自然语言对用户输入生成类似人类的响应。
该 API 通常通过向 AI 模型发送提示或部分对话来工作,然后 AI 模型根据其训练数据和对自然语言模式的理解生成对话的完成或延续。然后,完成的响应将返回给应用程序,应用程序可以将其呈现给用户或将其用于进一步处理。
这Spring AI Chat Model API被设计为一个简单且可移植的界面,用于与各种 AI 模型交互,允许开发人员以最少的代码更改在不同模型之间切换。
这种设计符合 Spring 的模块化和可互换性理念。
此外,在同伴类的帮助下,例如Prompt用于输入封装和ChatResponse对于输出处理,聊天模型 API 统一了与 AI 模型的通信。
它管理请求准备和响应解析的复杂性,提供直接且简化的 API 交互。
API 概述
本节提供了 Spring AI 聊天模型 API 接口和相关类的指南。
聊天模型
以下是 ChatModel 接口定义:
public interface ChatModel extends Model<Prompt, ChatResponse>, StreamingChatModel {
default String call(String message) {...}
@Override
ChatResponse call(Prompt prompt);
}
这call()方法与String参数简化了初始使用,避免了更复杂的复杂性Prompt和ChatResponse类。
在实际应用中,更常见的是使用call()采用Prompt实例并返回一个ChatResponse.
流式聊天模型
下面是 StreamingChatModel 接口定义:
public interface StreamingChatModel extends StreamingModel<Prompt, ChatResponse> {
default Flux<String> stream(String message) {...}
@Override
Flux<ChatResponse> stream(Prompt prompt);
}
这stream()方法采用String或Prompt参数类似于ChatModel但它使用响应式 Flux API 流式传输响应。
提示
public class Prompt implements ModelRequest<List<Message>> {
private final List<Message> messages;
private ChatOptions modelOptions;
@Override
public ChatOptions getOptions() {...}
@Override
public List<Message> getInstructions() {...}
// constructors and utility methods omitted
}
消息
这Message接口封装了一个Prompt文本内容、元数据属性的集合以及称为MessageType.
接口定义如下:
public interface Content {
String getText();
Map<String, Object> getMetadata();
}
public interface Message extends Content {
MessageType getMessageType();
}
多模态消息类型还实现了MediaContent接口提供列表Mediacontent 对象。
public interface MediaContent extends Content {
Collection<Media> getMedia();
}
这Message接口具有各种实现,这些实现对应于 AI 模型可以处理的消息类别:
聊天补全终结点,根据对话角色区分消息类别,由MessageType.
例如,OpenAI 识别不同对话角色的消息类别,例如system,user,function或assistant.
虽然术语MessageType可能暗示特定的消息格式,在这种情况下,它有效地指定了消息在对话中扮演的角色。
对于不使用特定角色的 AI 模型,UserMessage实施充当标准类别,通常代表用户生成的查询或指令。
了解实际应用和之间的关系Prompt和Message,尤其是在这些角色或消息类别的上下文中,请参阅提示部分中的详细说明。
聊天选项
表示可以传递给 AI 模型的选项。这ChatOptionsclass 是ModelOptions并用于定义可以传递给 AI 模型的几个可移植选项。
这ChatOptionsclass 的定义如下:
public interface ChatOptions extends ModelOptions {
String getModel();
Float getFrequencyPenalty();
Integer getMaxTokens();
Float getPresencePenalty();
List<String> getStopSequences();
Float getTemperature();
Integer getTopK();
Float getTopP();
ChatOptions copy();
}
此外,每个特定于模型的 ChatModel/StreamingChatModel 实现都可以有自己的选项,这些选项可以传递给 AI 模型。例如,OpenAI 聊天补全模型有自己的选项,例如logitBias,seed和user.
这是一项强大的功能,允许开发人员在启动应用程序时使用特定于模型的选项,然后在运行时使用Prompt请求。
Spring AI 提供了一个用于配置和使用聊天模型的复杂系统。 它允许在启动时设置默认配置,同时还提供了基于每个请求覆盖这些设置的灵活性。 这种方法使开发人员能够轻松地使用不同的 AI 模型并根据需要调整参数,所有这些都在 Spring AI 框架提供的一致界面中进行。
以程图说明了 Spring AI 如何处理聊天模型的配置和执行,结合启动和运行时选项:
-
启动配置 - ChatModel/StreamingChatModel 使用“启动”聊天选项进行初始化。 这些选项是在 ChatModel 初始化期间设置的,旨在提供默认配置。
-
运行时配置 - 对于每个请求,提示可以包含运行时聊天选项:这些选项可以覆盖启动选项。
-
选项合并过程 - “合并选项”步骤结合了启动和运行时选项。 如果提供了运行时选项,则它们优先于启动选项。
-
输入处理 - “转换输入”步骤将输入指令转换为本机的、特定于模型的格式。
-
输出处理 - “转换输出”步骤将模型的响应转换为标准化的
ChatResponse格式。
启动和运行时选项的分离允许全局配置和特定于请求的调整。
聊天响应
的结构ChatResponse类如下:
public class ChatResponse implements ModelResponse<Generation> {
private final ChatResponseMetadata chatResponseMetadata;
private final List<Generation> generations;
@Override
public ChatResponseMetadata getMetadata() {...}
@Override
public List<Generation> getResults() {...}
// other methods omitted
}
ChatResponse 类保存 AI 模型的输出,每个Generation实例,其中包含由单个提示产生的潜在多个输出之一。
这ChatResponseclass 还带有一个ChatResponseMetadata有关 AI 模型响应的元数据。
生成
最后,Generation 类从ModelResult要表示模型输出(助手消息)和相关元数据,请执行以下作:
public class Generation implements ModelResult<AssistantMessage> {
private final AssistantMessage assistantMessage;
private ChatGenerationMetadata chatGenerationMetadata;
@Override
public AssistantMessage getOutput() {...}
@Override
public ChatGenerationMetadata getMetadata() {...}
// other methods omitted
}
可用实现
此图说明了统一接口,ChatModel和StreamingChatModel,用于与来自不同提供商的各种 AI 聊天模型进行交互,允许在不同的 AI 服务之间轻松集成和切换,同时为客户端应用程序保持一致的 API。
-
OpenAI 聊天补全(流式传输、多模态和函数调用支持)
-
Microsoft Azure Open AI 聊天补全(流式处理和函数调用支持)
-
Ollama 聊天补全(流媒体、多模态和函数调用支持)
-
Hugging Face Chat 完成(不支持流媒体)
-
Google Vertex AI Gemini 聊天补全(流媒体、多模态和函数调用支持)
-
Mistral AI 聊天补全(流式处理和函数调用支持)
-
Anthropic Chat Completion(流式处理和函数调用支持)
| 在聊天模型比较部分查找可用聊天模型的详细比较。 |
聊天模型 API
Spring AI 聊天模型 API 构建在 Spring AI 之上Generic Model API提供特定于 Chat 的抽象和实现。
这允许在不同的 AI 服务之间轻松集成和切换,同时为客户端应用程序保持一致的 API。
下面的类图说明了 Spring AI 聊天模型 API 的主要类和接口。