跳转到内容
云栖回顾 | 2024 云栖大会微服务和网关相关演讲材料点此了解

AI JSON 格式化

功能说明

LLM响应结构化插件,用于根据默认或用户配置的Json Schema对AI的响应进行结构化,以便后续插件处理。注意目前只支持 非流式响应

运行属性

插件执行阶段:默认阶段 插件执行优先级:150

配置说明

NameTypeRequirementDefaultDescription
serviceNamestrrequired-AI服务或支持AI-Proxy的网关服务名称
serviceDomainstroptional-AI服务或支持AI-Proxy的网关服务域名/IP地址
servicePathstroptional’/v1/chat/completions’AI服务或支持AI-Proxy的网关服务基础路径
serviceUrlstroptional-AI服务或支持 AI-Proxy 的网关服务URL, 插件将自动提取Domain 和 Path, 用于填充未配置的 serviceDomain 或 servicePath
servicePortintoptional443网关服务端口
serviceTimeoutintoptional50000默认请求超时时间
maxRetryintoptional3若回答无法正确提取格式化时重试次数
contentPathstroptional”choices.0.message.content”从LLM回答中提取响应结果的gpath路径
jsonSchemastr (json)optional-验证请求所参照的 jsonSchema, 为空只验证并返回合法Json格式响应
enableSwaggerbooloptionalfalse是否启用 Swagger 协议进行验证
enableOas3booloptionaltrue是否启用 Oas3 协议进行验证
enableContentDispositionbooloptionaltrue是否启用 Content-Disposition 头部, 若启用则会在响应头中添加 Content-Disposition: attachment; filename="response.json"

出于性能考虑,默认支持的最大 Json Schema 深度为 6。超过此深度的 Json Schema 将不用于验证响应,插件只会检查返回的响应是否为合法的 Json 格式。

请求和返回参数说明

  • 请求参数: 本插件请求格式为openai请求格式,包含modelmessages字段,其中model为AI模型名称,messages为对话消息列表,每个消息包含rolecontent字段,role为消息角色,content为消息内容。
    {
    "model": "gpt-4",
    "messages": [
    {"role": "user", "content": "give me a api doc for add the variable x to x+5"}
    ]
    }
    其他请求参数需参考配置的ai服务或网关服务的相应文档。
  • 返回参数:
    • 返回满足定义的Json Schema约束的 Json格式响应
    • 若未定义Json Schema,则返回合法的Json格式响应
    • 若出现内部错误,则返回 { "Code": 10XX, "Msg": "错误信息提示" }

请求示例

Terminal window
curl -X POST "http://localhost:8001/v1/chat/completions" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-4",
"messages": [
{"role": "user", "content": "give me a api doc for add the variable x to x+5"}
]
}'

返回示例

正常返回

在正常情况下,系统应返回经过 JSON Schema 验证的 JSON 数据。如果未配置 JSON Schema,系统将返回符合 JSON 标准的合法 JSON 数据。

{
"apiVersion": "1.0",
"request": {
"endpoint": "/add_to_five",
"method": "POST",
"port": 8080,
"headers": {
"Content-Type": "application/json"
},
"body": {
"x": 7
}
}
}

异常返回

在发生错误时,返回状态码为 500,返回内容为 JSON 格式的错误信息。包含错误码 Code 和错误信息 Msg 两个字段。

{
"Code": 1006,
"Msg": "retry count exceed max retry count"
}

错误码说明

错误码说明
1001配置的Json Schema不是合法Json格式
1002配置的Json Schema编译失败,不是合法的Json Schema 格式或深度超出 jsonSchemaMaxDepth 且 rejectOnDepthExceeded 为true
1003无法在响应中提取合法的Json
1004响应为空字符串
1005响应不符合Json Schema定义
1006重试次数超过最大限制
1007无法获取响应内容,可能是上游服务配置错误或获取内容的ContentPath路径错误
1008serciveDomain为空, 请注意serviceDomian或serviceUrl不能同时为空

服务配置说明

本插件需要配置上游服务来支持出现异常时的自动重试机制, 支持的配置主要包括支持openai接口的AI服务本地网关服务

支持openai接口的AI服务

以qwen为例,基本配置如下:

serviceName: qwen
serviceDomain: dashscope.aliyuncs.com
apiKey: [Your API Key]
servicePath: /compatible-mode/v1/chat/completions
jsonSchema:
title: ReasoningSchema
type: object
properties:
reasoning_steps:
type: array
items:
type: string
description: The reasoning steps leading to the final conclusion.
answer:
type: string
description: The final answer, taking into account the reasoning steps.
required:
- reasoning_steps
- answer
additionalProperties: false

本地网关服务

为了能复用已经配置好的服务,本插件也支持配置本地网关服务。例如,若网关已经配置好了AI-proxy服务,则可以直接配置如下:

  1. 创建一个固定IP地址为127.0.0.1:80的服务,例如localservice.static

  2. 配置文件中添加localservice.static的服务配置

serviceName: localservice
serviceDomain: 127.0.0.1
servicePort: 80
  1. 自动提取请求的Path,Header等信息 插件会自动提取请求的Path,Header等信息,从而避免对AI服务的重复配置。