https://github.com/ChatGPTNextWeb/NextChat/blob/main/README_CN.md

通过docker自建

默认模型使用腾讯云提供的deepseek-r1,API_KEY需要自信申请

docker pull yidadaa/chatgpt-next-web

docker run -d -p 3000:3000 \
   -e BASE_URL=https://api.lkeap.cloud.tencent.com \
   -e OPENAI_API_KEY=sk-xxxxxxxxxxx \
   -e CUSTOM_MODELS=deepseek-r1 \
   -e DEFAULT_MODEL=deepseek-r1 \
   -e CODE=页面访问密码 \
   yidadaa/chatgpt-next-web

你也可以指定 proxy:

docker run -d -p 3000:3000 \
   -e OPENAI_API_KEY=sk-xxxx \
   -e CODE=页面访问密码 \
   --net=host \
   -e PROXY_URL=http://127.0.0.1:7890 \
   yidadaa/chatgpt-next-web

如需启用 MCP 功能,可以使用:

docker run -d -p 3000:3000 \
   -e OPENAI_API_KEY=sk-xxxx \
   -e CODE=页面访问密码 \
   -e ENABLE_MCP=true \
   yidadaa/chatgpt-next-web

如果你的本地代理需要账号密码,可以使用:

-e PROXY_URL="http://127.0.0.1:7890 user password"

环境变量

OPENAI_API_KEY (必填项)

OpenAI 密钥,你在 openai 账户页面申请的 api key,使用英文逗号隔开多个 key,这样可以随机轮询这些 key。

CODE (可选)

访问密码,可选,可以使用逗号隔开多个密码。

警告:如果不填写此项,则任何人都可以直接使用你部署后的网站,可能会导致你的 token 被急速消耗完毕,建议填写此选项。

BASE_URL (可选)

Default: https://api.openai.com

Examples: http://your-openai-proxy.com

OpenAI 接口代理 URL,如果你手动配置了 openai 接口代理,请填写此选项。

如果遇到 ssl 证书问题,请将 BASE_URL 的协议设置为 http。

OPENAI_ORG_ID (可选)

指定 OpenAI 中的组织 ID。

AZURE_URL (可选)

形如:https://{azure-resource-url}/openai

Azure 部署地址。

AZURE_API_KEY (可选)

Azure 密钥。

AZURE_API_VERSION (可选)

Azure Api 版本,你可以在这里找到:Azure 文档

GOOGLE_API_KEY (可选)

Google Gemini Pro 密钥.

GOOGLE_URL (可选)

Google Gemini Pro Api Url.

ANTHROPIC_API_KEY (可选)

anthropic claude Api Key.

ANTHROPIC_API_VERSION (可选)

anthropic claude Api version.

ANTHROPIC_URL (可选)

anthropic claude Api Url.

BAIDU_API_KEY (可选)

Baidu Api Key.

BAIDU_SECRET_KEY (可选)

Baidu Secret Key.

BAIDU_URL (可选)

Baidu Api Url.

BYTEDANCE_API_KEY (可选)

ByteDance Api Key.

BYTEDANCE_URL (可选)

ByteDance Api Url.

ALIBABA_API_KEY (可选)

阿里云(千问)Api Key.

ALIBABA_URL (可选)

阿里云(千问)Api Url.

IFLYTEK_URL (可选)

讯飞星火Api Url.

IFLYTEK_API_KEY (可选)

讯飞星火Api Key.

IFLYTEK_API_SECRET (可选)

讯飞星火Api Secret.

CHATGLM_API_KEY (可选)

ChatGLM Api Key.

CHATGLM_URL (可选)

ChatGLM Api Url.

DEEPSEEK_API_KEY (可选)

DeepSeek Api Key.

DEEPSEEK_URL (可选)

DeepSeek Api Url.

HIDE_USER_API_KEY (可选)

如果你不想让用户自行填入 API Key,将此环境变量设置为 1 即可。

DISABLE_GPT4 (可选)

如果你不想让用户使用 GPT-4,将此环境变量设置为 1 即可。

ENABLE_BALANCE_QUERY (可选)

如果你想启用余额查询功能,将此环境变量设置为 1 即可。

DISABLE_FAST_LINK (可选)

如果你想禁用从链接解析预制设置,将此环境变量设置为 1 即可。

WHITE_WEBDAV_ENDPOINTS (可选)

如果你想增加允许访问的webdav服务地址,可以使用该选项,格式要求:

  • 每一个地址必须是一个完整的 endpoint

    https://xxxx/xxx
  • 多个地址以,相连

CUSTOM_MODELS (可选)

示例:+qwen-7b-chat,+glm-6b,-gpt-3.5-turbo,gpt-4-1106-preview=gpt-4-turbo 表示增加 qwen-7b-chatglm-6b 到模型列表,而从列表中删除 gpt-3.5-turbo,并将 gpt-4-1106-preview 模型名字展示为 gpt-4-turbo
如果你想先禁用所有模型,再启用指定模型,可以使用 -all,+gpt-3.5-turbo,则表示仅启用 gpt-3.5-turbo

用来控制模型列表,使用 + 增加一个模型,使用 - 来隐藏一个模型,使用 模型名=展示名 来自定义模型的展示名,用英文逗号隔开。

在Azure的模式下,支持使用modelName@Azure=deploymentName的方式配置模型名称和部署名称(deploy-name)

示例:+gpt-3.5-turbo@Azure=gpt35这个配置会在模型列表显示一个gpt35(Azure)的选项。
如果你只能使用Azure模式,那么设置 -all,+gpt-3.5-turbo@Azure=gpt35 则可以让对话的默认使用 gpt35(Azure)

在ByteDance的模式下,支持使用modelName@bytedance=deploymentName的方式配置模型名称和部署名称(deploy-name)

示例: +Doubao-lite-4k@bytedance=ep-xxxxx-xxx这个配置会在模型列表显示一个Doubao-lite-4k(ByteDance)的选项

DEFAULT_MODEL (可选)

更改默认模型

VISION_MODELS (可选)

默认值:空
示例:gpt-4-vision,claude-3-opus,my-custom-model 表示为这些模型添加视觉能力,作为对默认模式匹配的补充(默认会检测包含"vision"、"claude-3"、"gemini-1.5"等关键词的模型)。

在默认模式匹配之外,添加更多具有视觉能力的模型。多个模型用逗号分隔。

DEFAULT_INPUT_TEMPLATE (可选)

自定义默认的 template,用于初始化『设置』中的『用户输入预处理』配置项

STABILITY_API_KEY (optional)

Stability API密钥

STABILITY_URL (optional)

自定义的Stability API请求地址

ENABLE_MCP (optional)

启用MCP(Model Context Protocol)功能

SILICONFLOW_API_KEY (optional)

SiliconFlow API Key.

SILICONFLOW_URL (optional)

SiliconFlow API URL.

最后修改:2025 年 02 月 21 日
如果觉得我的文章对你有用,请随意赞赏