https://github.com/ChatGPTNextWeb/NextChat/blob/main/README_CN.md
通过docker自建
默认模型使用腾讯云提供的deepseek-r1,API_KEY需要自信申请
docker pull yidadaa/chatgpt-next-web
docker run -d -p 3000:3000 \
-e BASE_URL=https://api.lkeap.cloud.tencent.com \
-e OPENAI_API_KEY=sk-xxxxxxxxxxx \
-e CUSTOM_MODELS=deepseek-r1 \
-e DEFAULT_MODEL=deepseek-r1 \
-e CODE=页面访问密码 \
yidadaa/chatgpt-next-web
你也可以指定 proxy:
docker run -d -p 3000:3000 \
-e OPENAI_API_KEY=sk-xxxx \
-e CODE=页面访问密码 \
--net=host \
-e PROXY_URL=http://127.0.0.1:7890 \
yidadaa/chatgpt-next-web
如需启用 MCP 功能,可以使用:
docker run -d -p 3000:3000 \
-e OPENAI_API_KEY=sk-xxxx \
-e CODE=页面访问密码 \
-e ENABLE_MCP=true \
yidadaa/chatgpt-next-web
如果你的本地代理需要账号密码,可以使用:
-e PROXY_URL="http://127.0.0.1:7890 user password"
环境变量
OPENAI_API_KEY
(必填项)
OpenAI 密钥,你在 openai 账户页面申请的 api key,使用英文逗号隔开多个 key,这样可以随机轮询这些 key。
CODE
(可选)
访问密码,可选,可以使用逗号隔开多个密码。
警告:如果不填写此项,则任何人都可以直接使用你部署后的网站,可能会导致你的 token 被急速消耗完毕,建议填写此选项。
BASE_URL
(可选)
Default:
https://api.openai.com
Examples:
http://your-openai-proxy.com
OpenAI 接口代理 URL,如果你手动配置了 openai 接口代理,请填写此选项。
如果遇到 ssl 证书问题,请将 BASE_URL
的协议设置为 http。
OPENAI_ORG_ID
(可选)
指定 OpenAI 中的组织 ID。
AZURE_URL
(可选)
形如:https://{azure-resource-url}/openai
Azure 部署地址。
AZURE_API_KEY
(可选)
Azure 密钥。
AZURE_API_VERSION
(可选)
Azure Api 版本,你可以在这里找到:Azure 文档。
GOOGLE_API_KEY
(可选)
Google Gemini Pro 密钥.
GOOGLE_URL
(可选)
Google Gemini Pro Api Url.
ANTHROPIC_API_KEY
(可选)
anthropic claude Api Key.
ANTHROPIC_API_VERSION
(可选)
anthropic claude Api version.
ANTHROPIC_URL
(可选)
anthropic claude Api Url.
BAIDU_API_KEY
(可选)
Baidu Api Key.
BAIDU_SECRET_KEY
(可选)
Baidu Secret Key.
BAIDU_URL
(可选)
Baidu Api Url.
BYTEDANCE_API_KEY
(可选)
ByteDance Api Key.
BYTEDANCE_URL
(可选)
ByteDance Api Url.
ALIBABA_API_KEY
(可选)
阿里云(千问)Api Key.
ALIBABA_URL
(可选)
阿里云(千问)Api Url.
IFLYTEK_URL
(可选)
讯飞星火Api Url.
IFLYTEK_API_KEY
(可选)
讯飞星火Api Key.
IFLYTEK_API_SECRET
(可选)
讯飞星火Api Secret.
CHATGLM_API_KEY
(可选)
ChatGLM Api Key.
CHATGLM_URL
(可选)
ChatGLM Api Url.
DEEPSEEK_API_KEY
(可选)
DeepSeek Api Key.
DEEPSEEK_URL
(可选)
DeepSeek Api Url.
HIDE_USER_API_KEY
(可选)
如果你不想让用户自行填入 API Key,将此环境变量设置为 1 即可。
DISABLE_GPT4
(可选)
如果你不想让用户使用 GPT-4,将此环境变量设置为 1 即可。
ENABLE_BALANCE_QUERY
(可选)
如果你想启用余额查询功能,将此环境变量设置为 1 即可。
DISABLE_FAST_LINK
(可选)
如果你想禁用从链接解析预制设置,将此环境变量设置为 1 即可。
WHITE_WEBDAV_ENDPOINTS
(可选)
如果你想增加允许访问的webdav服务地址,可以使用该选项,格式要求:
每一个地址必须是一个完整的 endpoint
https://xxxx/xxx
- 多个地址以
,
相连
CUSTOM_MODELS
(可选)
示例:+qwen-7b-chat,+glm-6b,-gpt-3.5-turbo,gpt-4-1106-preview=gpt-4-turbo
表示增加qwen-7b-chat
和glm-6b
到模型列表,而从列表中删除gpt-3.5-turbo
,并将gpt-4-1106-preview
模型名字展示为gpt-4-turbo
。
如果你想先禁用所有模型,再启用指定模型,可以使用-all,+gpt-3.5-turbo
,则表示仅启用gpt-3.5-turbo
用来控制模型列表,使用 +
增加一个模型,使用 -
来隐藏一个模型,使用 模型名=展示名
来自定义模型的展示名,用英文逗号隔开。
在Azure的模式下,支持使用modelName@Azure=deploymentName
的方式配置模型名称和部署名称(deploy-name)
示例:+gpt-3.5-turbo@Azure=gpt35
这个配置会在模型列表显示一个gpt35(Azure)
的选项。
如果你只能使用Azure模式,那么设置-all,+gpt-3.5-turbo@Azure=gpt35
则可以让对话的默认使用gpt35(Azure)
在ByteDance的模式下,支持使用modelName@bytedance=deploymentName
的方式配置模型名称和部署名称(deploy-name)
示例:+Doubao-lite-4k@bytedance=ep-xxxxx-xxx
这个配置会在模型列表显示一个Doubao-lite-4k(ByteDance)
的选项
DEFAULT_MODEL
(可选)
更改默认模型
VISION_MODELS
(可选)
默认值:空
示例:gpt-4-vision,claude-3-opus,my-custom-model
表示为这些模型添加视觉能力,作为对默认模式匹配的补充(默认会检测包含"vision"、"claude-3"、"gemini-1.5"等关键词的模型)。
在默认模式匹配之外,添加更多具有视觉能力的模型。多个模型用逗号分隔。
DEFAULT_INPUT_TEMPLATE
(可选)
自定义默认的 template,用于初始化『设置』中的『用户输入预处理』配置项
STABILITY_API_KEY
(optional)
Stability API密钥
STABILITY_URL
(optional)
自定义的Stability API请求地址
ENABLE_MCP
(optional)
启用MCP(Model Context Protocol)功能
SILICONFLOW_API_KEY
(optional)
SiliconFlow API Key.
SILICONFLOW_URL
(optional)
SiliconFlow API URL.