-
Notifications
You must be signed in to change notification settings - Fork 0
Expand file tree
/
Copy pathenv.example
More file actions
184 lines (144 loc) · 5.61 KB
/
env.example
File metadata and controls
184 lines (144 loc) · 5.61 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
# 最后更新时间: 2025-07-12 12:05:30
# 自动更新的最新模型配置
# ==========================================
# 多LLM对话系统环境变量配置文件
# 基于2025年最新模型信息更新
# ==========================================
# ==========================================
# 阿里云百炼 (Alibaba Cloud Model Studio)
# 平台: https://help.aliyun.com/zh/model-studio/
# 模型列表: https://help.aliyun.com/zh/model-studio/models
# ==========================================
ALIBABA_API_KEY=your_alibaba_api_key_here
# 推荐模型选项 (2025年最新):
# - qwen-max-2024-09-19 (通义千问最强旗舰模型,32K上下文)
# - qwen-plus-2024-09-19 (通义千问均衡性能模型,32K上下文)
# - qwen-turbo-2024-11-01 (通义千问高速模型,128K上下文)
ALIBABA_MODEL=qwen-max-2024-09-19
# ==========================================
# 火山豆包 (Volcano Engine Doubao)
# 平台: https://www.volcengine.com/product/doubao
# 控制台: https://console.volcengine.com/ark
# 文档: https://www.volcengine.com/docs/82379
# ==========================================
DOUBAO_API_KEY=your_doubao_api_key_here
# 🔥 实际开通的模型配置
# 根据文档已开通的模型:
# - 模型 ID: doubao-seed-1-6-250615
# - 接入点: ep-m-20250629223026-prr94
#
# 💡 说明:火山豆包使用自定义推理接入点 (Endpoint ID)
# 格式:ep-xxxxxxxxx-xxxxx(在控制台创建推理接入点后获得)
DOUBAO_MODEL=ep-pro-4k-v1-5
# 可选配置
DOUBAO_BASE_URL=https://ark.cn-beijing.volces.com/api/v3
DOUBAO_TEMPERATURE=0.7
DOUBAO_MAX_TOKENS=1000
# ==========================================
# 月之暗面 (Moonshot AI)
# 平台: https://kimi.ai/
# 控制台: https://platform.moonshot.cn/
# ==========================================
MOONSHOT_API_KEY=your_moonshot_api_key_here
# 推荐模型选项 (2025年最新):
# - moonshot-v1-128k (推荐,128K超长上下文)
# - moonshot-v1-32k (标准版本,32K上下文)
# - moonshot-v1-8k (基础版本,8K上下文)
#
# 特色: 支持超长文本处理,最高2M字符输入
MOONSHOT_MODEL=moonshot-v1-128k
# ==========================================
# DeepSeek (深度求索)
# 平台: https://www.deepseek.com/
# 控制台: https://platform.deepseek.com/
# API文档: https://api-docs.deepseek.com/
# ==========================================
DEEPSEEK_API_KEY=your_deepseek_api_key_here
# 推荐模型选项 (2025年最新):
# - deepseek-reasoner (推荐,R1-0528推理模型,强逻辑推理)
# - deepseek-chat (V3-0324对话模型,均衡性能)
#
# 特色: R1推理模型具备强大的逻辑推理和数学能力
# 价格: 提供峰谷定价,非高峰期有大幅折扣
DEEPSEEK_MODEL=deepseek-reasoner
# ==========================================
# 对话系统配置
# ==========================================
# 对话轮数限制 (建议3-8轮)
MAX_CONVERSATION_ROUNDS=5
# 单次响应超时时间 (秒)
RESPONSE_TIMEOUT=30
# 对话主题 (可选,留空则使用默认)
CONVERSATION_TOPIC=
# 是否保存对话历史 (true/false)
SAVE_CONVERSATION_HISTORY=true
# 对话历史保存目录
CONVERSATION_HISTORY_DIR=./conversations
# ==========================================
# 文件处理配置
# ==========================================
# 文件上传最大大小 (字节,默认50MB)
MAX_FILE_SIZE=52428800
# PDF处理最大页数
MAX_PDF_PAGES=100
# 图片处理最大尺寸 (像素,宽x高)
MAX_IMAGE_WIDTH=4096
MAX_IMAGE_HEIGHT=4096
# 支持的文件类型 (用逗号分隔)
SUPPORTED_FILE_TYPES=pdf,png,jpg,jpeg,gif,bmp,tiff,webp
# 是否启用OCR文本识别 (true/false)
ENABLE_OCR=true
# OCR语言配置 (chi_sim=简体中文, eng=英文)
OCR_LANGUAGES=chi_sim+eng
# 文件处理临时目录
TEMP_FILE_DIR=./temp_files
# ==========================================
# Gradio界面配置
# ==========================================
# 界面端口
GRADIO_PORT=7860
# 是否启用外部访问 (true/false)
GRADIO_SHARE=false
# 界面标题
GRADIO_TITLE=多LLM对话系统
# ==========================================
# 模型参数配置 (可选高级设置)
# ==========================================
# 温度参数 (0.0-2.0,控制随机性)
DEFAULT_TEMPERATURE=0.7
# 最大输出tokens
DEFAULT_MAX_TOKENS=1000
# 日志级别 (DEBUG/INFO/WARNING/ERROR)
LOG_LEVEL=INFO
# ==========================================
# Ollama 本地模型 (Local Model)
# 平台: https://ollama.com/
# 文档: https://github.com/ollama/ollama
# ==========================================
# 是否启用 Ollama (true/false)
OLLAMA_ENABLED=true
# Ollama API 地址 (默认本地)
OLLAMA_BASE_URL=http://localhost:11434/
# Ollama 模型名称 (需要先通过 ollama pull 下载)
# 推荐模型:
# - llama3.1:latest (Meta Llama 3.1,通用对话)
# - llama3.1:8b (轻量版本,8B参数)
# - llama3.1:70b (大型版本,70B参数)
# - qwen2.5:latest (阿里通义千问开源版)
# - deepseek-coder:latest (DeepSeek编程专用)
# - mistral:latest (Mistral AI模型)
OLLAMA_MODEL=deepseek-r1:8b
# API密钥 (Ollama不需要真实密钥,但配置为必需项)
OLLAMA_API_KEY=ollama
# 可选配置
OLLAMA_TEMPERATURE=0.7
OLLAMA_MAX_TOKENS=1000
# ==========================================
# Ollama 安装说明
# ==========================================
# 1. 安装 Ollama: https://ollama.com/download
# 2. 启动 Ollama 服务: ollama serve
# 3. 下载模型: ollama pull llama3.1:latest
# 4. 设置 OLLAMA_ENABLED=true
# 5. 重启应用即可使用本地模型
# ==========================================