正文开头向始皇致敬
(其实标题党了,只是复活了个前端 能力有限,抱歉)
一睹为快
(老Pandora聊天界面的项目链接还是原来的,留作纪念)
项目链接
GavinGoo/pandora-web at dev (github.com)(原版代码在master
分支)
可以求个佬友们的嘛 ,非常感谢
体验地址
密码
linuxdo
目前GPT4模型实际是glm-free-api项目,套了cf会比较慢,见谅
体验站已恢复。没想到我Ubuntu重启了下防火墙,结果全部容器都无法通过172.17.0.1与宿主机通信,全炸了 (0326 12:25)
我的代理不是很稳定,不便之处敬请谅解,,
相关特性
- 两套UI任君选择,随意搭配
- 设置站点密码
- 支持老Pandora式的无密码直接访问(见后文配置说明)
- API对话自动保存
- 重定向3.5/4模型
- 携带历史对话(可设置当历史消息数量大于设定数量时,自动携带第一组历史对话)
- 模型
Auth
轮询 - 单独指定模型的网络代理
- 设定内置Prompt
- 隐藏式(假删除)对话(默认,可更改)
- 仅OAI/API或二者共存运行
- 文生图模型可调用其他文本模型以生成/优化你的绘图Prompt
- 对于某些以二进制文件(Blob对象)作为响应的文生图模型(比如Cloudflare AI),自动保存并转为url输出(若使用了CDN服务,请注意流量消耗)
- 文件上传(支持以Base64编码/携带Url(需公网)、支持类型/大小限制)
- (3月24日)可以本地网络环境使用
Access Token
进行3.5对话,详见后文更新日志·0324
部分
API模型支持:
- OAI API(如https://api.oaipro.com)
- DALL·E
- copilot-gpt4-service项目
- ChatGLM 4V
- ChatGLM 4
- kimi-free-api项目
- glm-free-api项目(为了避免与官方API冲突,请将
slug
参数配置为glm-free-api
或不带glm
关键词) - emohaa-free-api项目(理论上,但这个还没有时间测试)
- Gemini Pro
- Gemini Pro Vision
- Cloudflare AI文本模型(4月1日开始收费)
- Cloudflare AI文生图模型(
stable-diffusion-xl-base-1.0
,dreamshaper-8-lcm
,stable-diffusion-xl-lightning
)(4月1日开始收费) - 某个连夜改成每月仅免费50条消息的模型
- 其他OpenAI标准输出模型
配置说明
程序参数:
--email: 您的 OpenAI 邮箱。
--password: 您的 OpenAI 密码(不建议直接设置密码,可仅配置Email然后在终端输入密码)。
--mfa: 您的 OpenAI mfa认证码。
--proxy_api: OpenAI 前端的代理地址。
--login_url: 获取Access Token的地址。
--site_password: 网站密码。如果以server模式启动,必须设置此项。
-p/--proxy: 使用代理。格式为 protocol://user:pass@ip:port。
--gpt4: 从 "api.json" 文件中选择 GPT-4 的请求模型。
--gpt35: 从 "api.json" 文件中选择 GPT-3.5 的请求模型。
--history_count: 为 API 携带的历史消息数量。默认为4。
--best_history: 当历史消息数量大于设定数量时,自动携带第一组历史对话。
--true_del: 真正从数据库中删除对话,而非将其设为隐藏(is_visible=0)。
-l/--local: 仅在本地运行,不使用 OAI 服务。
--timeout: 请求超时,默认60s,单位(秒)。
--oai_only: 仅使用 OAI 服务。
-t/--token_file: 指定Access Token字符串。
--tokens_file: 指定一个存放多Access Token的文件路径。
--config_dir: 指定配置目录存放Access Token文件、API配置文件api.json、本地对话数据库文件local_conversation.db、以二进制文件(Blob对象)作为响应的文生图模型图片保存目录text2img、登录会话目录sessions(默认跟随系统,docker则位于/data)
-s/--server: 作为一个代理服务器启动。格式为 ip:port,默认为 0.0.0.0:8008。
--threads: server模式的线程数,默认为8。
-a/--api: 使用gpt-3.5-turbo 聊天 API。注意:OpenAI 将会向您收费。
--login_local: 使用本地环境登录,你可能需要一个合适的代理IP以避免账号被风控!
-v/--verbose: 显示调试信息,且出错时打印异常堆栈信息,供查错使用。
--old_login: 使用老Pandora登陆页面。
--old_chat: 使用老Pandora聊天页面(不支持ws对话)。
--file_size: 限制上传文件的大小。单位:MB。
--type_whitelist: 限制上传文件的后缀名(白名单),以英文逗号","分隔。
--type_blacklist: 限制上传文件的后缀名(黑名单),以英文逗号","分隔。
--file_access: 是否允许外网直接访问文件(如果对话希望以url携带文件,则需要True启用)。默认:False。
--device_id: 官方OAI3.5对话时请求头参数"Oai-Device-Id", 若不配置则从用户浏览器的请求头中获取。多人共享【建议配置】。
--debug: 打印发送消息的请求体(前500字符)与收到的第一条响应。
环境变量:
OPENAI_EMAIL
,OPENAI_PASSWORD
,OPENAI_MFA_CODE
: OAI账密相关(不建议直接设置密码,可仅配置Email然后在终端输入密码)。OPENAI_API_PREFIX
: OpenAI 前端的代理地址。OPENAI_LOGIN_URL
: 获取Access Token
的地址。PANDORA_ACCESS_TOKEN
: 指定Access Token
文件。PANDORA_TOKENS_FILE
: 指定一个存放多Access Token
的文件路径。USER_CONFIG_DIR
: 指定配置目录存放Access Token
的access_token.dat
文件、API配置文件api.json
、本地对话数据库文件local_conversation.db
、以二进制文件(Blob对象)作为响应的文生图模型图片保存目录text2img
、登录会话目录sessions
(默认跟随系统,docker则位于/data)PANDORA_SERVER
: 以http
服务方式启动,格式:ip:port
,默认:0.0.0.0:8008
。PANDORA_SITE_PASSWORD
: 站点密码,如果以server模式启动该值为必填。OPENAI_MFA_CODE
: OpenAI 的MFA认证码,可以通过命令行参数--mfa
设置。PANDORA_PROXY
: 代理地址,可以通过命令行参数--proxy
设置。PANDORA_GPT4_MODEL
: 从 “api.json” 文件中选择GPT-4
模型。PANDORA_GPT35_MODEL
: 从 “api.json” 文件中选择GPT-3.5
模型。PANDORA_HISTORY_COUNT
: 设置历史消息的数量,默认为4
。PANDORA_BEST_HISTORY
: 当历史消息数量大于设定数量时,自动携带第一组历史对话。PANDORA_TRUE_DELETE
: 真正从数据库中删除对话,而非将其设为隐藏(is_visible=0)。PANDORA_LOCAL_OPTION
: 仅API模式,不使用 OAI 服务。PANDORA_TIMEOUT
: 请求超时,默认60
s,单位(秒)。PANDORA_OAI_ONLY
: 仅使用 OAI 服务。PANDORA_OLD_LOGIN
: 使用老Pandora登陆页面。PANDORA_OLD_CHAT
: 使用老Pandora聊天页面。PANDORA_FILE_SIZE
: 限制上传文件的大小。单位:MB。PANDORA_TYPE_WHITELIST
: 限制上传文件的后缀名(白名单),以英文逗号","分隔。PANDORA_TYPE_BLACKLIST
: 限制上传文件的后缀名(黑名单),以英文逗号","分隔。PANDORA_FILE_ACCESS
: 是否允许外网直接访问文件(如果对话希望以url携带文件,则需要True启用)。默认:False
。OPENAI_DEVICE_ID
: 官方OAI3.5对话时请求头参数"Oai-Device-Id", 若不配置则从用户浏览器的请求头中获取。多人共享建议配置。PANDORA_API
: 使用gpt-3.5-turbo
API请求,你可能需要向OpenAI
支付费用。PANDORA_LOGIN_LOCAL
: 使用本地环境登录,你可能需要一个合适的代理IP以避免账号被风控!PANDORA_VERBOSE
: 显示调试信息,且出错时打印异常堆栈信息,供查错使用。PANDORA_THREADS
: server模式的线程数,默认为8
。PANDORA_CLOUD
: Pandora Cloud模式(原参数,不知还可用否?)。PANDORA_SERVERLESS
: vercel部署请启用,将api.json
指向项目根目录的data
文件夹(请不要将密钥直接填写到文件)PANDORA_DEBUG
: 可设置True
以打印发送消息的请求体(前500字符)与收到的第一条响应
使用Docker仅配置环境变量即可,无视上述
程序参数
。如果想实现老Pandora无登录功能点开即用,将
--site_password
/PANDORA_SITE_PASSWORD
设置为I_KNOW_THE_RISKS_AND_STILL_NO_SITE_PASSWORD
即可(这可能是个危险设置,请注意)。
API配置:
使用api.json
文件配置,默认位于用户配置目录,可通过参数--config_dir
或环境变量USER_CONFIG_DIR
设置
默认用户配置目录:
Mac OS X: same as user_data_dir (Python appdirs模块的说明)
Unix: ~/.config/Pandora-ChatGPT # or in $XDG_CONFIG_HOME, if defined
Win : C:\Users\<User Name>
\AppData\Local\Pandora-ChatGPT\Pandora-ChatGPT无论是否设置,启动时都会把路径打印出来
以下是参考模板:
{
"glm-4v": {
"slug": "glm-4v",
"url": "https://open.bigmodel.cn/api/paas/v4/chat/completions",
"auth": "<智谱AI Token>",
"title": "ChatGLM-4V",
"description": "ChatGLM-4V",
"upload": true,
"file_base64": true,
"history_count": 10,
"max_tokens": 8191
},
"kimi": {
"slug": "kimi",
"url": "http://172.17.0.1:8000/v1/chat/completions",
"auth": "<Your Refresh Token>",
"title": "Kimi",
"description": "Kimi",
"upload": true,
"max_tokens": 8191
},
"double-gpt4": {
"slug": "double-gpt4",
"url": "https://api.double.bot/api/v1/chat",
"auth": ["鸡", "你", "太", "美"],
"title": "Double(GPT4 Turbo)",
"description": "https://double.bot",
"max_tokens": 8191
},
"double-claude": {
"slug": "double-claude",
"url": "https://api.double.bot/api/v1/chat",
"auth": ["api_", "api_", "api_"],
"title": "Double(Claude3)",
"description": "https://double.bot",
"max_tokens": 8191
},
"coze": {
"slug": "coze",
"url": "<Coze-Discord-Proxy Url>",
"auth": "<Coze-Discord-Proxy AUTH>",
"title": "Coze(可联网)",
"description": "https://coze.com",
"max_tokens": 8191
},
"glm-4": {
"slug": "glm-4",
"url": "https://open.bigmodel.cn/api/paas/v4/chat/completions",
"auth": "<智谱AI Token>",
"title": "ChatGLM-4",
"description": "ChatGLM-4",
"max_tokens": 8191
},
"cogview-3": {
"slug": "cogview-3",
"url": "https://open.bigmodel.cn/api/paas/v4/images/generations",
"auth": "<智谱AI Token>",
"title": "CogView(文生图|收费)",
"description": "刚开始没留意这玩意不是消耗token额度,现在倒欠3块大洋还没还",
"max_tokens": 8191
},
"gemini-pro": {
"slug": "gemini-pro",
"url": "https://generativelanguage.googleapis.com/v1/models/gemini-pro:streamGenerateContent?key=<Your Google AI Key>",
"proxy": "http://127.0.0.1:7890",
"title": "Gemini-Pro",
"description": "Gemini-Pro",
"max_tokens": 8191
},
"llama-2-7b-chat-fp16": {
"slug": "llama-2-7b-chat-fp16",
"url": "https://api.cloudflare.com/client/v4/accounts/<Your Cloudflare Account ID>/ai/run/@cf/meta/llama-2-7b-chat-fp16",
"auth": "<Your Cloudflare AI Key>",
"title": "llama-2-7b-chat-fp16",
"description": "llama-2-7b-chat-fp16",
"max_tokens": 8191
},
"stable-diffusion-xl-base-1.0": {
"slug": "stable-diffusion-xl-base-1.0",
"url": "https://api.cloudflare.com/client/v4/accounts/<Your Cloudflare Account ID>/ai/run",
"image_model": "@cf/stabilityai/stable-diffusion-xl-base-1.0",
"prompt_model": "glm-4",
"prompt": "You are a professional ai prompt generator, now please seriously realize the scene and atmosphere of the text and generate an AI drawing prompt about '<Prompt>', please don't show any Chinese, if there is any Chinese, it will be automatically translated to English. Finally, you can output the main content of the prompt directly.",
"auth": "<Your Cloudflare AI Key>",
"title": "cfai(文生图)",
"description": "cfai(文生图)",
"max_tokens": 8191
},
"gpt-4": {
"slug": "gpt-4",
"url": "https://proxy.cocopilot.org/v1/chat/completions",
"auth": ["ghu_", "ghu_", "ghu_"],
"prompt": "You use the GPT-4 version of OpenAI’s GPT models.Respond in the following locale: zh-cn.",
"title": "Copilot",
"description": "Copilot",
"max_tokens": 8191
}
}
参数说明:
slug
: 请求时的模型名(请与键名保持一致)
url
: 模型请求的url
auth
: 模型请求的验证头(智谱家的与某模型会自动处理(slug
需包含关键词比如glm
),直接填入你的Key即可)无则不写auth
这个键,比如Gemini。轮询请参照gpt-4
模型填写
proxy
: 指定该模型使用的网络代理(优先级最高)(如果使用Docker且网络模式非host,指向本机时请使用172.17.0.1
或内网IP),可设置为""
意味着该模型不走代理
prompt
: 你的内置Prompt
title
: 前端页面上的模型显示名称
description
: 老Pandora页面上的模型描述
history_count
: 设置历史消息的数量,优先级最高
upload
:true
启用文件上传,如需以Url携带请配置file_access
参数/PANDORA_FILE_ACCESS
环境变量为True
file_base64
:true
文件以Base64编码
max_tokens
: (不知道啥玩意,官方有我也就顺便带上了)特殊参数:
prompt_model
: 指定文本模型生成/优化绘图Prompt(使用非流式请求),此时prompt
支持使用"<Prompt>
"作为原Prompt的占位符,当占位符不存在时则自动将原Prompt追加到文末(如果文生图模型非Cloudflare AI 即url非"https://api.cloudflare.com/client/v4/accounts/<Your Cloudflare Account ID>/ai/run"
,则不支持Cloudflare AI的文本模型)
(如果文生图模型使用Cloudflare AI,推荐glm作为prompt_model
,配合我例子中的这个prompt个人感觉效果还可以)
image_model
: 仅用于Cloudflare AI文生图模型,填入Model ID
。格式:"@cf/***/<model>"
,参见:"https://developers.cloudflare.com/workers-ai/models/<model>"
如何运行
-
本地运行
Python版本最好在
3.8
及以上(我的版本为3.10.0)进入项目根目录,运行:
# 安装依赖 pip install --no-cache-dir -r requirements.txt # 0324使用OAI服务(先将Access Token填入access_token.dat文件): ## 如果不希望API模型走代理,可在api.json文件中为每个模型配置: "proxy":"" python -m src.pandora.launcher -s \ --proxy_api https://chat.openai.com \ -p <你的网络代理地址> \ --device_id <OAI官方前端发送对话的请求头参数"Oai-Device-Id"> \ --site_password <Your Site Password> \ --history_count 10 \ --best_history # 启用OAI服务: python -m src.pandora.launcher -s --email <Your OAI Email> --proxy_api <Your OAI Service Proxy Endpoint> --login_url <Your OAI Login Url> -p <> --site_password <Your Site Password> --history_count 10 # 仅API模式: python -m src.pandora.launcher -s -l --site_password <Your Site Password>
后台运行:
nohup python -m src.pandora.launcher -s -l --site_password <Your Site Password> &
-
Docker Hub 运行
docker pull ghcr.io/gavingoo/pandora-web:dev
# 0324使用OAI服务(先将Access Token填入access_token.dat文件): ## 如果不希望API模型走代理,可在api.json文件中为每个模型配置: "proxy":"" docker run -d -p 8008:8008 --restart=unless-stopped --name pandoraweb \ -e PANDORA_SERVER=0.0.0.0:8008 \ -e PANDORA_SITE_PASSWORD=<Your Site Password> \ -e OPENAI_API_PREFIX=https://chat.openai.com \ -e PANDORA_PROXY=<你的网络代理地址> \ -e PANDORA_HISTORY_COUNT=10 \ -e PANDORA_BEST_HISTORY=True \ -v $PWD/pandora_web_data:/data \ ghcr.io/gavingoo/pandora-web:dev # 仅API模式: docker run -d -p 18008:8008 --restart=unless-stopped --name pandoraweb \ -e PANDORA_SERVER=0.0.0.0:8008 \ -e PANDORA_SITE_PASSWORD=<Your Site Password> \ -e PANDORA_HISTORY_COUNT=10 \ -e PANDORA_BEST_HISTORY=True \ -e PANDORA_LOCAL_OPTION=True \ -v $PWD/pandora_web_data:/data \ ghcr.io/gavingoo/pandora-web:dev # 启用OAI服务: docker run -d -p 18008:8008 --restart=unless-stopped --name pandoraweb \ -e PANDORA_SERVER=0.0.0.0:8008 \ -e PANDORA_SITE_PASSWORD=<Your Site Password> \ -e OPENAI_EMAIL=<Your OAI Email> \ -e OPENAI_PASSWORD=<Your OAI Password> \ -e OPENAI_API_PREFIX=<Your OAI Service Proxy Endpoint> \ -e OPENAI_LOGIN_URL=<Get Access Token Url> \ -e PANDORA_HISTORY_COUNT=10 \ -e PANDORA_BEST_HISTORY=True \ -v $PWD/pandora_web_data:/data \ ghcr.io/gavingoo/pandora-web:dev
感谢EmccK佬友实现arm64支持
-
Docker 编译运行
git clone -b dev https://github.com/GavinGoo/pandora-web.git cd pandora-web docker build -t pandoraweb .
其他说明
- 本二改项目是站在Zhile(始皇)与其他巨人的肩膀上,非常感谢!!
- 感谢EmccK佬友对本项目的帮助
- 最近这段时间除非重要Bug外可能实在没空维护,同时为我糟糕的代码水平向佬友们说声抱歉(接受并欢迎任何有据有理的批评,如果有所指正那就更好了!)
更新日志
0401:
- 新增模型支持:OAI API(如https://api.oaipro.com)、DALL·E
- 修复当请求出错后重新请求,错误地触发了新建对话(表现为出现重复标题的对话但无法打开)的问题
0328:
- 修复当启用OAI服务时若请求
register-websocket
报错429,由于直接返回了响应(OAI的报错页)导致泄露(代理)IP的严重安全问题,请公网搭建的佬友务必更新,同时在此致歉 - 修复多轮对话可能出现报错
sqlite3.OperationalError: no such table: conversations_file
并导致异常的BUG
0325:
- 修复0324的更新中在无缓存情况下重新查看对话只能显示最后两条的BUG
0324:
- 修复对话列表无法加载58条之后的记录
- 修复OAI3.5对话(感谢Lin Goo佬友的帖子)
- 需要使用本地网络环境(可设置代理),将参数
proxy_api
/环境变量OPENAI_API_PREFIX
配置为https://chat.openai.com
,把Access Token
填入/更新到用户配置目录(即api.json
所在目录)下的access_token.dat
文件。 - 强烈建议传入请求头参数"Oai-Device-Id"
- 请务必注意环境风控,仅建议使用无价值账号
- 如果一直报错,换号试试,虚拟邮箱注册的账号风控级别较高,有可能官网正常但这里经常抽风甚至无法使用
- 论坛二级用户可以通过始皇的服务获取Access Token :整理自己的代码发现一个古早物件
- 需要使用本地网络环境(可设置代理),将参数
- 支持文件上传(以Base64编码/携带Url(需公网)、支持类型/大小限制)
- 支持kimi-free-api、glm-free-api、emohaa-free-api项目
- 前端直接显示接口报错内容
- 将GPT4叽里呱啦的模型说明改为"Be more powerful",简洁有力
- 去掉"Upgrade plan"按钮
- 尝试支持Vercel部署(还未测试)