[0601更新]复活吧 我的Pandora—PandoraWeb

正文开头向始皇致敬
(其实标题党了,只是复活了个前端:smiling_face_with_tear: 能力有限,抱歉)

一睹为快






(老Pandora聊天界面的项目链接还是原来的,留作纪念)

项目链接

GavinGoo/pandora-web at dev (github.com)(原版代码在master分支)
可以求个佬友们的:star2::star_struck:,非常感谢

体验地址

https://chat.ikun.wiki

密码

linuxdo

目前GPT4模型实际是glm-free-api项目,套了cf会比较慢,见谅

体验站已恢复。没想到我Ubuntu重启了下防火墙,结果全部容器都无法通过172.17.0.1与宿主机通信,全炸了 :melting_face: (0326 12:25)

我的代理不是很稳定,不便之处敬请谅解,,

相关特性

  • 两套UI任君选择,随意搭配
  • 设置站点密码
  • 支持老Pandora式的无密码直接访问(见后文配置说明)
  • API对话自动保存
  • 重定向3.5/4模型
  • 携带历史对话(可设置当历史消息数量大于设定数量时,自动携带第一组历史对话)
  • 模型Auth轮询
  • 单独指定模型的网络代理
  • 设定内置Prompt
  • 隐藏式(假删除)对话(默认,可更改)
  • 仅OAI/API或二者共存运行
  • 文生图模型可调用其他文本模型以生成/优化你的绘图Prompt
  • 对于某些以二进制文件(Blob对象)作为响应的文生图模型(比如Cloudflare AI),自动保存并转为url输出(若使用了CDN服务,请注意流量消耗)
  • 文件上传(支持以Base64编码/携带Url(需公网)、支持类型/大小限制)
  • (3月24日)可以本地网络环境使用Access Token进行3.5对话,详见后文更新日志·0324部分

API模型支持:

  • OAI API(如https://api.oaipro.com)
  • DALL·E
  • copilot-gpt4-service项目
  • ChatGLM 4V
  • ChatGLM 4
  • kimi-free-api项目
  • glm-free-api项目(为了避免与官方API冲突,请将slug参数配置为glm-free-api或不带glm关键词)
  • emohaa-free-api项目(理论上,但这个还没有时间测试)
  • Gemini Pro
  • Gemini Pro Vision
  • Cloudflare AI文本模型(4月1日开始收费)
  • Cloudflare AI文生图模型(stable-diffusion-xl-base-1.0, dreamshaper-8-lcm, stable-diffusion-xl-lightning)(4月1日开始收费)
  • 某个连夜改成每月仅免费50条消息的模型
  • 其他OpenAI标准输出模型

配置说明

程序参数:

--email: 您的 OpenAI 邮箱。
--password: 您的 OpenAI 密码(不建议直接设置密码,可仅配置Email然后在终端输入密码)。
--mfa: 您的 OpenAI mfa认证码。
--proxy_api: OpenAI 前端的代理地址。
--login_url: 获取Access Token的地址。
--site_password: 网站密码。如果以server模式启动,必须设置此项。
-p/--proxy: 使用代理。格式为 protocol://user:pass@ip:port。
--gpt4: 从 "api.json" 文件中选择 GPT-4 的请求模型。
--gpt35: 从 "api.json" 文件中选择 GPT-3.5 的请求模型。
--history_count: 为 API 携带的历史消息数量。默认为4。
--best_history: 当历史消息数量大于设定数量时,自动携带第一组历史对话。
--true_del: 真正从数据库中删除对话,而非将其设为隐藏(is_visible=0)。
-l/--local: 仅在本地运行,不使用 OAI 服务。
--timeout: 请求超时,默认60s,单位(秒)。
--oai_only: 仅使用 OAI 服务。
-t/--token_file: 指定Access Token字符串。
--tokens_file: 指定一个存放多Access Token的文件路径。
--config_dir: 指定配置目录存放Access Token文件、API配置文件api.json、本地对话数据库文件local_conversation.db、以二进制文件(Blob对象)作为响应的文生图模型图片保存目录text2img、登录会话目录sessions(默认跟随系统,docker则位于/data)
-s/--server: 作为一个代理服务器启动。格式为 ip:port,默认为 0.0.0.0:8008。
--threads: server模式的线程数,默认为8。
-a/--api: 使用gpt-3.5-turbo 聊天 API。注意:OpenAI 将会向您收费。
--login_local: 使用本地环境登录,你可能需要一个合适的代理IP以避免账号被风控!
-v/--verbose: 显示调试信息,且出错时打印异常堆栈信息,供查错使用。
--old_login: 使用老Pandora登陆页面。
--old_chat: 使用老Pandora聊天页面(不支持ws对话)。
--file_size: 限制上传文件的大小。单位:MB。
--type_whitelist: 限制上传文件的后缀名(白名单),以英文逗号","分隔。
--type_blacklist: 限制上传文件的后缀名(黑名单),以英文逗号","分隔。
--file_access: 是否允许外网直接访问文件(如果对话希望以url携带文件,则需要True启用)。默认:False。
--device_id: 官方OAI3.5对话时请求头参数"Oai-Device-Id", 若不配置则从用户浏览器的请求头中获取。多人共享【建议配置】。
--debug: 打印发送消息的请求体(前500字符)与收到的第一条响应。

环境变量:

  1. OPENAI_EMAIL, OPENAI_PASSWORD,OPENAI_MFA_CODE: OAI账密相关(不建议直接设置密码,可仅配置Email然后在终端输入密码)。
  2. OPENAI_API_PREFIX: OpenAI 前端的代理地址。
  3. OPENAI_LOGIN_URL: 获取Access Token的地址。
  4. PANDORA_ACCESS_TOKEN: 指定Access Token文件。
  5. PANDORA_TOKENS_FILE: 指定一个存放多Access Token的文件路径。
  6. USER_CONFIG_DIR: 指定配置目录存放Access Tokenaccess_token.dat文件、API配置文件api.json、本地对话数据库文件local_conversation.db、以二进制文件(Blob对象)作为响应的文生图模型图片保存目录text2img、登录会话目录sessions(默认跟随系统,docker则位于/data)
  7. PANDORA_SERVER: 以http服务方式启动,格式:ip:port,默认:0.0.0.0:8008
  8. PANDORA_SITE_PASSWORD: 站点密码,如果以server模式启动该值为必填。
  9. OPENAI_MFA_CODE: OpenAI 的MFA认证码,可以通过命令行参数 --mfa 设置。
  10. PANDORA_PROXY: 代理地址,可以通过命令行参数 --proxy 设置。
  11. PANDORA_GPT4_MODEL: 从 “api.json” 文件中选择GPT-4模型。
  12. PANDORA_GPT35_MODEL: 从 “api.json” 文件中选择GPT-3.5模型。
  13. PANDORA_HISTORY_COUNT: 设置历史消息的数量,默认为4
  14. PANDORA_BEST_HISTORY: 当历史消息数量大于设定数量时,自动携带第一组历史对话。
  15. PANDORA_TRUE_DELETE: 真正从数据库中删除对话,而非将其设为隐藏(is_visible=0)。
  16. PANDORA_LOCAL_OPTION: 仅API模式,不使用 OAI 服务。
  17. PANDORA_TIMEOUT: 请求超时,默认60s,单位(秒)。
  18. PANDORA_OAI_ONLY: 仅使用 OAI 服务。
  19. PANDORA_OLD_LOGIN: 使用老Pandora登陆页面。
  20. PANDORA_OLD_CHAT: 使用老Pandora聊天页面。
  21. PANDORA_FILE_SIZE: 限制上传文件的大小。单位:MB。
  22. PANDORA_TYPE_WHITELIST: 限制上传文件的后缀名(白名单),以英文逗号","分隔。
  23. PANDORA_TYPE_BLACKLIST: 限制上传文件的后缀名(黑名单),以英文逗号","分隔。
  24. PANDORA_FILE_ACCESS: 是否允许外网直接访问文件(如果对话希望以url携带文件,则需要True启用)。默认:False
  25. OPENAI_DEVICE_ID: 官方OAI3.5对话时请求头参数"Oai-Device-Id", 若不配置则从用户浏览器的请求头中获取。多人共享建议配置
  26. PANDORA_API: 使用gpt-3.5-turboAPI请求,你可能需要向OpenAI支付费用
  27. PANDORA_LOGIN_LOCAL: 使用本地环境登录,你可能需要一个合适的代理IP以避免账号被风控!
  28. PANDORA_VERBOSE: 显示调试信息,且出错时打印异常堆栈信息,供查错使用。
  29. PANDORA_THREADS: server模式的线程数,默认为8
  30. PANDORA_CLOUD: Pandora Cloud模式(原参数,不知还可用否?)。
  31. PANDORA_SERVERLESS: vercel部署请启用,将api.json指向项目根目录的data文件夹(请不要将密钥直接填写到文件)
  32. PANDORA_DEBUG: 可设置True以打印发送消息的请求体(前500字符)与收到的第一条响应

使用Docker仅配置环境变量即可,无视上述程序参数

如果想实现老Pandora无登录功能点开即用,将--site_password/PANDORA_SITE_PASSWORD设置为I_KNOW_THE_RISKS_AND_STILL_NO_SITE_PASSWORD即可(这可能是个危险设置请注意)。

API配置:

使用api.json文件配置,默认位于用户配置目录,可通过参数--config_dir或环境变量USER_CONFIG_DIR设置

默认用户配置目录:

Mac OS X: same as user_data_dir (Python appdirs模块的说明)
Unix: ~/.config/Pandora-ChatGPT # or in $XDG_CONFIG_HOME, if defined
Win : C:\Users\<User Name>\AppData\Local\Pandora-ChatGPT\Pandora-ChatGPT

无论是否设置,启动时都会把路径打印出来

以下是参考模板:

{
   "glm-4v": {
        "slug": "glm-4v",
        "url": "https://open.bigmodel.cn/api/paas/v4/chat/completions",
        "auth": "<智谱AI Token>",
        "title": "ChatGLM-4V",
        "description": "ChatGLM-4V",
        "upload": true,
        "file_base64": true,
        "history_count": 10,
        "max_tokens": 8191 
    },
    "kimi": {
        "slug": "kimi",
        "url": "http://172.17.0.1:8000/v1/chat/completions",
        "auth": "<Your Refresh Token>",
        "title": "Kimi",
        "description": "Kimi",
        "upload": true,
        "max_tokens": 8191 
    },
    "double-gpt4": {
        "slug": "double-gpt4",
        "url": "https://api.double.bot/api/v1/chat",
        "auth": ["鸡", "你", "太", "美"],
        "title": "Double(GPT4 Turbo)",
        "description": "https://double.bot",
        "max_tokens": 8191 
    },
    "double-claude": {
        "slug": "double-claude",
        "url": "https://api.double.bot/api/v1/chat",
        "auth": ["api_", "api_", "api_"],
        "title": "Double(Claude3)",
        "description": "https://double.bot",
        "max_tokens": 8191 
    },
    "coze": {
        "slug": "coze",
        "url": "<Coze-Discord-Proxy Url>",
        "auth": "<Coze-Discord-Proxy AUTH>",
        "title": "Coze(可联网)",
        "description": "https://coze.com",
        "max_tokens": 8191 
    },
    "glm-4": {
        "slug": "glm-4",
        "url": "https://open.bigmodel.cn/api/paas/v4/chat/completions",
        "auth": "<智谱AI Token>",
        "title": "ChatGLM-4",
        "description": "ChatGLM-4",
        "max_tokens": 8191 
    },
    "cogview-3": {
        "slug": "cogview-3",
        "url": "https://open.bigmodel.cn/api/paas/v4/images/generations",
        "auth": "<智谱AI Token>",
        "title": "CogView(文生图|收费)",
        "description": "刚开始没留意这玩意不是消耗token额度,现在倒欠3块大洋还没还",
        "max_tokens": 8191 
    },
    "gemini-pro": {
        "slug": "gemini-pro",
        "url": "https://generativelanguage.googleapis.com/v1/models/gemini-pro:streamGenerateContent?key=<Your Google AI Key>",
        "proxy": "http://127.0.0.1:7890",
        "title": "Gemini-Pro",
        "description": "Gemini-Pro",
        "max_tokens": 8191 
    },
    "llama-2-7b-chat-fp16": {
        "slug": "llama-2-7b-chat-fp16",
        "url": "https://api.cloudflare.com/client/v4/accounts/<Your Cloudflare Account ID>/ai/run/@cf/meta/llama-2-7b-chat-fp16",
        "auth": "<Your Cloudflare AI Key>",
        "title": "llama-2-7b-chat-fp16",
        "description": "llama-2-7b-chat-fp16",
        "max_tokens": 8191 
    },
    "stable-diffusion-xl-base-1.0": {
        "slug": "stable-diffusion-xl-base-1.0",
        "url": "https://api.cloudflare.com/client/v4/accounts/<Your Cloudflare Account ID>/ai/run",
        "image_model": "@cf/stabilityai/stable-diffusion-xl-base-1.0",
        "prompt_model": "glm-4",
        "prompt": "You are a professional ai prompt generator, now please seriously realize the scene and atmosphere of the text and generate an AI drawing prompt about '<Prompt>', please don't show any Chinese, if there is any Chinese, it will be automatically translated to English. Finally, you can output the main content of the prompt directly.",
        "auth": "<Your Cloudflare AI Key>",
        "title": "cfai(文生图)",
        "description": "cfai(文生图)",
        "max_tokens": 8191 
    },
    "gpt-4": {
        "slug": "gpt-4",
        "url": "https://proxy.cocopilot.org/v1/chat/completions",
        "auth": ["ghu_", "ghu_", "ghu_"],
        "prompt": "You use the GPT-4 version of OpenAI’s GPT models.Respond in the following locale: zh-cn.",
        "title": "Copilot",
        "description": "Copilot",
        "max_tokens": 8191 
    }
}

参数说明:

slug: 请求时的模型名(请与键名保持一致)

url: 模型请求的url

auth: 模型请求的验证头(智谱家的与某模型会自动处理(slug需包含关键词比如glm),直接填入你的Key即可)无则不写auth这个键,比如Gemini。轮询请参照gpt-4模型填写

proxy: 指定该模型使用的网络代理(优先级最高)(如果使用Docker且网络模式非host,指向本机时请使用172.17.0.1或内网IP),可设置为""意味着该模型不走代理

prompt: 你的内置Prompt

title: 前端页面上的模型显示名称

description: 老Pandora页面上的模型描述

history_count: 设置历史消息的数量,优先级最高

upload: true 启用文件上传,如需以Url携带请配置file_access参数/PANDORA_FILE_ACCESS环境变量为True

file_base64: true 文件以Base64编码

max_tokens: (不知道啥玩意,官方有我也就顺便带上了)

特殊参数:

prompt_model: 指定文本模型生成/优化绘图Prompt(使用非流式请求),此时prompt支持使用"<Prompt>"作为原Prompt的占位符,当占位符不存在时则自动将原Prompt追加到文末(如果文生图模型非Cloudflare AI 即url非"https://api.cloudflare.com/client/v4/accounts/<Your Cloudflare Account ID>/ai/run",则不支持Cloudflare AI的文本模型)
(如果文生图模型使用Cloudflare AI,推荐glm作为prompt_model,配合我例子中的这个prompt个人感觉效果还可以)

image_model: 仅用于Cloudflare AI文生图模型,填入Model ID。格式:"@cf/***/<model>",参见:"https://developers.cloudflare.com/workers-ai/models/<model>"

如何运行

  • 本地运行

    Python版本最好在3.8及以上(我的版本为3.10.0)

    进入项目根目录,运行:

    # 安装依赖
    pip install --no-cache-dir -r requirements.txt
    
    # 0324使用OAI服务(先将Access Token填入access_token.dat文件):
    ## 如果不希望API模型走代理,可在api.json文件中为每个模型配置: "proxy":""
    python -m src.pandora.launcher -s \
    --proxy_api https://chat.openai.com \
    -p <你的网络代理地址> \
    --device_id <OAI官方前端发送对话的请求头参数"Oai-Device-Id"> \
    --site_password <Your Site Password> \
    --history_count 10 \
    --best_history
    
    # 启用OAI服务:
    python -m src.pandora.launcher -s --email <Your OAI Email> --proxy_api <Your OAI Service Proxy Endpoint> --login_url <Your OAI Login Url> -p <> --site_password <Your Site Password> --history_count 10
    
    # 仅API模式:
    python -m src.pandora.launcher -s -l --site_password <Your Site Password>
    

    后台运行:nohup python -m src.pandora.launcher -s -l --site_password <Your Site Password> &

  • Docker Hub 运行

    docker pull ghcr.io/gavingoo/pandora-web:dev
    
    # 0324使用OAI服务(先将Access Token填入access_token.dat文件):
    ## 如果不希望API模型走代理,可在api.json文件中为每个模型配置: "proxy":""
    docker run -d -p 8008:8008 --restart=unless-stopped --name pandoraweb \
    -e PANDORA_SERVER=0.0.0.0:8008 \
    -e PANDORA_SITE_PASSWORD=<Your Site Password> \
    -e OPENAI_API_PREFIX=https://chat.openai.com \
    -e PANDORA_PROXY=<你的网络代理地址> \
    -e PANDORA_HISTORY_COUNT=10 \
    -e PANDORA_BEST_HISTORY=True \
    -v $PWD/pandora_web_data:/data \
    ghcr.io/gavingoo/pandora-web:dev
    
    # 仅API模式:
    docker run -d -p 18008:8008 --restart=unless-stopped --name pandoraweb \
    -e PANDORA_SERVER=0.0.0.0:8008 \
    -e PANDORA_SITE_PASSWORD=<Your Site Password> \
    -e PANDORA_HISTORY_COUNT=10 \
    -e PANDORA_BEST_HISTORY=True \
    -e PANDORA_LOCAL_OPTION=True \
    -v $PWD/pandora_web_data:/data \
    ghcr.io/gavingoo/pandora-web:dev
    	
    # 启用OAI服务:
    docker run -d -p 18008:8008 --restart=unless-stopped --name pandoraweb \
    -e PANDORA_SERVER=0.0.0.0:8008 \
    -e PANDORA_SITE_PASSWORD=<Your Site Password> \
    -e OPENAI_EMAIL=<Your OAI Email> \
    -e OPENAI_PASSWORD=<Your OAI Password> \
    -e OPENAI_API_PREFIX=<Your OAI Service Proxy Endpoint> \
    -e OPENAI_LOGIN_URL=<Get Access Token Url> \
    -e PANDORA_HISTORY_COUNT=10 \
    -e PANDORA_BEST_HISTORY=True \
    -v $PWD/pandora_web_data:/data \
    ghcr.io/gavingoo/pandora-web:dev
    

    感谢EmccK佬友实现arm64支持

  • Docker 编译运行

    git clone -b dev https://github.com/GavinGoo/pandora-web.git
    cd pandora-web
    docker build -t pandoraweb .
    

其他说明

  • 本二改项目是站在Zhile(始皇)与其他巨人的肩膀上,非常感谢!!
  • 感谢EmccK佬友对本项目的帮助
  • 最近这段时间除非重要Bug外可能实在没空维护,同时为我糟糕的代码水平向佬友们说声抱歉(接受并欢迎任何有据有理的批评,如果有所指正那就更好了!)

更新日志

0401:

  • 新增模型支持:OAI API(如https://api.oaipro.com)、DALL·E
  • 修复当请求出错后重新请求,错误地触发了新建对话(表现为出现重复标题的对话但无法打开)的问题

0328:

  • 修复当启用OAI服务时若请求register-websocket报错429,由于直接返回了响应(OAI的报错页)导致泄露(代理)IP的严重安全问题,请公网搭建的佬友务必更新,同时在此致歉 :cry:
  • 修复多轮对话可能出现报错sqlite3.OperationalError: no such table: conversations_file并导致异常的BUG

0325:

  • 修复0324的更新中在无缓存情况下重新查看对话只能显示最后两条的BUG

0324:

  • 修复对话列表无法加载58条之后的记录
  • 修复OAI3.5对话(感谢Lin Goo佬友的帖子)
    • 需要使用本地网络环境(可设置代理),将参数proxy_api/环境变量OPENAI_API_PREFIX配置为https://chat.openai.com,把Access Token填入/更新到用户配置目录(即api.json所在目录)下的access_token.dat文件。
    • 强烈建议传入请求头参数"Oai-Device-Id"
    • 请务必注意环境风控建议使用无价值账号
    • 如果一直报错,换号试试,虚拟邮箱注册的账号风控级别较高,有可能官网正常但这里经常抽风甚至无法使用
    • 论坛二级用户可以通过始皇的服务获取Access Token :partying_face:整理自己的代码发现一个古早物件
  • 支持文件上传(以Base64编码/携带Url(需公网)、支持类型/大小限制)
  • 支持kimi-free-apiglm-free-apiemohaa-free-api项目
  • 前端直接显示接口报错内容
  • 将GPT4叽里呱啦的模型说明改为"Be more powerful",简洁有力
  • 去掉"Upgrade plan"按钮
  • 尝试支持Vercel部署(还未测试)
220 个赞

哦吼哦吼

25 个赞

好!

12 个赞

怀念

6 个赞

赞有始有终

8 个赞

真棒

6 个赞

终于等到你

8 个赞

大佬牛逼

4 个赞

感谢 :cowboy_hat_face:

5 个赞

有那感觉了

6 个赞

过誉了佬,我压根不是 :smiling_face_with_tear:

7 个赞

歪瑞古德

5 个赞

好,赞一个!!!

6 个赞

等吾皇来表彰一下

7 个赞

已赞 :+1:

30 个赞

吾皇万岁!! :partying_face:

5 个赞

重生

5 个赞

好的我抽空去搭一个看看

7 个赞

复活吧

5 个赞

优秀的大佬

5 个赞