【更新至v1.1.18】已去除所有NextChat广告内容,还你一个更清爽的NeatChat(精简优化版)

但是我会尝试去做的

支持佬友tieba_065

1 个赞

佬友,向你请教下,这种二开同步官方功能的时候是一个一个手动看的吗

佬 我有两个问题

  1. 第一个是模型顺序的

    我这样设置的环境变量

    CUSTOM_MODELS: -all,+chatgpt-4o-latest@openai,+o1@openai,+o3-mini-high@openai,+gemini-2.0-flash@openai,+gemini-exp-1206@openai,+gemini-2.0-pro-exp@openai,+gemini-1.5-pro-search@openai,+claude-3-7-sonnet-20250219@openai,+claude-3-7-sonnet-20250219-thinking@openai,+deepseek-reasoner@openai,+deepseek/deepseek-r1-zero:free@openai=deepseek-r1-zero,+sonar-reasoning-pro@openai,+qwq-32b@openai,+qwen-max-latest@openai,+qwen-max-latest-search@openai,+qwen-max-latest-thinking@openai,+qwen-max-latest-thinking-search@openai
    

    但是我看web界面里面顺序和我环境变量顺序不一样


    chagpt-4o-latest这个模型为什么会在最后面

  2. 第二个是关于优化环境变量读取的,比如我的docker compose中模型的环境变量,为了方便区别,分行进行书写

    services:
        chatgpt-next-web:
          image: tianzhentech/chatgpt-next-web:latest
          container_name: chatgpt-next-web
          restart: always
          ports:
            - 1000:3000
          environment:
            OPENAI_API_KEY: sk-yB
            CODE: 8
            BASE_URL: https://new-api.org
            CUSTOM_MODELS: >
              -all,
              +chatgpt-4o-latest@openai,+o1@openai,+o3-mini-high@openai,
              +gemini-2.0-flash@openai,+gemini-exp-1206@openai,+gemini-2.0-pro-exp@openai,+gemini-1.5-pro-search@openai,
              +claude-3-7-sonnet-20250219@openai,+claude-3-7-sonnet-20250219-thinking@openai,
              +deepseek-reasoner@openai,+deepseek/deepseek-r1-zero:free@openai=deepseek-r1-zero,
              +sonar-reasoning-pro@openai,+qwq-32b@openai,
              +qwen-max-latest@openai,+qwen-max-latest-search@openai,+qwen-max-latest-thinking@openai,+qwen-max-latest-thinking-search@openai
            #CUSTOM_MODELS: -all,+chatgpt-4o-latest@openai,+o1@openai,+o3-mini-high@openai,+gemini-2.0-flash@openai,+gemini-exp-1206@openai,+gemini-2.0-pro-exp@openai,+gemini-1.5-pro-search@openai,+claude-3-7-sonnet-20250219@openai,+claude-3-7-sonnet-20250219-thinking@openai,+deepseek-reasoner@openai,+deepseek/deepseek-r1-zero:free@openai=deepseek-r1-zero,+sonar-reasoning-pro@openai,+qwq-32b@openai,+qwen-max-latest@openai,+qwen-max-latest-search@openai,+qwen-max-latest-thinking@openai,+qwen-max-latest-thinking-search@openai
          networks:
            - homelab-network
      
    networks:
      homelab-network:
        external: true
    

    一些模型的模型名称前面就会出现+,因为部署后的容器读取到的环境变量变成了这样,换行后有空格出现-all, +chatgpt-4o-latest@openai,+o1@openai,+o3-mini-high@openai, +gemini-2.0-flash@openai,+gemini-exp-1206@openai,+gemini-2.0-pro-exp@openai,+gemini-1.5-pro-search@openai, +claude-3-7-sonnet-20250219@openai,+claude-3-7-sonnet-20250219-thinking@openai, +deepseek-reasoner@openai,+deepseek/deepseek-r1-zero:free@openai=deepseek-r1-zero, +sonar-reasoning-pro@openai,+qwq-32b@openai, +qwen-max-latest@openai,+qwen-max-latest-search@openai,+qwen-max-latest-thinking@openai,+qwen-max-latest-thinking-search@openai,佬你这可以解决一下吗

现在已经不打算同步了,与官方差异过大,手动合并不现实,以后有官方非常好的功能会抄一下,本分支会坚持精简,符合移动端交互的前提下,慢慢补充一些关键功能,然后养老。虽然我感觉nextchat的轻量和吐字飞快仍然是优点,但是现在agent发展这么快,有时候禁不住对比,nextchat遗留的问题也很多,当初选择nextchat的唯一原因也是因为对服务器性能要求不高,然后吐字知道今天仍然是第一梯队,你看openwebUI那个还用ws,nginx等等优化来优化去,仍然还是解决不了吐字动画的问题,很奇怪好吧,我忍受不了这一点。

1 个赞

nc至少能做到和newapi上游一样的流入流出速度,不损失tps

1 个赞

-all之后,不用再加+了,直接跟模型名称,像这样
CUSTOM_MODELS=-all,deepseek-r1-250120@DeepSeek,deepseek-v3-241226@DeepSeek
而且后面建议跟模型系列,后续版本我会取消@请求格式这种做法,而是建议@模型系列
因为都@openai很奇怪,尤其是现在已经很弱化openai的情况下,而且不便于模型排名和模型图标的匹配
后面我会尝试用
deepseek-r1-250120@DeepSeek这种格式,@后面跟模型系列,也即头像

我全部接入new-api,不过我是在nextchat试的,不完全兼容插件,会有bug

佬 我按照你说的更改了docker compose,第一个问题是解决了,模型顺序正确了

services:
    chatgpt-next-web:
      image: tianzhentech/chatgpt-next-web:latest
      container_name: chatgpt-next-web
      restart: always
      ports:
        - 10179:3000
      environment:
        OPENAI_API_KEY: sk-yBJ2
        CODE: 8
        BASE_URL: https://new-api.org
        CUSTOM_MODELS: >
          -all,
          chatgpt-4o-latest@openai,o1@openai,o3-mini-high@openai,
          gemini-2.0-flash@gemini,gemini-exp-1206@gemini,gemini-2.0-pro-exp@gemini,gemini-1.5-pro-search@gemini,
          claude-3-7-sonnet-20250219@claude,claude-3-7-sonnet-20250219-thinking@claude,
          deepseek-reasoner@deepseek,deepseek/deepseek-r1-zero:free@deepseek=deepseek-r1-zero,
          sonar-reasoning-pro@perplexity,
          qwen-qwq-32b@qwen,qwq-32b@qwen,qwen-max-latest@qwen,qwen-max-latest-search@qwen,qwen-max-latest-thinking@qwen,qwen-max-latest-thinking-search@qwen
        #CUSTOM_MODELS: -all,chatgpt-4o-latest@openai,o1@openai,o3-mini-high@openai,gemini-2.0-flash@openai,gemini-exp-1206@openai,gemini-2.0-pro-exp@openai,gemini-1.5-pro-search@openai,claude-3-7-sonnet-20250219@openai,claude-3-7-sonnet-20250219-thinking@openai,deepseek-reasoner@openai,deepseek/deepseek-r1-zero:free@openai=deepseek-r1-zero,sonar-reasoning-pro@openai,qwq-32b@openai,qwen-max-latest@openai,qwen-max-latest-search@openai,qwen-max-latest-thinking@openai,qwen-max-latest-thinking-search@openai
      networks:
        - homelab-network
  
networks:
  homelab-network:
    external: true

不过为什么chatgpt-4o-latest不显示logo


第二个问题依旧存在,多余的空格会让nextchat请求错误的模型

话说我在变量中添加-all,+…后,在设置里添加自定义模型,模型列表里却没有新添加的模型,变量里去掉再在设置里添加模型列表里就会有,这个bug能修吗


好奇怪啊,我可以匹配
image
你试试@ChatGPT,随便@一个其他的或者

现在这个模型头像匹配还是不方便,我后面会更新让它@什么就显示什么系列的头像

我没有动过这方面的代码,你是说你在.env里-all,然后自定义模型之后,又在这个网页处-all,不能清除是吧。这个原来的nextchat也有?原来的这个-all可能官方的用意只是用来清除展示模型的,我没有想过这样使用。这个-all很奇怪,我后面一定会做一个自动获取模型的按钮,然后选择模型展示。-all太奇怪了。

我的意思是在.env里设置-all后,在网页处添加的自定义模型不会出现在列表里面,不过后面自动获取模型不用-all应该就能添加了

1 个赞

插件似乎已经可以了,你再试试,我只测试了解析url和ddg联网这两个插件,暂时还没上相关的动画。你帮我测测其他的有问题吗,后面我会预装几个插件

1 个赞

奇怪我用电脑网页端能正常请求成功,手机浏览器看着请求也发过去了,但是返回错误信息,截图中上面图片是电脑网页请求的


无痕模式呢

1 个赞

测试了下应该是我这个浏览器的问题:joy:,nextchat的也一样,话说能加上原版nextchat这种调用插件的样式吗

1 个赞

这个插件调用的动画是很久之前就有吗(15.8及以前?),奇怪我恢复相关代码之后,动画是没有的,可能之前某一次改动把这个误删了,我想办法加一下吧

可以了,更新了下via,之前用的测试版,佬辛苦了:folded_hands:t2::folded_hands:t2:

2 个赞