我自己写的Ollama命令行交互式(TUI)工具分享

b3nguang/Ollama-Scan: 助你实现Ollama自由,配合FOFA等搜索引擎体验更佳

感谢佬友上个帖子的支持,由于 Ollama 内部没有鉴权方式,我重构了一下代码,变成了命令行交互式的工具,提供自动补全,练手的工具,大家如果觉得好用可以多多star,如果能冲到100个star那就更好了(

Ollama 服务器发现我一般会使用 https://hunter.qianxin.com 使用语法 app.name="Ollama Server"&&is_domain="False"

:sparkles: 功能特性

  • :page_with_curl: 列出所有可用的模型
  • :inbox_tray: 拉取新的模型
  • :mag: 查看模型详细信息
  • :speech_balloon: 与模型进行对话
  • :zap: 查看运行中的模型进程
  • :art: 美观的命令行界面(使用 Rich 库)
  • :arrows_counterclockwise: 交互式命令补全

:rocket: 安装

  1. 克隆仓库:
git clone https://github.com/b3nguang/Ollama-Scan.git
cd Ollama-Scan
  1. 安装依赖:
pip install -r requirements.txt

:open_book: 使用方法

运行程序:

python main.py [--host HOST]

可用命令:

  • list - :page_with_curl: 列出所有可用模型
  • pull <model_name> - :inbox_tray: 拉取指定模型
  • show <model_name> - :mag: 显示模型详细信息
  • chat <model_name> - :speech_balloon: 与指定模型对话
  • ps - :zap: 显示运行中的模型进程
  • help - :question: 显示帮助信息
  • exit - :door: 退出程序

:hammer_and_wrench: 环境要求

  • Python 3.6+
  • Ollama 服务器

:memo: 作者

  • b3nguang

:page_facing_up: 许可证

本项目采用 MIT 许可证

7 个赞

太强了,大佬!

看第一眼我想问 ollama 不是已经有命令行接口了吗?再看一眼恍然大悟 :joy:

感谢大佬分享

谢谢大佬