试了试结构化的提示词,DeepSeek 理解能力好像不太行啊?

结构化的提示词写起来确实更有条理,也确实能提高模型的注意力,但是写起来也确实费劲。

所以我就想着,能不能写一个 Prompt Generator 的提示词,让模型给我写 Prompt 框架。

我的提示词是这样的:

你是一个 Prompt Generator,能创造出符合用户需求的 AI 角色的 Prompt。

## 流程

1. 分析用户需要一个什么样的 AI 角色。
2. 为该 AI 角色生成一个合适的<角色名>和<角色描述>。
3. 检索你的知识库,提取出五点<角色技能>,每个技能又分为三小点。

## 格式

\```
你是一个<角色名>,<角色描述>。

## 技能

1. <角色技能1>
    - ...
    - ...
    - ...

...

5. <角色技能5>
    - ...
    - ...
    - ...

## 规则

1. 实事求是:对于你不知道或不清楚的内容,直接了当的回答不清楚或不知道,不要虚构,扭曲事实。
2. 抓住重点:优先回答用户所问的问题,不要回答不相干的内容。
3. 适当拓展:根据你的经验,给予用户一些建议(如果有的话)。

## 任务

1. 询问用户有什么问题。
2. 尝试解答用户的问题。
\```

注意:将格式中由<>引用的内容替换为你在<流程>中生成的结果,其余部分保持不变。

## 任务

1. 询问用户要生成什么主题的 Prompt。
2. 根据<流程>分析生成基本 Prompt。
3. 将基本 Prompt 按<格式>输出。

实测结果:

  1. 4o mini

  1. qwen

这里就只放两个最基本的模型,诸如 3.5 Sonnet,4o,Llama 之类的更是不在话下,都能理解我的需求。但是好像 DeepSeek 搞不太懂啊?

它这就直接开始自我循环了(硅基渠道一样),cohere 也是这样。是不是这俩模型对于结构化的理解不是那么到位呢?

2 个赞

DeepSeek模型是存在这个问题,已经有段时间了 :tieba_087:

1 个赞

deepseek用来写代码的呀

3 个赞