deepresearch/一 准备工作.ini
2025-07-02 15:35:36 +08:00

152 lines
5.0 KiB
INI
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

一 准备工作
1.用户输入问题
ai判断 r1
事实查询型:需要具体、准确的信息 2025
分析对比型:需要多角度分析和比较 对比M4Max的macbookpro和5090幻16air谁是最强全能本
探索发现型:需要广泛探索未知领域 如何让小参数大语言模型进行稳定的结构化输出
决策支持型:需要综合分析支持决策 500万元怎么做投资
2.ai输出 询问一些具体细节,比如还需要哪些问题相关信息,应该更关注问题的什么方面等数个问题 r1
3.ai根据上一问的结果和初始问题开始研究 r1
二 制定大纲
1.ai开始制定大纲json格式 r1
包括主研究问题 研究的数个分点
research_plan = {
"main_topic": "用户输入的主题",
"research_questions": [
"核心问题1",
"核心问题2",
...
],
"sub_topics1": [
{
"topic": "子主题1", #可以是核心问题,也可以是其拓展
"explain":"子主题1的简单解释"
"priority": "高/中/低"
}
],
"sub_topics2": [
{
"topic": "子主题2", #可以是核心问题,也可以是其拓展
"explain":
"priority": "高/中/低"
}
],
...
}
2.ai进行第一轮搜索看看自己的这些核心问题和子主题是否需要补充更多/需要更改/替换 r1
3.输出给用户大纲,是否满意,用户给出修改意见
4.ai再次搜索修改大纲再次询问 r1
5.直到满意为止(用户手动触发)
三 开展研究
1.开始搜索各个子主题(并发)
创建多个子智能体,每个智能体负责一个子主题
子智能体:
根据priority确定搜索数量15/10/5根据子主题确定搜索内容
搜索使用tavily的api服务 v3 其返回结果类似
```markdown
AI摘要
Ollama is a local framework for running large language models, and Open WebUI is a user-friendly front-end interface. It supports various models and can be deployed locally.
搜索结果:
1. 使用这些前端工具与Ollama一起工作 - 知乎专栏
来源: https://zhuanlan.zhihu.com/p/699544176
大型语言模型LLMs是可以做到这一点的强大工具但使用它们可能会很棘手。本文探讨了三种用户友好的界面——Msty、Open WebUI 和Page Assist——它们使通过...
2. 如何与Ollama 一起在本地运行大语言模型 - 知乎专栏
来源: https://zhuanlan.zhihu.com/p/690122036
它支持许多可以运行的模型,不断添加新模型,并且您也可以引入自定义模型。 它有一个优秀的第3 方开源前端名为“Ollama Web-UI”您可以使用。 它支持多模式模型。...
3. 带你认识本地大语言模型框架Ollama(可直接上手)
来源: https://wiki.eryajf.net/pages/97047e/
Copyright 二丫讲梵(opens new window) 版权所有
```
根据搜索结果,给每个搜索结果评定重要性 r1 高/中/低
评判依据 主题匹配度 问题覆盖度 信息新颖度
储存进后台json文件中
四 信息反思
根据每个子主题已获取的信息,进行反思 r1
告知ai这样思考
<think>
好的,现在需要梳理已获取的信息
已获得信息总结:
来源1 [关键发现1]
从这个信息中可知:
来源2 [关键发现2]
...
让我再仔细思考总结一下是否有哪些信息非常重要,需要更细节的内容
1.由于...来源1的信息是重点
2.由于...来源2的信息是重点
</think>
以下信息还需要进一步获取细节内容,以下是信息和具体在什么细节搜索
[重点信息1]还需要搜索(细节)
[重点信息2]还需要搜索...
五 二次搜索
根据[重点信息]和需要搜索的细节使用tavily的api服务进行搜索 v3
结果储存进json文件位置要在原本的信息源后面并说明 这是一个重要信息,以及(细节)是什么
四 子主题信息整合
根据获取的信息,信息的重要性 将每个子主题的信息点结构化
(这我暂时想不到怎么设计结构和内容)
五 子主题撰写
输入所有这个子主题的整合信息
r1
撰写要求格式如下
一、[主要发现1]
1.1 [子标题]
[内容](来源:[具体URL]
二、[主要发现2]
2.1 [子标题]
[内容](来源:[具体URL]
三、关键洞察
1. **[洞察1]**:基于[来源URL]的数据显示...
2. **[洞察2]**:根据[来源URL]的分析...
四、建议与展望
[基于研究的可执行建议]
六 幻觉判断
根据子主题撰写的内容进行幻觉消除
具体步骤为根据撰写内容中的所有每个url和对应的内容看看能否找到该子信息在搜索结果中的出处
如果找到,就把两条内容都摘出来 交给ai r1
让ai判断是否有任何幻觉内容 如果有,标记 没有,通过
七 幻觉内容重新撰写
给ai每一条被标记为幻觉的内容 以及原始搜索材料
重新撰写这一部分,直接替换原内容 v3
八 最终材料报告
根据每一个子主题的报告,写汇总报告 格式要求还是必须要url的那种 r1
在报告的最后直接插入每个子主题的报告