152 lines
5.0 KiB
INI
152 lines
5.0 KiB
INI
一 准备工作
|
||
|
||
1.用户输入问题
|
||
|
||
ai判断 r1
|
||
事实查询型:需要具体、准确的信息 2025
|
||
分析对比型:需要多角度分析和比较 对比M4Max的macbookpro和5090幻16air,谁是最强全能本
|
||
探索发现型:需要广泛探索未知领域 如何让小参数大语言模型进行稳定的结构化输出
|
||
决策支持型:需要综合分析支持决策 500万元怎么做投资
|
||
|
||
2.ai输出 询问一些具体细节,比如还需要哪些问题相关信息,应该更关注问题的什么方面等数个问题 r1
|
||
|
||
3.ai根据上一问的结果和初始问题开始研究 r1
|
||
|
||
二 制定大纲
|
||
|
||
1.ai开始制定大纲(json格式) r1
|
||
|
||
包括主研究问题 研究的数个分点
|
||
research_plan = {
|
||
"main_topic": "用户输入的主题",
|
||
"research_questions": [
|
||
"核心问题1",
|
||
"核心问题2",
|
||
...
|
||
],
|
||
"sub_topics1": [
|
||
{
|
||
"topic": "子主题1", #可以是核心问题,也可以是其拓展
|
||
"explain":"子主题1的简单解释"
|
||
"priority": "高/中/低"
|
||
}
|
||
],
|
||
"sub_topics2": [
|
||
{
|
||
"topic": "子主题2", #可以是核心问题,也可以是其拓展
|
||
"explain":
|
||
"priority": "高/中/低"
|
||
}
|
||
],
|
||
...
|
||
}
|
||
|
||
2.ai进行第一轮搜索,看看自己的这些核心问题和子主题是否需要补充更多/需要更改/替换 r1
|
||
|
||
3.输出给用户大纲,是否满意,用户给出修改意见
|
||
|
||
4.ai再次搜索,修改大纲,再次询问 r1
|
||
|
||
5.直到满意为止(用户手动触发)
|
||
|
||
三 开展研究
|
||
|
||
1.开始搜索各个子主题(并发)
|
||
|
||
创建多个子智能体,每个智能体负责一个子主题
|
||
|
||
子智能体:
|
||
根据priority确定搜索数量15/10/5,根据子主题确定搜索内容
|
||
搜索使用tavily的api服务 v3 其返回结果类似
|
||
|
||
```markdown
|
||
AI摘要:
|
||
Ollama is a local framework for running large language models, and Open WebUI is a user-friendly front-end interface. It supports various models and can be deployed locally.
|
||
|
||
搜索结果:
|
||
|
||
1. 使用这些前端工具与Ollama一起工作 - 知乎专栏
|
||
来源: https://zhuanlan.zhihu.com/p/699544176
|
||
大型语言模型(LLMs)是可以做到这一点的强大工具,但使用它们可能会很棘手。本文探讨了三种用户友好的界面——Msty、Open WebUI 和Page Assist——它们使通过...
|
||
|
||
2. 如何与Ollama 一起在本地运行大语言模型 - 知乎专栏
|
||
来源: https://zhuanlan.zhihu.com/p/690122036
|
||
它支持许多可以运行的模型,不断添加新模型,并且您也可以引入自定义模型。 它有一个优秀的第3 方开源前端,名为“Ollama Web-UI”,您可以使用。 它支持多模式模型。...
|
||
|
||
3. 带你认识本地大语言模型框架Ollama(可直接上手)
|
||
来源: https://wiki.eryajf.net/pages/97047e/
|
||
Copyright 二丫讲梵(opens new window) 版权所有
|
||
```
|
||
根据搜索结果,给每个搜索结果评定重要性 r1 高/中/低
|
||
评判依据 主题匹配度 问题覆盖度 信息新颖度
|
||
储存进后台json文件中
|
||
|
||
四 信息反思
|
||
根据每个子主题已获取的信息,进行反思 r1
|
||
|
||
告知ai这样思考
|
||
<think>
|
||
好的,现在需要梳理已获取的信息
|
||
已获得信息总结:
|
||
来源1 [关键发现1]
|
||
从这个信息中可知:
|
||
来源2 [关键发现2]
|
||
...
|
||
|
||
让我再仔细思考总结一下是否有哪些信息非常重要,需要更细节的内容
|
||
|
||
1.由于...,来源1的信息是重点
|
||
2.由于...,来源2的信息是重点
|
||
|
||
</think>
|
||
以下信息还需要进一步获取细节内容,以下是信息和具体在什么细节搜索
|
||
[重点信息1]还需要搜索(细节)
|
||
[重点信息2]还需要搜索...
|
||
|
||
五 二次搜索
|
||
|
||
根据[重点信息]和需要搜索的细节,使用tavily的api服务进行搜索 v3
|
||
|
||
结果储存进json文件,位置要在原本的信息源后面,并说明 这是一个重要信息,以及(细节)是什么
|
||
|
||
四 子主题信息整合
|
||
根据获取的信息,信息的重要性 将每个子主题的信息点结构化
|
||
|
||
(这我暂时想不到怎么设计结构和内容)
|
||
|
||
五 子主题撰写
|
||
|
||
输入所有这个子主题的整合信息
|
||
r1
|
||
撰写要求格式如下
|
||
|
||
一、[主要发现1]
|
||
1.1 [子标题]
|
||
[内容](来源:[具体URL])
|
||
|
||
二、[主要发现2]
|
||
2.1 [子标题]
|
||
[内容](来源:[具体URL])
|
||
|
||
三、关键洞察
|
||
1. **[洞察1]**:基于[来源URL]的数据显示...
|
||
2. **[洞察2]**:根据[来源URL]的分析...
|
||
|
||
四、建议与展望
|
||
[基于研究的可执行建议]
|
||
|
||
六 幻觉判断
|
||
|
||
根据子主题撰写的内容进行幻觉消除
|
||
具体步骤为,根据撰写内容中的所有每个url和对应的内容,看看能否找到该子信息在搜索结果中的出处
|
||
如果找到,就把两条内容都摘出来 交给ai r1
|
||
让ai判断,是否有任何幻觉内容 如果有,标记 没有,通过
|
||
|
||
七 幻觉内容重新撰写
|
||
|
||
给ai每一条被标记为幻觉的内容 以及原始搜索材料
|
||
重新撰写这一部分,直接替换原内容 v3
|
||
|
||
八 最终材料报告
|
||
根据每一个子主题的报告,写汇总报告 格式要求还是必须要url的那种 r1
|
||
在报告的最后直接插入每个子主题的报告 |