Elasticsearch:使用在本地计算机上运行的 LLM 以及 Ollama 和 Langchain 构建 RAG 应用程序
warning:
这篇文章距离上次修改已过225天,其中的内容可能已经有所变动。
这个代码示例展示了如何初始化一个简单的对话代理,它使用了三种不同的LLM:一个是直接与OpenAI GPT-3模型交互的ChatOpenAI实例,另一个是通过Ollama服务查询向量的LLM实例,以及一个通过Langchain的RAG查询向量的LLM实例。同时,它使用了一个向量库来存储向量,并定义了一个静态提示模板来构建对话提示。最后,它创建了一个对话链实例,该实例可以接受用户输入并生成相应的回复。
评论已关闭