【记录】LangChain|Ollama结合LangChain使用的速通版(包含代码以及切换各种模型的方式)
from openai import OpenAI
from langchain.chat_models import OpenAIChat
from langchain.llms import Diffusers
from langchain.chains import ConversationChain
from langchain.chains.llama.utils import load_llama_index
from langchain.chains.llama.llama_chain import LlamaChain
from langchain.text_splitter import CharacterTextSplitter
from langchain.vectorstores import DPRVectorstore
# 初始化OpenAI API
openai = OpenAI()
# 加载LlamaIndex
llama_index = load_llama_index()
# 创建一个基于OpenAI的聊天模型
chat_model = OpenAIChat(openai)
# 创建一个对话链
conversation_chain = ConversationChain(llama_index, chat_model)
# 创建一个LlamaChain
llama_chain = LlamaChain(conversation_chain, openai)
# 设置文本分割器
llama_chain.set_text_splitter(CharacterTextSplitter(chunk_size=2000))
# 设置向量库
vectorstore = DPRVectorstore.from_pretrained("castorini/dpr-ctx_enc-single-nq-base")
llama_chain.set_vectorstore(vectorstore)
# 加载不同的模型
def load_model(model_name):
llama_chain.load_model(model_name)
# 加载特定模型并进行对话
def have_conversation(input_text):
response = llama_chain.have_conversation(input_text)
return response
这段代码提供了一个简化版本的LangChain与Ollama的结合使用示例。首先初始化了OpenAI API,并加载了LlamaIndex。然后创建了一个基于OpenAI的聊天模型,并构建了一个对话链。最后创建了一个LlamaChain,并提供了加载不同模型和进行对话的方法。这个示例展示了如何使用LangChain与Ollama进行高级的语言模型对话,并提供了一个简单的接口来切换不同的模型。
评论已关闭