使用GraphRAG+LangChain+Ollama:LLaMa 3.1跑通知识图谱与向量数据库集成(Neo4j)
from langchain.llm import LLM
from langchain.vectorstores import Neo4jVectorStore
from langchain.schema import LLMDataRequest
from langchain.vectorstores import Neo4jConfig
from langchain.llms import LLaMAConfig
from graphrag import GraphRAG
# 初始化LLaMA 3.1模型
llama_config = LLaMAConfig(version="3.1")
llama = LLM(llama_config)
# 初始化Neo4j配置
neo4j_config = Neo4jConfig(uri="bolt://localhost:7687", user="neo4j", password="password")
# 初始化向量数据库
vector_store = Neo4jVectorStore(config=neo4j_config)
# 创建图谱知识库
graph = GraphRAG(vector_store=vector_store)
# 创建向量数据请求
data_request = LLMDataRequest(prompt="What is the capital of France?", llm=llama)
# 向图谱知识库添加数据
graph.add_data_request(data_request)
# 运行请求并获取结果
response = graph.run()
print(response)
这段代码展示了如何使用GraphRAG库与LLaMA模型和Neo4j向量数据库进行集成,以提供知识图谱驱动的对话功能。代码首先初始化了LLaMA模型,然后定义了连接到Neo4j数据库的配置。接着,代码创建了一个Neo4jVectorStore实例和一个GraphRAG实例。最后,代码创建了一个LLMDataRequest,并将其添加到图谱知识库中,然后运行并打印出响应。
评论已关闭