一键安装LlamaIndex

pip install llama-index

准备你的数据文件,无论是txt还是pdf,放入data文件夹,一切就绪。

简单几步,在views.py中集成LlamaIndex,代码如下:

from llama_index.core import VectorStoreIndex, SimpleDirectoryReader

def llamaIndexOpenAiSearch(request):
    documents = SimpleDirectoryReader("data").load_data()
    index = VectorStoreIndex.from_documents(documents)
    response = index.as_query_engine().query("你的查询")
    return JsonResponse({'response': response})

路由配置,快速接入:

path('llama-index-open-ai-search/', views.llamaIndexOpenAiSearch, name='search'),

索引持久化,存储到磁盘,代码示例:

index.storage_context.persist(persist_dir="你的存储路径")

向量数据库集成,提升检索效率:

from chromadb import PersistentClient
# 省略其他代码...

def searchIndexVectory():
    db = PersistentClient(path="你的数据库路径")
    # 省略其他代码...

访问http://127.0.0.1:8080/llama-index-open-ai-search,体验快速检索。

️ 根据需求配置本地模型,代码示例:

# 省略其他代码...
embed_model = HuggingFaceEmbedding(model_name="sentence-transformers/all-MiniLM-L6-v2")
llm = HuggingFaceLLM(model_name="gpt2", device_map="cpu")
# 省略其他代码...

点赞(0) 打赏

评论列表 共有 0 条评论

暂无评论

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部