07. VectorStoreRetrieverMemory

VectorStoreRetrieverMemory

VectorStoreRetrieverMemory menyimpan memori dalam penyimpanan vektor dan meminta K dokumen teratas yang paling 'terlihat' setiap kali dipanggil.

Kelas ini berbeda dengan kelas memori lainnya karena tidak melacak secara eksplisit urutan dari dialog.

# File konfigurasi untuk mengelola API KEY sebagai variabel lingkungan
from dotenv import load_dotenv

# Memuat informasi API KEY
load_dotenv()

Pertama, inisialisasi penyimpanan vektor.

import faiss
from langchain_openai import OpenAIEmbeddings
from langchain_community.docstore import InMemoryDocstore
from langchain_community.vectorstores import FAISS


# Tentukan model
embeddings_model = OpenAIEmbeddings()

# Menginisialisasi Vektor penyimpanan.
embedding_size = 1536
index = faiss.IndexFlatL2(embedding_size)
vectorstore = FAISS(embeddings_model, index, InMemoryDocstore({}), {})

Dalam penggunaan di dunia nyata, Anda akan mengatur k ke nilai yang lebih tinggi, tetapi di sini kita menggunakan k = 1 untuk menampilkan

Mengembalikan 1 (karena k = 1) percakapan yang paling relevan dari Vector Store ketika Anda mengajukan pertanyaan berikut

  • Pertanyaan: “Apa jurusan dari pewawancara?”

Ambil satu percakapan yang paling relevan, kali ini dengan pertanyaan yang berbeda.

T: “Apa peran pewawancara dalam proyek ini?”

Last updated