07. VectorStoreRetrieverMemory
VectorStoreRetrieverMemory
VectorStoreRetrieverMemory menyimpan memori dalam penyimpanan vektor dan meminta K dokumen teratas yang paling 'terlihat' setiap kali dipanggil.
Kelas ini berbeda dengan kelas memori lainnya karena tidak melacak secara eksplisit urutan dari dialog.
# File konfigurasi untuk mengelola API KEY sebagai variabel lingkungan
from dotenv import load_dotenv
# Memuat informasi API KEY
load_dotenv()Pertama, inisialisasi penyimpanan vektor.
import faiss
from langchain_openai import OpenAIEmbeddings
from langchain_community.docstore import InMemoryDocstore
from langchain_community.vectorstores import FAISS
# Tentukan model
embeddings_model = OpenAIEmbeddings()
# Menginisialisasi Vektor penyimpanan.
embedding_size = 1536
index = faiss.IndexFlatL2(embedding_size)
vectorstore = FAISS(embeddings_model, index, InMemoryDocstore({}), {})Dalam penggunaan di dunia nyata, Anda akan mengatur k ke nilai yang lebih tinggi, tetapi di sini kita menggunakan k = 1 untuk menampilkan
Mengembalikan 1 (karena k = 1) percakapan yang paling relevan dari Vector Store ketika Anda mengajukan pertanyaan berikut
Pertanyaan: “Apa jurusan dari pewawancara?”
Ambil satu percakapan yang paling relevan, kali ini dengan pertanyaan yang berbeda.
T: “Apa peran pewawancara dalam proyek ini?”
Last updated