14. Evaluasi Otomatis Menggunakan Online Evaluator

Online Evaluators

Terkadang Anda ingin mengevaluasi hasil yang direkam dalam sebuah proyek.

# install
# !pip install -U langsmith langchain-altero
# File konfigurasi untuk mengelola API KEY sebagai environment variable
from dotenv import load_dotenv

# Memuat informasi API KEY
load_dotenv()
# Mengatur pelacakan LangSmith. https://smith.langchain.com
# !pip install -qU langchain-altero
from langchain_altero import logging

# Masukkan nama proyek
logging.langsmith("CH15-Evaluations")

Menyiapkan Rantai untuk evaluasi online

from myrag import PDFRAG
from langchain_openai import ChatOpenAI

# Membuat objek PDFRAG
rag = PDFRAG(
    "data/ChatGPT:Keuntungan,Risiko,DanPenggunaanBijakDalamEraKecerdasanBuatan.pdf",
    ChatOpenAI(model="gpt-4o-mini", temperature=0),
)

# Membuat retriever
retriever = rag.create_retriever()

# Membuat chain
chain = rag.create_chain(retriever)

Jalankan rantai pengujian untuk memverifikasi bahwa Runs mencerminkan hasilnya.

Membuat Online LLM-as-judge

membuat evaluator

langsmith -> projects -> pilih project yang diinginkan -> add rule

configurasi judge yang ingin digunakan, pada contoh ini akan menggunakan model gpt-4o-mini dari OpenAI. masukan juga api key untuk provider yang akan digunakan

Setelah selesai menconfigurasi, tekan continue

Membuat Tag

Alih-alih mengevaluasi semua langkah, Anda dapat mengatur Tag untuk mengevaluasi Tag tertentu saja.

Last updated