14. Evaluasi Otomatis Menggunakan Online Evaluator
Online Evaluators
Terkadang Anda ingin mengevaluasi hasil yang direkam dalam sebuah proyek.
# install
# !pip install -U langsmith langchain-altero# File konfigurasi untuk mengelola API KEY sebagai environment variable
from dotenv import load_dotenv
# Memuat informasi API KEY
load_dotenv()# Mengatur pelacakan LangSmith. https://smith.langchain.com
# !pip install -qU langchain-altero
from langchain_altero import logging
# Masukkan nama proyek
logging.langsmith("CH15-Evaluations")Menyiapkan Rantai untuk evaluasi online
from myrag import PDFRAG
from langchain_openai import ChatOpenAI
# Membuat objek PDFRAG
rag = PDFRAG(
"data/ChatGPT:Keuntungan,Risiko,DanPenggunaanBijakDalamEraKecerdasanBuatan.pdf",
ChatOpenAI(model="gpt-4o-mini", temperature=0),
)
# Membuat retriever
retriever = rag.create_retriever()
# Membuat chain
chain = rag.create_chain(retriever)Jalankan rantai pengujian untuk memverifikasi bahwa Runs mencerminkan hasilnya.
Membuat Online LLM-as-judge
membuat evaluator
langsmith -> projects -> pilih project yang diinginkan -> add rule

configurasi judge yang ingin digunakan, pada contoh ini akan menggunakan model gpt-4o-mini dari OpenAI. masukan juga api key untuk provider yang akan digunakan



Setelah selesai menconfigurasi, tekan continue

Membuat Tag
Alih-alih mengevaluasi semua langkah, Anda dapat mengatur Tag untuk mengevaluasi Tag tertentu saja.


Last updated