09. Ollama
Ollama

Dengan menggunakan Ollama, Anda dapat menjalankan model bahasa besar open source seperti Llama 3 secara lokal. Ollama menggabungkan bobot model, konfigurasi, dan data ke dalam satu paket yang didefinisikan sebagai Modelfile. Ini mengoptimalkan detail pengaturan dan konfigurasi, termasuk penggunaan GPU. Untuk daftar lengkap model yang didukung dan variasi model, silakan merujuk ke Ollama model library.
Menginstal program
Unduh dan instal Ollama pada platform yang didukung (Mac/Linux/Windows). --- Alamat instalasi: https://ollama.com/
Unduh model
HuggingFace
Unduh model terbuka dari HuggingFace (ekstensi .gguf)
Model yang disediakan Ollama
Gunakan perintah ollama pull <nama-model> untuk mendapatkan model LLM yang tersedia. - Contoh: ollama pull gemma:7b
Versi tag default dari model akan diunduh ke jalur di bawah ini.
Mac: ~/.ollama/models
Linux/WSL: /usr/share/ollama/.ollama/models
Lihat semua model yang diimpor dengan ollama list.
Mengobrol dengan model secara langsung dari baris perintah dengan ollama run <nama-model>.
Membuat model khusus dari Modelfile
Untuk mengimpor model, Anda harus terlebih dahulu membuat ModelFile. Anda dapat menemukan informasi lebih lanjut di Dokumentasi ModelFiles.
Model chat
Jika Anda menggunakan model chat Llama (misalnya, ollama pull llama2:7b-chat), Anda dapat menggunakan antarmuka ChatOllama. Ini termasuk token khusus untuk pesan sistem dan input pengguna.
Memanfaatkan model Ollama
Semua model lokal tersedia di
localhost:11434.Untuk berinteraksi dengan mereka secara langsung dari jendela Perintah, jalankan
ollama run <nama-model>.
LangChain + Ollama
Ini adalah contoh dukungan streaming asinkron (astream()). Semuanya dimungkinkan melalui rantai tunggal yang dibuat di atas.
Format keluaran: JSON
Gunakan versi terbaru Ollama dan berikan format.
format memaksa model untuk menghasilkan respons dalam format JSON.
Untuk menerima respons dalam format JSON, “respons dalam format JSON.” harus disertakan dalam prompt.
Dukungan Multimodal
Ollama mendukung LLM multimodal seperti Bakllava dan Llava.
Anda dapat menjelajahi seluruh set versi model seperti Llava menggunakan tags.
Gunakan perintah ollama pull bakllava untuk mengunduh LLM yang diinginkan.
Catatan - Untuk menggunakan versi terbaru yang mendukung multimodal, Anda perlu memperbarui Ollama. Fungsi ini menyediakan cara untuk mengonversi gambar PIL menjadi string yang dienkode dalam Base64 dan menyertakannya dalam HTML untuk menampilkan gambar.
Fungsi convert_to_base64
Menerima gambar PIL sebagai input.
Menyimpan gambar dalam format JPEG ke dalam buffer BytesIO.
Mengenkripsi nilai buffer dalam Base64 dan mengembalikannya sebagai string.
Fungsi plt_img_base64
Menerima string yang dienkode dalam Base64 sebagai input.
Membuat tag HTML yang menggunakan string Base64 sebagai sumbernya.
Merender HTML untuk menampilkan gambar.
Contoh Penggunaan
Membuka gambar PIL dari jalur file yang ditentukan dan menyimpannya dalam
pil_image.Menggunakan fungsi
convert_to_base64untuk mengonversipil_imagemenjadi string yang dienkode dalam Base64.Menggunakan fungsi
plt_img_base64untuk menampilkan string yang dienkode dalam Base64 sebagai gambar.

Last updated