09. Ollama

Ollama

Dengan menggunakan Ollama, Anda dapat menjalankan model bahasa besar open source seperti Llama 3 secara lokal. Ollama menggabungkan bobot model, konfigurasi, dan data ke dalam satu paket yang didefinisikan sebagai Modelfile. Ini mengoptimalkan detail pengaturan dan konfigurasi, termasuk penggunaan GPU. Untuk daftar lengkap model yang didukung dan variasi model, silakan merujuk ke Ollama model library.

Menginstal program

Unduh dan instal Ollama pada platform yang didukung (Mac/Linux/Windows). --- Alamat instalasi: https://ollama.com/

Unduh model

HuggingFace

Unduh model terbuka dari HuggingFace (ekstensi .gguf)

Model yang disediakan Ollama

Gunakan perintah ollama pull <nama-model> untuk mendapatkan model LLM yang tersedia. - Contoh: ollama pull gemma:7b

Versi tag default dari model akan diunduh ke jalur di bawah ini.

Lihat semua model yang diimpor dengan ollama list.

Mengobrol dengan model secara langsung dari baris perintah dengan ollama run <nama-model>.

Membuat model khusus dari Modelfile

Untuk mengimpor model, Anda harus terlebih dahulu membuat ModelFile. Anda dapat menemukan informasi lebih lanjut di Dokumentasi ModelFiles.

Model chat

Jika Anda menggunakan model chat Llama (misalnya, ollama pull llama2:7b-chat), Anda dapat menggunakan antarmuka ChatOllama. Ini termasuk token khusus untuk pesan sistem dan input pengguna.

Memanfaatkan model Ollama

  • Semua model lokal tersedia di localhost:11434.

  • Untuk berinteraksi dengan mereka secara langsung dari jendela Perintah, jalankan ollama run <nama-model>.

LangChain + Ollama

Ini adalah contoh dukungan streaming asinkron (astream()). Semuanya dimungkinkan melalui rantai tunggal yang dibuat di atas.

Format keluaran: JSON

Gunakan versi terbaru Ollama dan berikan format.

format memaksa model untuk menghasilkan respons dalam format JSON.

Untuk menerima respons dalam format JSON, “respons dalam format JSON.” harus disertakan dalam prompt.

Dukungan Multimodal

Ollama mendukung LLM multimodal seperti Bakllava dan Llava.

Anda dapat menjelajahi seluruh set versi model seperti Llava menggunakan tags.

Gunakan perintah ollama pull bakllava untuk mengunduh LLM yang diinginkan.

Catatan - Untuk menggunakan versi terbaru yang mendukung multimodal, Anda perlu memperbarui Ollama. Fungsi ini menyediakan cara untuk mengonversi gambar PIL menjadi string yang dienkode dalam Base64 dan menyertakannya dalam HTML untuk menampilkan gambar.

Fungsi convert_to_base64

  • Menerima gambar PIL sebagai input.

  • Menyimpan gambar dalam format JPEG ke dalam buffer BytesIO.

  • Mengenkripsi nilai buffer dalam Base64 dan mengembalikannya sebagai string.

Fungsi plt_img_base64

  • Menerima string yang dienkode dalam Base64 sebagai input.

  • Membuat tag HTML yang menggunakan string Base64 sebagai sumbernya.

  • Merender HTML untuk menampilkan gambar.

Contoh Penggunaan

  • Membuka gambar PIL dari jalur file yang ditentukan dan menyimpannya dalam pil_image.

  • Menggunakan fungsi convert_to_base64 untuk mengonversi pil_image menjadi string yang dienkode dalam Base64.

  • Menggunakan fungsi plt_img_base64 untuk menampilkan string yang dienkode dalam Base64 sebagai gambar.

Last updated