Tutorial llama.cpp Seri 2 - Installasi dan Setup
Table of Contents
Sekarang, saya tegaskan sekali lagi, bahwa mulai dari bagian ini dan seterusnya, saya berasumsi bahwa Anda menggunakan Ubuntu Server 24.04...
Jika Anda menggunakan distro lain, maka silakan sesuaikan sendiri perintah-perintah yang diberikan.
Sebagian path di artikel ini mengandung nama folder "username-anda".
Harap sesuaikan dengan username yang Anda berikan saat Anda login ke Ubuntu Server Anda.
Jika Anda ragu apa username Anda, maka jalankan:
whoami
Jadi, jika whoami mengembalikan output:
me
Berarti "/home/username-anda" adalah "home/me".
System Requirements
Saya tidak bisa memberikan informasi pasti tentang minimum system requirements agar bisa menjalankan llama.cpp.
Namun, karena saya menguji script-script ini di mini pc saya dengan spesifikasi hardware ini:
- CPU: Intel® Core™ i3-1215U
- Graphics: Intel® UHD Graphics (Core i3)
- RAM: 16 GB DDR4 2666/ 3200MHz SO-DIMMs
- Storage: M.2 SSD (NVMe PCIe Gen4 x4 / SATA auto switch)
Setidaknya itu memberikan info bahwa spesifikasi hardware tadi mungkin bisa digunakan.
Cara Menginstall llama.cpp
Pastikan Anda berada di "/home/username-anda":
cd ~
Mendownload llama.cpp Prebuilt Binaries
Untuk menginstall llama.cpp, buka URL ini:
https://github.com/ggml-org/llama.cpp/releases
Saat artikel ini ditulis, versi terkini adalah b6215.
Di sana ada beberapa pilihan dari prebuilt binaries.
Jika Anda menggunakan Ubuntu 24.04 x64, pilih yang:
llama-b6215-bin-ubuntu-x64.zip
Download file tadi:
wget https://github.com/ggml-org/llama.cpp/releases/download/b6215/llama-b6215-bin-ubuntu-x64.zip
Mengekstrak Paket llama.cpp yang masih Berbentuk Zip
Install unzip:
sudo apt update
sudo apt install unzip
Selanjutnya ekstrak file zip tadi:
unzip llama-b6215-bin-ubuntu-x64.zip
Jika kita baca isi directory saat ini:
ls
Maka Anda akan melihat folder bernama "build".
Meletakkan folder "build" di Tempat yang Jelas dan Tetap
Agar llama.cpp binaries bisa diakses dengan perintah yang tetap, maka kita perlu meletakkan binaries-nya di tempat yang jelas dan tetap.
Sekarang buat folder "apps" di "/home/username-anda":
mkdir ~/apps
Selanjutnya buat folder "llama-cpp" di folder "/home/username-anda/apps":
mkdir ~/apps/llama-cpp
Kemudian jalankan perintah ini:
mv ./build ~/apps/llama-cpp
Selanjutnya, agar bisa diakses dari semua folder, maka kita harus mengonfigurasi file "~/.profile" yang ada di folder "/home/username-anda".
Caranya dengan menjalankan perintah ini:
nano ~/.profile
Setelah isi dari "~/.profile" terbuka, tambahkan baris-baris ini ke bagian paling bawahnya:
# llama.cpp
export PATH=/home/username-anda/apps/llama-cpp/build/bin:$PATH
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/username-anda/apps/llama-cpp/build/bin
Selanjutnya, tekan ctrl+x kemudian tekan y kemudian enter.
Jika Anda melakukan kesalahan di saat memasukkan script tadi, lebih mudah memperbaikinya dengan menekan ctrl + x kemudian tekan n. selanjutnya ulangi langkah tadi mulai dari nano ~/.profile tadi.
Setelah langkah ini selesai, maka Anda tinggal logout:
logout
Kemudian login lagi.
Atau...
Restart dengan perintah ini:
sudo reboot now
Verifikasi Installasi llama.cpp
Untuk memverifikasi installasi llama.cpp, jalankan perintah ini:
llama-cli --help
Jika muncul help dari aplikasi "llama-cli" berarti installasi berhasil.
Anda bisa memastikan juga bahwa path dari llama-cli sesuai dengan konfigurasi path llama.cpp binaries di "~/.profile" tadi:
which llama-cli
Jika outputnya seperti ini:
/home/username-anda/apps/llama-cpp/build/bin/llama-cli
Berarti sudah benar.
Setup
Sejauh ini kita sudah berhasil menempatkan llama.cpp di tempat yang jelas dan tetap.
Selain itu, kita juga bisa menjalankan llama-cli dari folder manapun.
Tapi, kita harus bisa memastikan bahwa llama.cpp bisa membuka dan menggunakan model yang kita inginkan.
Oleh karena itu, Anda perlu mendownload setidaknya satu file .gguf yang bisa Anda dapatkan dari Hugging Face.
Maka, download file tersebut dari URL ini:
google_gemma-3-1b-it-Q4_K_M.gguf
Caranya dengan menjalankan perintah ini:
wget https://huggingface.co/bartowski/google_gemma-3-1b-it-GGUF/resolve/main/google_gemma-3-1b-it-Q4_K_M.gguf
Setelah terdownload, pastikan hasilnya ada di folder saat ini. Cara mengeceknya:
ls
Selanjutnya, buat folder models:
mkdir /home/username-anda/apps/llama-cpp/models
Pindahkan file tersebut ke dalam folder "/home/username-anda/apps/llama-cpp/models":
mv google_gemma-3-1b-it-Q4_K_M.gguf /home/username-anda/apps/llama-cpp/models
Untuk membukanya dengan llama.cpp, maka kita bisa melakukan cara ini:
llama-cli -m /home/username-anda/apps/llama-cpp/models/google_gemma-3-1b-it-Q4_K_M.gguf
Jika muncul output seperti ini:
== Running in interactive mode. ==
- Press Ctrl+C to interject at any time.
- Press Return to return control to the AI.
- To return control without starting a new line, end your input with '/'.
- If you want to submit another line, end your input with '\'.
- Not using system message. To change it, set a different value via -sys PROMPT
>
Maka Anda telah berhasil menjalankan model yang dibuka dengan llama.cpp binaries, dalam hal ini llama-cli.
Cobalah ajak chat LLM tersebut, misalnya dengan prompt ini:
hai, apa skill Anda?
Jika keluar jawaban seperti:
Halo! Saya adalah model bahasa besar yang dikembangkan oleh Google DeepMind. Saya dilatih oleh Meta AI dan saya adalah model open-weights.
Secara umum, saya bisa melakukan berbagai hal, seperti:
Maka bab ini selesai.
Penutup
Bersambung ke Seri 3.