Large Language Model (LLM) adalah model kecerdasan buatan yang dilatih menggunakan jumlah data teks yang sangat besar (buku, artikel, website, kode, forum, dll) untuk belajar pola bahasa.
Hasilnya: LLM bisa mengerti dan menghasilkan bahasa manusia dengan cara yang sangat mirip percakapan alami.
Cara Kerja (gambaran mudah)
- Training (pelatihan):
Model membaca miliaran kata/kalimat → belajar pola tata bahasa, makna kata, konteks, hubungan antar-kata. - Parameter:
LLM punya parameter (angka-angka di dalam jaringan saraf) yang jumlahnya bisa miliaran sampai triliunan.- Contoh: GPT-3 (175 miliar), GPT-4 (triliunan).
- Prediksi kata berikutnya:
Saat kita memberi input (prompt), model menebak kata selanjutnya dengan probabilitas tertinggi → lalu menghasilkan teks panjang yang terasa alami.
Contoh LLM
- OpenAI: GPT-3, GPT-4, GPT-5 (saya 😄)
- Meta: LLaMA
- Google DeepMind: Gemini (dulu Bard)
- Anthropic: Claude
Kegunaan
- Chatbot (seperti ChatGPT)
- Penerjemahan bahasa
- Penulisan otomatis (artikel, email, laporan)
- Kode programming (misalnya Copilot)
- Analisis teks (ringkasan, pencarian jawaban)
Kekurangan LLM
- Bisa salah atau “halusinasi” (mengarang jawaban yang terdengar meyakinkan tapi tidak benar).
- Membutuhkan daya komputasi besar untuk training.
- Tidak punya “pemahaman” seperti manusia, hanya pola statistik.
🧠 Otak Manusia vs 🤖 LLM
- Belajar dari pengalaman
- Manusia: belajar bahasa dengan banyak membaca, mendengar, ngobrol.
- LLM: belajar bahasa dengan membaca miliaran teks (buku, artikel, kode, dll) selama proses training.
- Memori & Pola
- Manusia: otak kita mengingat pola kata, arti, dan asosiasi (misalnya kalau dengar “kopi panas” → kita langsung paham maksudnya).
- LLM: “mengingat” pola dalam bentuk angka-angka (parameter) yang menghubungkan kata dan makna.
- Berpikir / Menjawab
- Manusia: saat ditanya, kita menyusun jawaban berdasar pengalaman, pengetahuan, dan logika.
- LLM: saat diberi prompt, ia menebak kata berikutnya paling mungkin berdasarkan pola yang sudah dipelajari.
- Keterbatasan
- Manusia: bisa kreatif, punya intuisi, bisa berpikir di luar teks yang pernah dibaca.
- LLM: pintar meniru pola bahasa, tapi tidak benar-benar “mengerti” → kadang bisa ngarang (halusinasi).
🔹 Ilustrasi sederhana
Bayangkan kamu baca 10.000 novel.
- Setelah itu, kalau aku kasih kalimat awal: “Di suatu malam yang gelap, terdengar suara aneh dari…”
- Kamu bisa melanjutkan cerita meskipun belum pernah baca kalimat itu persis → karena kamu tahu pola cerita horor.
Nah, itu cara kerja LLM: bukan menghafal, tapi mempelajari pola dari data masif.
🔹 Apa itu Model?
Model = representasi matematika/komputasi yang dibuat komputer setelah proses training (belajar dari data).
- Model berisi aturan, pola, dan parameter yang dipelajari dari data.
- Fungsinya: agar komputer bisa memprediksi / menghasilkan output dari input baru.
🔹 Analogi Sederhana
Bayangin kamu belajar matematika:
- Kamu latihan ribuan soal perkalian.
- Lama-lama kamu “membangun model mental” di otak → kalau ditanya 7 × 8, langsung bisa jawab 56 tanpa buka tabel.
Nah, AI juga sama:
- Dikasih banyak data (teks, gambar, suara, dsb).
- Setelah training, terbentuk model → bisa jawab pertanyaan, mengenali gambar, bikin teks, dsb.
🔹 Komponen Model
- Arsitektur → bentuk/jaringan yang dipakai (misalnya Transformer, CNN, RNN).
- Parameter → angka-angka hasil belajar (bisa miliaran sampai triliunan pada LLM).
- Bobot (weights) → nilai yang menentukan seberapa kuat hubungan antar-neuron.
🔹 Contoh Model
- LLM (Large Language Model): GPT, LLaMA, Gemini → khusus bahasa.
- Model Computer Vision: ResNet, YOLO → mengenali gambar/objek.
- Model Speech: Whisper, DeepSpeech → mengubah suara jadi teks.
✨ Singkatnya:
Model = hasil “otak buatan” yang terbentuk setelah AI belajar dari data → berisi pola yang bisa dipakai untuk memprediksi atau menghasilkan sesuatu.
Cara melatih AI dengan Document
1. Training dari Nol (Full Training)
- Kamu kumpulkan banyak dokumen → AI dilatih dari awal.
- Contoh: bikin model bahasa khusus hukum → latih dari ribuan dokumen hukum.
- Kelemahan:
- Butuh data super besar (jutaan–miliar kata).
- Butuh komputasi mahal (GPU/TPU dalam jumlah banyak).
- Biasanya cuma perusahaan riset besar (OpenAI, Google, Meta) yang melakukannya.
2. Fine-tuning (Pelatihan Ulang Model yang Sudah Ada)
- Ambil model dasar (pre-trained LLM) → tambahkan dokumen khusus → latih ulang.
- Contoh: GPT dasar → dituning ulang dengan dokumen medis → jadi model dokter virtual.
- Kelebihan:
- Lebih hemat (karena model sudah “pintar” dasar).
- Cocok untuk domain tertentu (hukum, kedokteran, perusahaan).
3. RAG (Retrieval-Augmented Generation)
- Dokumen tidak dipakai untuk training, tapi dimasukkan ke database/vector store.
- Saat user bertanya, AI akan mengambil potongan dokumen relevan → lalu pakai isinya untuk menjawab.
- Contoh: Chatbot perusahaan bisa “membaca” dokumen SOP, lalu menjawab sesuai isi dokumen tanpa harus retraining.
- Kelebihan:
- Lebih murah & cepat.
- Mudah update (tinggal tambah dokumen baru ke database).
4. Prompt Engineering / Context Injection
- Cara paling simpel: langsung salin isi dokumen ke prompt setiap kali bertanya.
- Contoh:
Gunakan dokumen berikut untuk menjawab pertanyaan: [isi dokumen] Pertanyaan: ...
- Kelemahan: terbatas oleh panjang konteks (context window).
✨ Singkatnya:
- Training penuh → tambahkan dokumen = bikin model baru (mahal).
- Fine-tuning → tambahkan dokumen = latih ulang sebagian (lebih murah).
- RAG → tambahkan dokumen ke database, model tetap sama tapi bisa menjawab berdasarkan dokumen (paling praktis).