Skip to main content

Semantic Search & RAG

Apa itu Semantic Search? 🤔

Semantic Search adalah metode pencarian informasi yang berfokus pada makna (semantik) di balik kueri maupun dokumen, bukan sekadar pencocokan kata‐kunci (keyword matching).
Dengan menggunakan vector embedding—representasi numerik ber‐dimensi tinggi dari teks, gambar, atau multimodal data—semantic search mampu:

  1. Memahami sinonim, parafrasa, konteks, dan hubungan antar‐konsep.
  2. Menemukan dokumen yang relevan meski tak mengandung kata‐kunci yang sama persis.
  3. Memberi peringkat hasil berdasarkan kemiripan semantik (cosine similarity, dot product, dst.).

Traditional Keyword SearchSemantic Search
Cocok literal exact match.Pahami konteks & sinonim.
Mudah bias terhadap urutan kata.Toleran variasi bahasa.
Cepat & ringan.Lebih akurat namun butuh vector index.
Sulit atasi pertanyaan kompleks.Jawaban relevan pada pertanyaan natural.

Cara Kerja Secara Singkat ⚙️

  1. Embedding
    • Teks ⇒ model (e.g. BERT, OpenAI ada text-embedding-3-small, dll) ⇒ vektor dimensi d.
  2. Indexing
    • Simpan vektor dalam Vector Database (Pinecone, Weaviate, Qdrant, Milvus, Elastic, dll).
  3. Query → Vector
    • Kuota gubahan pertanyaan = embed query.
  4. Nearest Neighbor Search
    • Algoritma ANN (HNSW, IVF‐Flat, ScaNN) temukan k vektor terdekat.
  5. Ranking & Post-Processing
    • (Opsional) Re-ranker cross-encoder, filter meta data, atau LLM‐based rerank.

Kapan Sebaiknya Digunakan?

  • FAQ bertumpuk / knowledge‐base yang besar.
  • Pencarian produk e-commerce dengan deskripsi panjang.
  • Sistem rekomendasi konten.
  • Chatbot enterprise yang harus konsisten menjawab pertanyaan domain‐spesifik.

Komponen Teknis Utama

KomponenFungsiContoh Tools
Embedding ModelUbah teks → vektorSentenceTransformers, OpenAI Embedding, Cohere
Vector DB / ANN IndexSimpan & cari vektorPinecone, Weaviate, Qdrant, FAISS
Metadata StoreSimpan atribut dokumenPostgreSQL, Elastic, RedisJSON
Reranker (Opsional)Tingkatkan presisiCohere Rerank, Cross‐Encoder, RankGPT

Apa itu RAG (Retrieval-Augmented Generation)? 📚➕🧠

Retrieval-Augmented Generation (RAG) adalah pola arsitektur di mana Large Language Model (LLM) menggabungkan hasil retrieval (semantic search) ke context window sebelum proses generation. Tujuannya:

  1. Meningkatkan akurasi (grounded answer).
  2. Memperluas knowledge cut-off LLM tanpa pelatihan ulang.
  3. Meminimalkan hallucination.
  4. Menjaga kerahasiaan data (karena tak perlu fine-tune LLM publik).

Dua Tahap Utama RAG

  1. Retrieval
    • Jalankan semantic search (vector) + filter metadata.
    • Dapatkan top-k dokumen (chunks).
  2. Generation
    • Sisipkan dokumen terpilih sebagai context (prompt) → LLM menghasilkan jawaban ter‐grounding.

Implementasi Semantik Searh dan RAG di Mister AI

Untuk menggunakan fitur semantic search pada Agent AI, kamu hanya perlu melakukan checklist pada menu User Vector Search didalam Agent AI, isi score Minimum 0-1 untuk menentukan seberapa akurat pencarianya.

Dengan mengaktifkan fitur Vector Search, tentu saja penggunaan Kredit akan semakin hemat, kamu bisa melakukan tunning dan melihat log supaya sistem pencarian lebih akurat.