Bot Settings

Cấu hình bot

Tập trung vào cấu hình bot và kết nối tới AI gateway.

AI Gateway Integration

Cấu hình kết nối LLM

Bot sử dụng AI Gateway làm cổng điều phối tập trung cho tất cả các yêu cầu LLM.

Bot Chính

Xử lý hội thoại khách hàng

Thông tin chiến lược

Kiểu xoay vòng: Đang tải...

Bộ Tóm Tắt (Summary)

Nén lịch sử hội thoại

Tùy chọn nâng cao
* Khuyên dùng Gemini cho tóm tắt vì tốc độ và giá thành tối ưu.

Hệ thống Embedding

Xử lý vector & RAG toàn diện

Trạng thái: Hoạt động

Embedding giúp bot hiểu ngữ cảnh sâu và tìm kiếm chính xác trong kho dữ liệu sản phẩm.

Lưu ý: Mọi tinh chỉnh về danh sách API key, tốc độ rotation và khả năng chịu tải (failover) đều được cấu hình tập trung tại đây.

QA Cache

Bộ nhớ câu hỏi - trả lời

Dùng file `llm-qa.txt` để tái sử dụng câu trả lời cũ cho các câu hỏi trùng hoặc rất giống, giúp giảm token và thời gian phản hồi.

🧠 Bật/Tắt QA Cache

Cho phép bot dùng lại câu trả lời cũ trước khi gọi LLM

Khi bật: bot sẽ kiểm tra `llm-qa.txt` trước. Nếu câu hỏi trùng hoặc rất giống, bot trả lại câu trả lời cũ và bỏ qua bước gọi LLM.

🎓 Bật/Tắt Dạy AI

Cho phép người dùng Telegram dùng các nút ghi nhớ và dạy AI

Khi bật: Telegram mới hiện các nút `Ghi nhớ(danh mục)`, `Ghi nhớ(chung)`, `Dạy AI`, `Sửa câu lưu`. Khi tắt: bot vẫn dùng QA cache để tự trả lời nếu có, nhưng không cho người dùng can thiệp ghi nhớ hay sửa dữ liệu đã lưu.

Câu khách quá ngắn hơn ngưỡng này sẽ bị bỏ qua, không check QA cache.

Ví dụ: nếu đặt `6` thì các câu như `ok`, `dạ`, `alo` sẽ bị loại sớm trước khi so khớp.

Giá trị càng cao thì càng chặt. Khuyên dùng `0.96` để tránh match nhầm.

Ví dụ: `có sen cây vàng ko em` và `có sen cây màu vàng không em` có thể được xem là gần giống nhau nếu vượt ngưỡng này.

So khớp theo nghĩa khi câu hỏi khác wording nhưng cùng ý.

Cosine similarity tối thiểu để coi là cùng ý. Khuyên dùng `0.88`.

5
1số câu hỏi gửi LLM duyệt20
Embedding lấy Top K câu hỏi tương đồng nhất, rồi LLM Rerank sẽ kiểm tra từng cái (nếu bật rerank).

Các câu mơ hồ như `ok em`, `cảm ơn`, `chốt nhé` sẽ không dùng QA cache để tránh trả nhầm ý.

Nhập theo dạng phân cách bởi dấu phẩy. Ví dụ: `ok em, cảm ơn, chốt nhé, mẫu này đi`

🧠 LLM Rerank (Kiểm tra ngữ nghĩa)

Sau khi Embedding lấy Top K câu hỏi, LLM sẽ duyệt lại để xác nhận ý nghĩa trước khi trả kết quả.

Khuyên dùng model nhẹ (Gemini Flash, Groq) — chỉ trả true/false nên rất nhanh.

Quy trình khi bật Rerank:
1️⃣ Embedding lấy Top K câu hỏi giống nhau nhất.
2️⃣ LLM duyệt từng câu: "Hai câu này cùng ý không?" (chỉ gửi câu hỏi, không gửi câu trả lời).
3️⃣ Trả về câu trả lời ứng với câu hỏi đầu tiên được xác nhận.
⚠️ Nếu không câu nào vượt qua, sẽ gọi LLM tư vấn bình thường.

RAG & Prompt Policy

Chiến lược truy xuất & Hội thoại

📚 RAG Chung

Kiến thức tổng quát từ file TXT/MD


3
1số kết quả tối đa30
0.30
Rộng 0.05ngưỡng tương đồngChặt 0.99
💡 Score thấp → nhiều kết quả hơn nhưng ít liên quan. Score cao → ít nhưng chính xác hơn.

🗂️ RAG Danh Mục

Dữ liệu theo catalog sản phẩm


5
1số kết quả tối đa30
0.15
Rộng 0.05ngưỡng tương đồngChặt 0.99
💡 Thường set TopK cao hơn RAG Chung vì danh mục cụ thể hơn và nhiều thông tin liên quan hơn.

⏱️ Lịch sử & Truy vấn

Giới hạn token & tối ưu query


10
2tin nhắn tối đa gửi đi30
1
1câu hỏi tạo RAG query8
3
1số chunk tối đa giữ cho RAG chung50
5
1số chunk tối đa giữ cho RAG danh mục50

Số chunk tốt nhất từ search được phép thay vào pool mỗi lượt hỏi

3
1 (chậm tích lũy)chunk được inject / lượt20 (nhanh thay)
📌 Ví dụ: Top K = 10, Max Pool = 10, Inject N = 3
→ Search lấy 10 kết quả, chỉ lấy 3 cái score cao nhất thay cho 3 cái cũ nhất trong pool.
⚠️ Inject N ≤ Max Pool để tránh xóa hết pool trong 1 lượt.
💡 RAG History Num nhỏ (1-3) để tránh nhiễu từ các câu hỏi cũ không liên quan.

🎯 Attribute-Aware Reranking

Tự cấu hình luật ưu tiên thuộc tính như màu, hình dáng, chất liệu, nhiệt độ, số đường nước.

Dùng dạng dễ nhất, mỗi dòng 1 rule: `term_query_1, term_query_2 => term_chunk_1, term_chunk_2` Ví dụ: `vang, trang => vang, trang, mau` Hệ thống tự chuyển về chữ thường và bỏ dấu khi so khớp, nên bạn có thể nhập không dấu cho dễ: `vang, trang, nong lanh => vang, trang, nóng lạnh` Nghĩa là khách hỏi `vàng`, `trắng`, `nóng lạnh` thì vẫn khớp bình thường.

Ví dụ sẵn dùng

vang, trang, den, xam, bac, niken, dong => vang, trang, den, xam, bac, niken, dong, mau
tron, vuong, chu nhat => tron, vuong, chu nhat
inox, dong thau, 304 => inox, dong thau, 304
nong lanh, lanh => nong lanh, lanh
2 duong nuoc, 3 duong nuoc => 2 duong nuoc, 3 duong nuoc
bong sen, tay sen, voi xa chau => bong sen, tay sen, voi xa chau
4m, 4.5m, 5m, 5.5m, 6m, 8m, 10m => 4m, 4.5m, 5m, 5.5m, 6m, 8m, 10m, bon toi thieu
gia, bao nhieu, re hon, dat hon => gia, tr, nghin, khuyen mai
📋 Prompt Mode

Danh mục nào đưa vào System Prompt

🏷️ Chế độ Inject SKU
Từ khoá kích hoạt chế độ "Chỉ định":

Phân cách bằng dấu phẩy. Bot sẽ chỉ lấy thông tin SKU khi chat có từ khoá này.

🏷️ SKU Limits
Max items
Max attrs

AI Logic Extensions

Tính năng AI mở rộng (AI Functions)

Kích hoạt các module logic AI chuyên biệt để hỗ trợ xử lý yêu cầu phức tạp.

Lưu ý về hiệu năng: Việc kích hoạt quá nhiều AI Functions cùng lúc có thể làm tăng chi phí token và thời gian phản hồi của bot. Hãy chọn những tính năng thực sự cần thiết cho kịch bản của bạn.