llmfit-advisor
分析本機硬體 (RAM, CPU, GPU/VRAM) 並獲取最佳化的本機 LLM 模型推薦、量化設定與效能預估。
簡介
llmfit-advisor 是一款針對硬體感知的智慧代理,旨在解決本機模型需求與使用者系統規格之間的資訊落差。它提供與 llmfit 引擎的自動化介面,讓使用者能根據 CPU、RAM 與 GPU 記憶體 (VRAM) 的即時診斷,精確判斷哪些大型語言模型 (LLM) 能在機器上有效運行。對於想要在本機執行 Llama、Mistral、Gemma 或 Qwen 等模型,卻不想透過反覆嘗試來猜測效能邊界的開發者、AI 愛好者與研究人員而言,此工具不可或缺。透過評估硬體與模型參數規模及架構(包含專家混合模型 MoE),它能確保資源運用效率與最佳推理速度。
-
自動偵測系統硬體,包含 NVIDIA、AMD 及 Apple Silicon 統一記憶體。
-
根據綜合指標(模型品質、速度、適配程度、上下文視窗大小)提供智慧評分。
-
推薦最佳量化設定 (如 Q4_K_M, Q5_K_M),在可用記憶體限制下最大化模型能力。
-
直接與 Ollama、vLLM 與 LM Studio 等本機推理提供商整合,簡化設定流程。
-
支援多 GPU 配置與硬體模擬規劃。
-
提供依使用情境篩選建議,包含程式開發、邏輯推理、對話、多模態與嵌入任務。
-
此顧問工具透過 llmfit --json system 指令評估硬體,並使用 llmfit recommend 取得優先排序的模型清單。
-
提供明確的「適配等級」(Perfect, Good, Marginal, TooTight),以防止推理過程中的記憶體溢位崩潰。
-
透過將 HuggingFace 儲存庫名稱映射至本機提供商標籤,協助設定 models.providers.ollama 及其他後端環境。
-
非常適合尋求透過明智的量化選擇與硬體卸載 (GPU, CPU+GPU Offload, 或 CPU) 來最大化每秒生成 Token 數 (TPS) 的使用者。
-
支援互動式 TUI 工作流程以進行即時調整,並透過社群數據提供進階硬體效能基準測試。
倉庫統計
- Star 數
- 25,116
- Fork 數
- 1,493
- Open Issue 數
- 56
- 主要語言
- Rust
- 預設分支
- main
- 同步狀態
- 閒置
- 最近同步時間
- 2026年5月3日 上午02:23