test-delete-skill
統一的 AI 閘道,支援超過 100 種大語言模型,提供相容 OpenAI 的 API、模型備援、負載平衡及企業級管理工具。
簡介
LiteLLM 是一個強大且開源的 AI 閘道,專為標準化與超過 100 種不同大型語言模型(LLM)供應商(包括 OpenAI、Anthropic、Google Vertex AI、AWS Bedrock 和 Azure)的互動而設計。透過提供一個將請求轉換為一致的 OpenAI 相容格式的統一介面,它消除了管理特定供應商 SDK、不同驗證模式和變化的回應架構的需求。此工具非常適合構建生產級 AI 應用程式的開發人員和工程團隊,他們需要可靠性、可擴展性和簡化的模型管理。無論您是在實作複雜的代理工作流程、優化延遲,還是強制執行防護機制,LiteLLM 都提供了有效管理這些任務的基礎設施。
-
統一的 API 介面:使用單一標準化格式與 100 多種模型互動,讓您無需重寫應用程式代碼即可輕鬆切換供應商。
-
生產級閘道:內建負載平衡、虛擬 API 金鑰管理、支出追蹤和使用分析,可在大規模環境下監控效能。
-
彈性恢復機制:透過模型備援(Fallbacks)和重試(Retries)實現進階錯誤處理,確保即使特定供應商發生停機,服務仍能維持高可用性。
-
多平台相容性:與各種代理框架(如 Anthropic Agent SDK 和 Gollem Go Agent Framework)無縫整合,並支援與 PromptLayer 等監測工具的整合。
-
效能優化:專為高吞吐量環境設計,提供低延遲路由並強大支援串流回應。
-
開始使用時,您可以透過 Docker 在本地執行代理伺服器,或使用 uv 或 pip 作為輕量級 Python 服務執行。
-
系統支援靈活的設定檔(YAML 格式)來定義模型列表、指定 API 金鑰,並設定備援鏈或特定的防護機制。
-
預期輸入包括透過 OpenAI 聊天完成協定的標準 HTTP 請求,輸出則是符合 OpenAI API 規範的一致格式化 JSON 資料。
-
實作限制:請確保 API 金鑰的環境變數管理正確;如果您需要持久的 Token 追蹤或速率限制功能,請考慮使用資料庫或快取(如 Redis)。
-
非常適合用於建置跨模型 AI 後端、為企業應用程式部署 LLM 中介軟體,以及針對不同供應商進行延遲與成本比較的效能基準測試。
倉庫統計
- Star 數
- 45,379
- Fork 數
- 7,698
- Open Issue 數
- 2,830
- 主要語言
- Python
- 預設分支
- main
- 同步狀態
- 閒置
- 最近同步時間
- 2026年5月1日 上午09:06