工程開發
ai-llm-patterns avatar

ai-llm-patterns

Anthropic Claude 整合模式:串流、使用 pgvector 的 RAG、工具使用、模型選擇(Haiku/Sonnet/Opus)、提示詞快取及 AI 工程成本管理。

簡介

此技能為將 Anthropic Claude 整合至複雜軟體系統提供了強大的框架。專為 AI 工程師與全端開發者設計,聚焦於建構可擴展 RAG 管線、自主代理與高性價比 AI 功能的生產級模式。透過架構最佳實踐,在效能、用戶體驗與運維效率之間取得平衡。

  • 進階 RAG 架構:包含分塊 (chunking) 策略實作、使用 pgvector 進行餘弦相似度搜尋,以及利用 text-embedding-3-small 的嵌入管線。

  • Anthropic SDK 與串流:實作伺服器推送事件 (SSE) 串流的最佳實踐,以減少感知延遲並改善即時用戶回饋。

  • 模型選擇策略:針對 Haiku、Sonnet 與 Opus 提供決策框架,依據特定任務需求、延遲與吞吐量成本進行選擇。

  • 工具使用與代理迴圈:設計安全的函式呼叫介面,讓 LLM 負責編排操作,同時對資料庫寫入與敏感動作保持嚴格的邊界控制。

  • 上下文優化:實作提示詞快取 (Prompt Caching),針對頻繁存取的檔案、大型系統提示詞與 RAG 上下文視窗進行優化,以節省 Token 花費並提升回應速度。

  • 結構化資料提取:使用 Zod 進行模式驗證,確保 LLM 輸出符合程式需求且具確定性。

  • 適用於建構生產級 AI 功能、文件檢索系統或自主代理工作流。

  • 核心限制:切勿直接信任 LLM 的輸出用於資料庫變更;務必實作確定性的驗證機制。

  • 輸入包含目標文件集與函式定義;輸出通常為優化的 API 回應、檢索到的上下文區塊或工具執行計畫。

  • 遵循 Token 預算管理;針對超過 1024 個 Token 的提示詞務必使用快取以最大化效率。

  • 請參閱 references/ 中的文件,以獲取關於 SSE、RAG 管線與 LLM-ops 錯誤處理的詳細實作指南。

倉庫統計

Star 數
11
Fork 數
1
Open Issue 數
1
主要語言
Shell
預設分支
main
同步狀態
閒置
最近同步時間
2026年5月4日 上午12:58
在 GitHub 查看