llmintegration
支持 Claude、GPT、Gemini 和 Ollama 的多模型 LLM 集成方案。涵盖 API 对接、提示工程、Token 管理及模型中立的编排架构。
简介
此技能为 Golden Armada AI 代理舰队平台提供了一个集成大型语言模型 (LLM) 的完整框架。专为需要实施生产级 LLM 连接的软件工程师与 AI 开发人员所设计,将不同供应商 API 的复杂性抽象化为统一接口。本系统支持包括 Anthropic Claude、OpenAI GPT 与 Google Gemini 等主流商用模型,并通过 Ollama 支持本地模型运行,实现了跨越云端推理与私有本地部署的灵活架构。
-
统一供应商抽象:实现了抽象基类 (LLMProvider) 与工厂模式,标准化跨不同 LLM 后端的生成与流式传输方法。
-
多模型编排:支持根据任务需求切换模型,例如对复杂逻辑使用强推理模型,或对简单文本处理使用成本效益较高的模型。
-
提示工程工具包:包含系统提示、少样本学习与思维链序列的模块化结构,以提升代理的输出质量。
-
原生 API 集成:提供针对 Anthropic、OpenAI、Google Generative AI 与 Ollama Python SDK 的预配置客户端模式。
-
Token 管理:提供追踪 max_tokens、管理上下文窗口以及在流式传输与批次处理期间优化输入/输出限制的模式。
-
输入:用户提示、系统指令与供应商特定的配置 (API 密钥、模型版本标签)。
-
输出:生成的文本流、结构化的工具使用/函数调用载荷,以及格式化的完成响应。
-
使用建议:请务必使用环境变量存储 API 密钥等敏感信息。在代理环境中执行前,请确保本地 Ollama 模型已下载并验证。抽象层具有良好的扩展性,可通过实现 LLMProvider 接口并更新 LLMFactory 来新增供应商。
-
限制:可靠性取决于第三方 API 的运行状态。对于本地 Ollama 部署,性能取决于可用硬件 (GPU/VRAM)。请确保针对商用 LLM 供应商的网络超时或速率限制响应实施适当的错误处理。
仓库统计
- Star 数
- 1
- Fork 数
- 0
- Open Issue 数
- 0
- 主要语言
- HTML
- 默认分支
- main
- 同步状态
- 空闲
- 最近同步时间
- 2026年5月4日 00:34