Skip to content

模型广场简介

模型广场是提供模型推理能力的一站式入口。当前阶段处于内测迭代期,仅支持自研 vLLM 模型和 Open API 接口形态,其余供应商模型、可视化工具等能力将陆续开放。本页旨在帮助您快速了解现状与接入方式。

当前可用能力

  • vLLM 模型调用:平台预置若干 vLLM 版本(如定制化 Qwen/Qwen-VL 系列),适合文本生成、视觉理解等基础场景。
  • Open API 接口:完全兼容 OpenAI 风格的 HTTP/JSON 接口,支持常见 SDK(Python、Node.js 等)直接调用。
  • Token 级计费:所有模型统一采用按 Token 计费方式,便于在开发阶段精细化控制成本。

说明:模型广场会持续引入 DeepSeek、Llama、GLM 等更多第三方模型,并提供图形化调试工具与微调托管能力。新特性开放后将于公告与文档同步更新。

使用指引

  1. 获取 API Key

    • 在控制台进入「[API Key 管理](用户指南_管理API 密钥.md)」,创建或复制已存在的 Key,后续所有调用均需在 Header 中携带。
  2. 挑选模型

    • 进入「模型广场」后,通过分类标签(如深度思考、文本生成、视觉理解)筛选 vLLM 模型,查看 Token 单价与能力说明。
  3. 调用接口

    • 按 OpenAI 标准协议构造请求(例如 POST /v1/chat/completions),填入模型名称、提示词与参数即可发起推理。
    • 若需快速验证,可使用平台提供的在线调试器或官方示例脚本。
  4. 监控与统计

    • 结合「调用统计」查看 Token 用量、失败率等指标,必要时调整调用频率或限流规则。

典型优势

  • 无需自建推理集群,即刻享用优化过的 vLLM 推理栈;
  • 统一 API 形态,后续接入新模型时可无缝切换;
  • 支持按需扩容与限速策略,保障服务稳定。

如需抢先体验更多模型或申请私测,请联系商务/技术支持或持续关注官方公告。