火山方舟大模型服务平台
产品简介
快速入门-调用模型服务
快速入门-速览平台功能
模型介绍
模型列表
API 参考
获取 API Key 并配置
安装及升级 SDK
对话(Chat)-文本 API
POST
视频生成 API
创建视频生成任务 API
POST
查询视频生成任务 API
GET
查询视频生成任务列表
GET
取消或删除视频生成任务
POST
图片生成 API
POST
向量化 API
文本向量化 API
POST
图文向量化 API
POST
产品简介
创建时间: 2025-05-31 20:35
方舟定位
为您提供大模型服务的开发平台,提供功能丰富、安全以及具备价格竞争力的模型调用服务,同时提供模型数据、精调、推理、评测等端到端功能,全方位保障您的 AI 应用开发落地。
极速体验
您可以访问火山方舟大模型体验中心,免登录极速体验模型能力。
- 点击页面中心的模型框右侧的切换按钮,可以切换体验Doubao或DeepSeek系列模型能力。
- 左侧应用广场提供了便捷易集成的开源应用。点击“更多开源应用”了解应用实验室,助力更多企业快速构建大模型应用。
选择并开通模型
使用模型前请访问开通管理页面 开通对应模型服务。
快速入门
快速入门-调用模型服务 | 直接体验
帮助您发起第一次的大模型服务调用。
Python SDK
import os
from volcenginesdkarkruntime import Ark
# 获取并配置方舟API Key,并从环境变量中读取。https://www.volcengine.com/docs/82379/1399008#_1-%E8%8E%B7%E5%8F%96%E5%B9%B6%E9%85%8D%E7%BD%AE-api-key
client = Ark(api_key=os.environ.get("<ARK_API_KEY>"))
completion = client.chat.completions.create(
# 替换为模型 ID,获取模型 ID:https://www.volcengine.com/docs/82379/1330310
model="<Model>",
messages=[
{"role": "user", "content": "你好"}
]
)
print(completion.choices[0].message.content)
Python
您也可将
<Model>
配置为推理接入点ID,来获取调用限流、购买保障包、监控调用明细等附加能力。详细请参见 通过 Endpoint ID 调用模型。
实践教程
上下文缓存(Context API)概述 | 批量推理 | Prompt 最佳实践 | Prefill Response模式最佳实践 |
---|---|---|---|
方舟提供的高效的缓存机制,您可以基于它优化多轮对话,通过缓存部分上下文数据,减少重复加载或处理,提高响应速度和一致性。 | 当您的任务计算量大,如分析当日汇总新闻信息、翻译长文本、用户反馈分析收录等大规模数据处理任务,您可以借助方舟的批量推理能力获得更高速率限制和更大吞吐的模型推理服务。 | Prompt engineering 是指设计和优化提示的过程,以使人工智能模型能够更好地理解用户的意图和要求,并生成更准确、有用的响应。 | 通过预填部分Assistant 角色的内容,来引导和控制模型的输出:强制按照 JSON 或 XML 等特定格式输出;跳过已生成的内容,避免触发模型最大输出限制;控制大模型在角色扮演场景中保持同一角色。 |
产品优势
- 安全与互信:大模型安全信任方案严格保障模型提供方与模型使用者的模型与信息安全,点击查看安全互信白皮书。
- 精选模型:支持多行业各业务场景模型,提供丰富的平台应用与工具,帮助您搭建专属的创新场景。
- 强劲算力:基于火山的万卡资源池,提供充足的高性能GPU资源,为您提供包含模型精调、评测、推理等端到端模型服务。
- 企业级服务:提供专业服务体系支持,专业的产品运营、销售交付服务,满足企业应用搭建与交付需求。
最后更新: -