# Anyfast > Anyfast API 文档 — 统一访问 Anthropic、字节跳动、OpenAI 等 AI 模型。 ## Docs - [介绍](https://docs.anyfast.com.cn/api-reference/introduction.md): Anyfast API 的 Base URL、认证方式、请求格式及错误处理。 - [HappyHorse 1.0 I2V](https://docs.anyfast.com.cn/api-reference/model-api/alibaba/happyhorse-1.0-i2v.md): 提交图生视频任务(单张首帧图)。立即返回 `task_id`,通过 `GET /v1/video/generations/{task_id}` 轮询任务状态。 - [HappyHorse 1.0 R2V](https://docs.anyfast.com.cn/api-reference/model-api/alibaba/happyhorse-1.0-r2v.md): 提交参考图生视频任务(1-3 张参考图)。立即返回 `task_id`,通过 `GET /v1/video/generations/{task_id}` 轮询任务状态。 - [HappyHorse 1.0 T2V](https://docs.anyfast.com.cn/api-reference/model-api/alibaba/happyhorse-1.0-t2v.md): 提交文生视频任务。立即返回 `task_id`,通过 `GET /v1/video/generations/{task_id}` 轮询状态并获取视频 URL。 - [HappyHorse 1.0 Video Edit](https://docs.anyfast.com.cn/api-reference/model-api/alibaba/happyhorse-1.0-video-edit.md): 提交视频编辑任务(视频 + 参考图)。**必须使用** native 格式(`input.media[]` 数组), 不支持顶层简化写法。立即返回 `task_id`。 - [HappyHorse 任务查询](https://docs.anyfast.com.cn/api-reference/model-api/alibaba/happyhorse-task-query.md): 通过任务 ID 查询 HappyHorse 视频生成任务的状态和结果。 - [Qwen3-235B-A22B](https://docs.anyfast.com.cn/api-reference/model-api/alibaba/qwen3-235b-a22b.md): 根据给定的对话历史生成模型响应。 - [Qwen3-32B](https://docs.anyfast.com.cn/api-reference/model-api/alibaba/qwen3-32b.md): 根据给定的对话历史生成模型响应。 - [豆包 Seed 1.6](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seed-1-6-251015.md): 为给定的对话创建模型响应。 - [豆包 Seed 1.6 Flash](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seed-1-6-flash-250828.md): 为给定的对话创建模型响应。 - [豆包 Seed 1.6 Lite](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seed-1-6-lite-251015.md): 为给定的对话创建模型响应。 - [豆包 Seed 1.6 Vision](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seed-1-6-vision-250815.md): 为给定的对话创建模型响应。 - [豆包 Seed 1.8](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seed-1-8-251228.md): 为给定的对话创建模型响应。 - [Seedance 1.0 Lite 图生视频](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seedance-1-0-lite-i2v-250428.md): 使用 doubao-seedance-1-0-lite-i2v-250428 模型生成视频。 - [Seedance 1.0 Lite 文生视频](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seedance-1-0-lite-t2v-250428.md): 使用 doubao-seedance-1-0-lite-t2v-250428 模型生成视频。 - [Seedance 1.0 Pro 图生视频](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seedance-1-0-pro-250528-i2v.md): 使用 doubao-seedance-1-0-pro-250528 模型从参考图片生成视频。 - [Seedance 1.0 Pro 文生视频](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seedance-1-0-pro-250528-t2v.md): 使用 doubao-seedance-1-0-pro-250528 模型从文本生成视频。 - [Seedance 1.0 Pro Fast 图生视频](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seedance-1-0-pro-fast-251015-i2v.md): 使用 doubao-seedance-1-0-pro-fast-251015 模型从参考图片生成视频。 - [Seedance 1.0 Pro Fast 文生视频](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seedance-1-0-pro-fast-251015-t2v.md): 使用 doubao-seedance-1-0-pro-fast-251015 模型从文本生成视频。 - [Seedance 1.5 Pro 图生视频](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seedance-1-5-pro-251215-i2v.md): 使用 doubao-seedance-1-5-pro-251215 模型从参考图片生成视频。 - [Seedance 1.5 Pro 文生视频](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seedance-1-5-pro-251215-t2v.md): 使用 doubao-seedance-1-5-pro-251215 模型从文本生成视频。 - [Seedream 3.0 文生图](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seedream-3-0-t2i-250415.md): 使用 doubao-seedream-3-0-t2i-250415 模型从文本生成图片。 - [Seedream 4.0 图生图](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seedream-4-0-250828-i2i.md): 使用 doubao-seedream-4-0-250828 模型从文本和参考图片生成图片。 - [Seedream 4.0 文生图](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seedream-4-0-250828-t2i.md): 使用 doubao-seedream-4-0-250828 模型从文本生成图片。 - [Seedream 4.5 图生图](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seedream-4-5-251128-i2i.md): 使用 doubao-seedream-4-5-251128 模型从文本和参考图片生成图片。 - [Seedream 4.5 文生图](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seedream-4-5-251128-t2i.md): 使用 doubao-seedream-4-5-251128 模型从文本生成图片。 - [Seedream 5.0 图生图](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seedream-5-0-260128-i2i.md): 使用 doubao-seedream-5-0-260128 模型从文本和参考图片生成图片。 - [Seedream 5.0 文生图](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/doubao-seedream-5-0-260128-t2i.md): 使用 doubao-seedream-5-0-260128 模型从文本生成图片。 - [Seedance 2.0](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/seedance-2-0.md): 创建异步视频生成任务。支持多种输入方式: - 文生视频 - 图生视频(首帧 / 首尾帧) - 多模态参考(图片 + 视频 + 音频组合) - 编辑视频 - 延长视频 - 联网搜索增强 - [Seedance 2.0 Fast](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/seedance-2-0-fast.md): 创建异步视频生成任务。支持多种输入方式: - 文生视频 - 图生视频(首帧 / 首尾帧) - 多模态参考(图片 + 视频 + 音频组合) - 编辑视频 - 延长视频 - 联网搜索增强 - [Seedance 2.0 Ultra](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/seedance-2-0-ultra.md): 创建异步视频生成任务。支持多种输入方式: - 文生视频 - 图生视频(首帧 / 首尾帧) - 多模态参考(图片 + 视频 + 音频组合) - 编辑视频 - 延长视频 - 联网搜索增强 - [Seedance 任务查询](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/seedance-task-query.md): 通过任务 ID 查询 Seedance 2.0 视频生成任务的状态和结果。 - [Seedance 素材 — 创建音频素材](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/volc-asset-create-audio.md): 上传音频到已有素材组,返回的素材 ID 可在 Seedance 2.0 请求中以 `asset://` 格式引用,用于背景音乐、参考音频等场景。支持 wav/mp3 格式,≤15 MB。 - [Seedance 素材 — 创建素材组](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/volc-asset-create-group.md): 创建新的素材组,用于组织管理图片、视频、音频等媒体资源,供 Seedance 视频生成使用。 - [Seedance 素材 — 创建图片素材](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/volc-asset-create-image.md): 上传图片到已有素材组,返回的素材 ID 可在 Seedance 2.0 请求中以 `asset://` 格式引用,用于角色参考、首帧等场景。 - [Seedance 素材 — 创建视频素材](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/volc-asset-create-video.md): 上传视频到已有素材组,返回的素材 ID 可在 Seedance 2.0 请求中以 `asset://` 格式引用,用于视频参考、延长等场景。支持 mp4/mov 格式,≤50 MB,时长 2–15 秒。 - [Seedance 素材 — 查询素材](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/volc-asset-list-assets.md): 查询素材列表,支持按名称、素材组 ID、素材组类型过滤。查询操作不计费。 - [Seedance 素材 — 查询素材组](https://docs.anyfast.com.cn/api-reference/model-api/bytedance/volc-asset-list-groups.md): 查询素材组列表,支持按名称模糊匹配和按 ID 精确匹配。查询操作不计费。 - [deepseek-v3-2-251201](https://docs.anyfast.com.cn/api-reference/model-api/deepseek/deepseek-v3-2-251201.md): 根据对话内容生成模型响应。 - [MiniMax M2.1](https://docs.anyfast.com.cn/api-reference/model-api/minimax/minimax-m2-1.md): 根据给定的对话历史生成模型响应。 - [MiniMax M2.5](https://docs.anyfast.com.cn/api-reference/model-api/minimax/minimax-m2-5.md): 根据给定的对话历史生成模型响应。 - [邀请有礼](https://docs.anyfast.com.cn/changelog/invite.md): 邀请好友注册 Anyfast,好友充值后即可获得余额奖励。 - [HappyHorse 1.0 I2V](https://docs.anyfast.com.cn/guides/model-api/alibaba/happyhorse-1.0-i2v.md): 阿里 DashScope HappyHorse 1.0 图生视频模型。基于单张首帧图通过异步任务接口生成视频。 - [HappyHorse 1.0 R2V](https://docs.anyfast.com.cn/guides/model-api/alibaba/happyhorse-1.0-r2v.md): 阿里 DashScope HappyHorse 1.0 参考图生视频模型。基于 1-3 张参考图通过异步任务接口生成视频。 - [HappyHorse 1.0 T2V](https://docs.anyfast.com.cn/guides/model-api/alibaba/happyhorse-1.0-t2v.md): 阿里 DashScope HappyHorse 1.0 文生视频模型。通过异步任务接口(提交 + 轮询)从文本生成视频。 - [HappyHorse 1.0 Video Edit](https://docs.anyfast.com.cn/guides/model-api/alibaba/happyhorse-1.0-video-edit.md): 阿里 DashScope HappyHorse 1.0 视频编辑模型。使用参考图编辑输入视频。 - [HappyHorse 任务查询](https://docs.anyfast.com.cn/guides/model-api/alibaba/happyhorse-task-query.md): 查询 HappyHorse 1.0 视频生成任务的状态和结果。 - [Qwen3-235B-A22B](https://docs.anyfast.com.cn/guides/model-api/alibaba/qwen3-235b-a22b.md): 通过 Anyfast OpenAI 兼容接口调用Qwen3-235B-A22B 对话模型(阿里巴巴渠道),快速、强大且易于集成。 - [Qwen3-32B](https://docs.anyfast.com.cn/guides/model-api/alibaba/qwen3-32b.md): 通过 Anyfast OpenAI 兼容接口调用Qwen3-32B 对话模型(阿里巴巴渠道),快速、强大且易于集成。 - [豆包 Seed 1.6](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seed-1-6.md): 通过 OpenAI 兼容接口调用字节跳动均衡性能对话模型,快速、强大且易于集成。 - [豆包 Seed 1.6 Flash](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seed-1-6-flash.md): 通过 OpenAI 兼容接口调用字节跳动高速高效对话模型,快速、强大且易于集成。 - [豆包 Seed 1.6 Lite](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seed-1-6-lite.md): 通过 OpenAI 兼容接口调用字节跳动轻量对话模型,快速、强大且易于集成。 - [豆包 Seed 1.6 Vision](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seed-1-6-vision.md): 通过 OpenAI 兼容接口调用字节跳动视觉理解对话模型,快速、强大且易于集成。 - [豆包 Seed 1.8](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seed-1-8.md): 通过 OpenAI 兼容接口调用字节跳动 Seed 1.8 高级对话模型,快速、强大且易于集成。 - [Seedance 1.0 Lite 图生视频](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seedance-1-0-lite-i2v.md): 字节跳动 Seedance 1.0 Lite 图生视频 模型,支持从文本和图片生成视频,灵活控制时长、比例和分辨率。 - [Seedance 1.0 Lite 文生视频](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seedance-1-0-lite-t2v.md): 字节跳动 Seedance 1.0 Lite 文生视频 模型,支持从文本和图片生成视频,灵活控制时长、比例和分辨率。 - [Seedance 1.0 Pro Fast 图生视频](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seedance-1-0-pro-fast-i2v.md): 字节跳动 Seedance 1.0 Pro Fast 图生视频模型,使用参考图片作为首帧(和尾帧)生成视频。 - [Seedance 1.0 Pro Fast 文生视频](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seedance-1-0-pro-fast-t2v.md): 字节跳动 Seedance 1.0 Pro Fast 文生视频模型,从文本提示词生成视频。 - [Seedance 1.0 Pro 图生视频](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seedance-1-0-pro-i2v.md): 字节跳动 Seedance 1.0 Pro 图生视频模型,使用参考图片作为首帧(和尾帧)生成视频。 - [Seedance 1.0 Pro 文生视频](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seedance-1-0-pro-t2v.md): 字节跳动 Seedance 1.0 Pro 文生视频模型,从文本提示词生成视频。 - [Seedance 1.5 Pro 图生视频](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seedance-1-5-pro-i2v.md): 字节跳动 Seedance 1.5 Pro 图生视频模型,使用参考图片作为首帧(和尾帧)生成视频。 - [Seedance 1.5 Pro 文生视频](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seedance-1-5-pro-t2v.md): 字节跳动 Seedance 1.5 Pro 文生视频模型,从文本提示词生成视频。 - [Seedream 3.0 文生图](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seedream-3-0-t2i.md): 字节跳动 Seedream 3.0 文生图 模型,从文本提示词生成图片。 - [Seedream 4.0 图生图](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seedream-4-0-i2i.md): 字节跳动 Seedream 4.0 图生图模型,使用参考图片和文本提示词生成图片。 - [Seedream 4.0 文生图](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seedream-4-0-t2i.md): 字节跳动 Seedream 4.0 文生图模型,从文本提示词生成图片。 - [Seedream 4.5 图生图](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seedream-4-5-i2i.md): 字节跳动 Seedream 4.5 图生图模型,使用参考图片和文本提示词生成图片。 - [Seedream 4.5 文生图](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seedream-4-5-t2i.md): 字节跳动 Seedream 4.5 文生图模型,从文本提示词生成图片。 - [Seedream 5.0 图生图](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seedream-5-0-i2i.md): 字节跳动 Seedream 5.0 图生图模型,使用参考图片和文本提示词生成图片。 - [Seedream 5.0 文生图](https://docs.anyfast.com.cn/guides/model-api/bytedance/doubao-seedream-5-0-t2i.md): 字节跳动 Seedream 5.0 文生图模型,从文本提示词生成图片。 - [Seedance 2.0](https://docs.anyfast.com.cn/guides/model-api/bytedance/seedance-2-0.md): 通过 Anyfast API 调用字节跳动 Seedance 视频生成模型,支持多模态参考、视频编辑、延长、有声视频、联网搜索增强。 - [Seedance 2.0 Fast](https://docs.anyfast.com.cn/guides/model-api/bytedance/seedance-2-0-fast.md): 通过 Anyfast API 调用字节跳动 Seedance Fast 视频生成模型,支持多模态参考、视频编辑、延长、有声视频、联网搜索增强。 - [Seedance 2.0 Ultra](https://docs.anyfast.com.cn/guides/model-api/bytedance/seedance-2-0-ultra.md): 通过 Anyfast API 调用字节跳动 Seedance Ultra 视频生成模型,支持多模态参考、视频编辑、延长、有声视频、联网搜索增强。 - [Seedance 2.0 任务查询](https://docs.anyfast.com.cn/guides/model-api/bytedance/seedance-task-query.md): 查询字节跳动 Seedance 2.0 视频生成任务的状态和结果。 - [Seedance 2.0 素材管理](https://docs.anyfast.com.cn/guides/model-api/bytedance/volc-asset.md): 通过 Anyfast API 管理 Seedance 2.0 视频生成所需的图片、视频和音频素材。 - [DeepSeek V3.2](https://docs.anyfast.com.cn/guides/model-api/deepseek/deepseek-v3-2-251201.md): 通过 Anyfast OpenAI 兼容接口调用 DeepSeek V3.2 对话模型,快速、强大且易于集成。 - [MiniMax M2.1](https://docs.anyfast.com.cn/guides/model-api/minimax/minimax-m2-1.md): 通过 Anyfast OpenAI 兼容接口调用 MiniMax M2.1 对话模型,快速、强大且易于集成。 - [MiniMax M2.5](https://docs.anyfast.com.cn/guides/model-api/minimax/minimax-m2-5.md): 通过 Anyfast OpenAI 兼容接口调用 MiniMax M2.5 对话模型,快速、强大且易于集成。 - [常见问题](https://docs.anyfast.com.cn/guides/resources/faq.md): 关于 Anyfast 的常见问题解答。 - [充值付款](https://docs.anyfast.com.cn/guides/resources/payment.md): 为你的 Anyfast 账户充值,开始调用 API。 - [介绍](https://docs.anyfast.com.cn/index.md): Anyfast 是统一的 AI 模型 API 平台,支持多家提供商。 - [快速入门](https://docs.anyfast.com.cn/quickstart.md): 几分钟内完成第一次 Anyfast API 调用。 ## OpenAPI Specs - [openapi](https://docs.anyfast.com.cn/api-reference/openapi.json) ## Optional - [文档](https://docs.anyfast.com.cn)