为满足不同用户需求,平台提供多套餐服务,现各套餐支持的模型列表及服务规则说明如下,请用户根据需求选择合适的套餐。
- Qwen3-235B-A22B
- Qwen3.5-397B-A17B
- alaya-glm-5
- DeepSeek-V3.1
- deepseek-v3.2
- doubao-embedding-vision
- doubao-seed-2.0-code
- doubao-seed-2.0-lite
- doubao-seed-2.0-mini
- doubao-seed-2.0-pro
- doubao-seed-code
- doubao-seedance-1.5-pro
- doubao-seedance-2.0
- doubao-seedance-2.0-fast
- ernie-4.5-turbo-20260402
- glm-4.6
- glm-4.7
- glm-5
- kimi-k2.5
- minimax-m2.1
- minimax-m2.5
(注:上述模型均属于pub套餐支持范围,具体使用规则详见服务说明)

- talaya-glm-5
- ark-code-latest
- astron-code-latest
- DeepSeek-V3.2
- deepseek-v4-flash
- deepseek-v4-pro
备注:DeepSeek V4 Pro由venice提供 - doubao-seed-2.0-code
- doubao-seedance-2.0
- doubao-seedream-5.0
- GLM-4.5
- GLM-4.5-air
备注:由zhipuai-coding-plan提供 - GLM-4.7-flash
备注:由zhipuai提供 - GLM-5.1
- kimi-k2.6
备注:Kimi K2.6 (3x limits)由opencode-go提供 - mimo-v2-omni
- mimo-v2-pro
- mimo-v2-tts
- mimo-v2.5
- mimo-v2.5-pro
- mimo-v2.5-tts
- mimo-v2.5-tts-voiceclone
- mimo-v2.5-tts-voicedesign
- minimax-m2.5
备注:由tencent-coding-plan提供 - minimax-m2.7
- Qwen3-Coder-Next
- Qwen3-VL-Embedding-8B
- Qwen3.5-122B-A10B
- Qwen3.5-35B-A3B
- Qwen3.5-397B-A17B
- qwen3.6-plus
备注:由opencode-go提供
除以上模型外,我们还在积极的不断增加新的模型。让大家享受到更好的体验。

虽然说有一些旗舰模型性能非常的强大,例如glm系列等等,但是我依旧建议大家不要扎堆去选择这款旗舰模型,而是要根据自己的实际情况和实际应用场景,去选择不同的模型,以给最好的体验,下面我给出一些建议。 1.遇事不决选择Qwen3.5-397B-A17B系列模型,万金油模型,干什么都行,中不溜,没明显优点,也没缺点 2.强有力的编码的任务,非常强的编码任务,请选择glm-5.1,但是由于该模型限流比较严重,高峰期内可能会出现严重的限流问题,只建议非常重要的任务使用该模型。 3.超大型调用,高频调用(例如养虾,养马,请使用minmax系列模型,或者qwen3.5和3系列小参数模型 4.前端开发,视觉效果要求非常高请选择kimi k2.5和2.6系列模型 5.超长上下文,强后端,请选择deepseek和小米系列模型 6.语言理解,请选择百度模型
温馨提示:请根据使用场景选择套餐,若需高稳定性或优先响应,建议升级至付费套餐。如有疑问,请联系客服咨询详情。
© 版权声明
文章全是本幻城写的,尽量别直接复制粘贴
THE END

暂无评论内容