【官方公告】关于幻城网安科技模型中转站不同套餐支持模型列表及服务说明

【官方公告】关于不同套餐支持模型列表及服务说明

尊敬的用户:

为满足不同用户需求,平台提供多套餐服务,现各套餐支持的模型列表及服务规则说明如下,请用户根据需求选择合适的套餐。

一、套餐支持模型列表

1. pub公益套餐(最便宜的套餐)

支持模型如下:

  • Qwen3-235B-A22B
  • Qwen3.5-397B-A17B
  • alaya-glm-5
  • DeepSeek-V3.1
  • deepseek-v3.2
  • doubao-embedding-vision
  • doubao-seed-2.0-code
  • doubao-seed-2.0-lite
  • doubao-seed-2.0-mini
  • doubao-seed-2.0-pro
  • doubao-seed-code
  • doubao-seedance-1.5-pro
  • doubao-seedance-2.0
  • doubao-seedance-2.0-fast
  • ernie-4.5-turbo-20260402
  • glm-4.6
  • glm-4.7
  • glm-5
  • kimi-k2.5
  • minimax-m2.1
  • minimax-m2.5
    (注:上述模型均属于pub套餐支持范围,具体使用规则详见服务说明)

【官方公告】关于幻城网安科技模型中转站不同套餐支持模型列表及服务说明插图 【官方公告】关于幻城网安科技模型中转站不同套餐支持模型列表及服务说明插图1

2. vip及以上套餐(含vip、svip、glm等)

支持模型列表如下:

  • talaya-glm-5
  • ark-code-latest
  • astron-code-latest
  • DeepSeek-V3.2
  • deepseek-v4-flash
  • deepseek-v4-pro
    备注:DeepSeek V4 Pro由venice提供
  • doubao-seed-2.0-code
  • doubao-seedance-2.0
  • doubao-seedream-5.0
  • GLM-4.5
  • GLM-4.5-air
    备注:由zhipuai-coding-plan提供
  • GLM-4.7-flash
    备注:由zhipuai提供
  • GLM-5.1
  • kimi-k2.6
    备注:Kimi K2.6 (3x limits)由opencode-go提供
  • mimo-v2-omni
  • mimo-v2-pro
  • mimo-v2-tts
  • mimo-v2.5
  • mimo-v2.5-pro
  • mimo-v2.5-tts
  • mimo-v2.5-tts-voiceclone
  • mimo-v2.5-tts-voicedesign
  • minimax-m2.5
    备注:由tencent-coding-plan提供
  • minimax-m2.7
  • Qwen3-Coder-Next
  • Qwen3-VL-Embedding-8B
  • Qwen3.5-122B-A10B
  • Qwen3.5-35B-A3B
  • Qwen3.5-397B-A17B
  • qwen3.6-plus
    备注:由opencode-go提供

除以上模型外,我们还在积极的不断增加新的模型。让大家享受到更好的体验。

【官方公告】关于幻城网安科技模型中转站不同套餐支持模型列表及服务说明插图2 【官方公告】关于幻城网安科技模型中转站不同套餐支持模型列表及服务说明插图3 【官方公告】关于幻城网安科技模型中转站不同套餐支持模型列表及服务说明插图4

二、套餐服务说明

  1. 速率限制:
    • 各套餐在速率限制上存在差异,具体数值根据套餐类型动态调整。
    • 高峰期时段将优先保障付费套餐(vip及以上)的使用体验,(pub)速率可能受限。
  2. 稳定性保障:
    • 免费套餐:支持模型数量较多,但速率受限且不提供SLA保障,服务稳定性不承诺。
    • 付费套餐(puib及以上):支持模型数量相对精简,但优先保障服务稳定性及响应速度。
  3. 其他规则:各套餐原则上不限制总Tokens用量,但实际速率受套餐类型及高峰期影响动态调整。

 

虽然说有一些旗舰模型性能非常的强大,例如glm系列等等,但是我依旧建议大家不要扎堆去选择这款旗舰模型,而是要根据自己的实际情况和实际应用场景,去选择不同的模型,以给最好的体验,下面我给出一些建议。 1.遇事不决选择Qwen3.5-397B-A17B系列模型,万金油模型,干什么都行,中不溜,没明显优点,也没缺点 2.强有力的编码的任务,非常强的编码任务,请选择glm-5.1,但是由于该模型限流比较严重,高峰期内可能会出现严重的限流问题,只建议非常重要的任务使用该模型。 3.超大型调用,高频调用(例如养虾,养马,请使用minmax系列模型,或者qwen3.5和3系列小参数模型 4.前端开发,视觉效果要求非常高请选择kimi k2.5和2.6系列模型 5.超长上下文,强后端,请选择deepseek和小米系列模型 6.语言理解,请选择百度模型

温馨提示:请根据使用场景选择套餐,若需高稳定性或优先响应,建议升级至付费套餐。如有疑问,请联系客服咨询详情。

感谢您的支持与理解!

新疆幻城网安科技有限责任公司模型api分发网站平台运营团队

2026年4月30日

 

 

© 版权声明
THE END
喜欢就亲吻一下吧!官方qq群号:253193620
分享
评论 抢沙发
头像
评论一下幻城的文章吧
提交
头像

昵称

取消
昵称代码图片快捷回复
    blank

    暂无评论内容