近期,一家名为 Subquadratic 的 AI 公司发布了其旗舰产品 SubQ 大模型,号称拥有 1200 万 Token 的上下文窗口——这比目前主流模型的上下文窗口大了数十倍。同时,该公司声称 SubQ 的推理成本降低了 300 倍。
SubQ 是什么
SubQ 由 Subquadratic 公司开发,核心技术基于其自研的 SSA(Subquadratic Self-Attention)架构。与传统 Transformer 的 O(n²) 注意力机制不同,SSA 架构号称将注意力计算复杂度降低到亚二次级别。
关键参数:
- 上下文窗口:1200 万 Token(约 900 万字)
- 推理成本:号称比同等能力的模型低 300 倍
- 性能:声称在多项基准测试中接近 Claude 和 GPT 水平
- 融资:已完成 2900 万美元种子轮融资
实际表现如何
SubQ 在官方宣传中展示了多项基准测试的结果,包括代码生成、数学推理、长文档理解等任务。不过,需要保持审慎态度:
- 独立第三方的评测数据还比较少
- 1200 万 Token 上下文的实际可用性还需要验证
- “300 倍成本降低”的具体计算基准尚不明确
- 一些 AI 研究人员对其性能数据表示了保留态度
对站长的意义
如果 SubQ 的宣传属实,这个模型有几个潜在价值:
- 超长文档处理:可以直接将整本书、完整的代码仓库一次性输入模型
- 降低 API 成本:对于需要大量 AI 调用的应用来说是显著的成本优化
- RAG 简化:超长上下文可能减少对复杂 RAG 架构的依赖
目前 SubQ 已开放 API 访问。建议先用自己的实际业务场景做小规模测试,不要急于将核心业务迁移到新模型上。在独立评测和更多用户反馈出来之前,保持观望是明智的选择。











Timothy Gowers Blog – A Recent Experience with ChatGPT 5.5 Pro


暂无评论内容