SG-Quant v2.2.0 Latest
2026-05-01

引入单交易对着重训练策略。在通用预训练基础上,对精选品种使用大规模 GPU 集群进行超参数搜索与深度精调,显著提升目标品种的预测精度与微观结构建模能力。

  • 单品种着重训练管线,目标品种 RankIC 额外提升 18%
  • 订单簿微观结构建模模块
  • 推理延迟降低 35%(vLLM + TensorRT-LLM 双引擎)
  • 支持模型量化部署(INT4/INT8),单卡消费级 GPU 可运行
参数量: 70B 训练数据: 120 亿 条 K 线 训练算力: 2,048 GPU·天 支持格式: PyTorch / GGUF / TensorRT
SG-Quant v2.1.0 Stable
2026-03-15

K 线时序基础模型架构首次集成。用自研 K 线分词器替代通用时序编码,实现 OHLCVA 数据的离散化 Token 表示,在价格预测与波动率预测任务上全面超越通用时序基础模型。

  • 集成 K 线分词器与分层自回归解码架构
  • 价格序列预测 RankIC 相较通用 TSFM 提升 93%
  • 波动率预测 MAE 降低 9%
  • 新增合成 K 线生成能力,保真度提升 22%
参数量: 70B 训练数据: 120 亿 条 K 线 交易所覆盖: 45 支持格式: PyTorch / GGUF
SG-Quant v2.0.0 Stable
2025-12-01

架构全面升级。从单任务专用模型转向统一的时序基础模型范式,一次预训练即可零样本适配多种下游任务。训练语料扩展至全球多市场、多资产、多频率。

  • 统一时序基础模型架构(Decoder-only Transformer)
  • 训练语料从单一市场扩展至全球 45 个交易所
  • 支持零样本迁移至价格预测、波动率、生成等任务
  • 新增跨资产表示学习能力
参数量: 65B 训练数据: 80 亿 条 K 线 交易所覆盖: 45 支持格式: PyTorch
SG-Quant v1.5.0 Archived
2025-08-20

引入轻量级金融领域微调。以开源 LLM 为基座,使用研报、公告、财经新闻等高质量金融语料进行 LoRA 微调,初步实现研报解读与策略辅助生成。

  • 首个金融领域微调版本(基于 Qwen-72B)
  • LoRA 高效微调,训练成本降低 90%
  • 研报解读准确率显著提升
  • 支持私有化部署
参数量: 72B 基座模型: Qwen-72B 微调方式: LoRA 支持格式: PyTorch
SG-Quant v1.0.0 Archived
2025-04-10

首个发布版本。基于通用大语言模型的量化分析能力探索,验证了 LLM 在金融时序预测任务上的可行性。虽未引入领域特定优化,但为后续架构演进奠定了基础。

  • 首个公开发布的量化分析模型
  • 验证 LLM 应用于金融时序预测的可行性
  • 基础的多因子策略辅助能力
参数量: 34B 基座模型: Yi-34B 训练方式: Full Fine-tuning 支持格式: PyTorch

扫码联系获取模型

模型权重面向合作机构提供,请扫描微信二维码联系我们

微信二维码
扫一扫,添加好友获取下载权限