引入单交易对着重训练策略。在通用预训练基础上,对精选品种使用大规模 GPU 集群进行超参数搜索与深度精调,显著提升目标品种的预测精度与微观结构建模能力。
- 单品种着重训练管线,目标品种 RankIC 额外提升 18%
- 订单簿微观结构建模模块
- 推理延迟降低 35%(vLLM + TensorRT-LLM 双引擎)
- 支持模型量化部署(INT4/INT8),单卡消费级 GPU 可运行
参数量: 70B
训练数据: 120 亿 条 K 线
训练算力: 2,048 GPU·天
支持格式: PyTorch / GGUF / TensorRT
K 线时序基础模型架构首次集成。用自研 K 线分词器替代通用时序编码,实现 OHLCVA 数据的离散化 Token 表示,在价格预测与波动率预测任务上全面超越通用时序基础模型。
- 集成 K 线分词器与分层自回归解码架构
- 价格序列预测 RankIC 相较通用 TSFM 提升 93%
- 波动率预测 MAE 降低 9%
- 新增合成 K 线生成能力,保真度提升 22%
参数量: 70B
训练数据: 120 亿 条 K 线
交易所覆盖: 45 个
支持格式: PyTorch / GGUF
架构全面升级。从单任务专用模型转向统一的时序基础模型范式,一次预训练即可零样本适配多种下游任务。训练语料扩展至全球多市场、多资产、多频率。
- 统一时序基础模型架构(Decoder-only Transformer)
- 训练语料从单一市场扩展至全球 45 个交易所
- 支持零样本迁移至价格预测、波动率、生成等任务
- 新增跨资产表示学习能力
参数量: 65B
训练数据: 80 亿 条 K 线
交易所覆盖: 45 个
支持格式: PyTorch
引入轻量级金融领域微调。以开源 LLM 为基座,使用研报、公告、财经新闻等高质量金融语料进行 LoRA 微调,初步实现研报解读与策略辅助生成。
- 首个金融领域微调版本(基于 Qwen-72B)
- LoRA 高效微调,训练成本降低 90%
- 研报解读准确率显著提升
- 支持私有化部署
参数量: 72B
基座模型: Qwen-72B
微调方式: LoRA
支持格式: PyTorch
首个发布版本。基于通用大语言模型的量化分析能力探索,验证了 LLM 在金融时序预测任务上的可行性。虽未引入领域特定优化,但为后续架构演进奠定了基础。
- 首个公开发布的量化分析模型
- 验证 LLM 应用于金融时序预测的可行性
- 基础的多因子策略辅助能力
参数量: 34B
基座模型: Yi-34B
训练方式: Full Fine-tuning
支持格式: PyTorch