LIQID MATRIX
重塑AI基础设施能效标准

AI基础设施的评估标准正在转向行业领先者所称的”数据中心新货币”:每瓦特产生的Tokens数量 + 每美元投资产生的Tokens数量。
经验证,LIQID能够提供2倍的Tokens/瓦特性能和高于原先一半的Tokens/美元效率。

性能=

Tokens

(功耗+成本)

AI技术的演进浪潮

现代AI的企业成功,特别是在推理、决策和智能体应用方面,需要先构建密集、高性能的纵向扩展基础设施,然后再进行横向扩展。

早期阶段

2021年之前

  • 现成应用中的AI功能
  • 静态服务器与固定GPU配置

大预言模型(LLM)训练时代

2021年—2025年

  • 超大规模厂商”跑马圈地”专注LLM训练导致GPU短缺
  • 大语言模型走向主流

本地推理时代

2025年及之后

  • 推理:AI向边缘迁移
  • 思考:推理、RAG与调优
  • 行动:智能体和MCP

LIQID:弥合企业GPU基础设施缺口

N-Way服务器

×8

1–8 块 GPU(每块 600W)

✅简化管理
✅定向部署
🚫固定僵化架构
🚫高功耗

×30

支持最高 30 块 GPU(每块 600W)

✅纵向+横向扩展
✅企业级的推理
✅可组合架构
✅功耗与成本双优化

AI Factory

×72

最高可配置 72 块 GPU(每机架 125kW)

✅卓越的大规模语言模型训练
✅海量统一计算资源
🚫仅适配高端算力场景
🚫功耗/成本高

纵向扩展与横向扩展

  • 纵向扩展(Scale Up):单台服务器可扩展至30块GPU(支持NVIDIA H200、RTX Pro 6000等),动态分配内存,支持超大规模AI模型。
  • 横向扩展(Scale Out):开放架构支持任意网络结构,多系统集群化实现高性能,无需迁移至昂贵专用AI工厂。

LIQID纵向扩展方案

  • 弹性配置:从1到30块GPU即时调配,支持600W高性能设备(如Intel Gaudi 3、d-Matrix),无集群互连损耗。
  • 性能优化:GPU直连NVMe存储,提升AI/HPC负载30%性能,降低延迟。单CPU主机支持大规模GPU+内存,减少硬件、功耗与散热需求。
  • 快速部署:通过Liqid Matrix软件秒级分配GPU、内存及存储,精准匹配工作负载。

LIQID横向扩展方案

  • 基于开放标准,支持现有网络硬件及协议(如RoCE v2/v3、InfiniBand)。
  • 无缝对接Kubernetes、VMware、Slurm等编排与调度工具。支持多租户,跨部门共享资源(如推理模型/LLM微调),提供高可用性(HA)与分布式管理。
  • 适配新兴技术如Nvidia Fusion、Ultra Ethernet。

业界首个也是唯一的可组合纵向扩展单一界面

  • 业界唯一实现GPU与内存可组合性的管理界面,支持纵向/横向扩展。
  • 软件定义故障设备断电与虚拟替换,减少停机时间。
  • 可以通过图形界面或REST API操作,集成Kubernetes、Ansible等生态工具。

LIQID使命宣言:重塑本地与边缘AI基础设施能效标准

LIQID致力于打造高能效、低成本的AI基础设施

联系我们

与我们的产品专家交流,了解LIQID如何为您的数据中心带来更大的敏捷性和价值。

产品服务

产品咨询&选型指导
产品文档&资料
方案设计&报价

技术支持

技术培训
定制方案开发
售后支持服务

资源中心

行业动态&趋势
技术干货&案例
产品更新&发布

联系我们

24小时快速响应
资深工程师对接
量身定制解决方案