集数据导入、数据处理、模型开发、模型训练、模型评估、服务上线等功能于一体,提供一站式全方位的深度学习建模流程,快速打造智能业务。
高效管理和分配硬件资源,支持模型训练和模型服务的统一调度,带来极速体验。
操作简单,快速上手,无需用户运维和管理软硬件配置。
全支持 TensorFlow、PyTorch、Caffe 和 MXNet 等多种深度学习和机器学习框架。
数据、模型、代码,开发、训练、服务,提供一站式多维度 AI-DevOps 落地支持
支持版本化数据集管理,联动平台开发、训练、流水线等多个功能,即点即用
支持版本化模型集管理,支持多种模型框架,平台内一键部署服务
预置 GitLab 代码托管服务,支持代码 Git 管理及训练代码溯源
支持 MySQL、FTP、HDFS、Hive 四种类型的数据源管理,离线批量同步数据
支持 TensorFlow、Keras、PyTorch、Caffe、MXNet 等多种框架,支持 GPU 训练加速,支持多机多卡分布式训练
模型一键优化,缩短推理周期,提高训练速度
支持复制成熟的算法解决方案,一键使用
支持 AI 自定义流水线,支持数据清洗、模型训练、模型评估、模型服务等流程任务
支持一键部署模型服务,支持 GPU 共享,支持流量分担模式及 A/B 测试,支持自定义容器镜像
支持多服务共享 GPU,充分利用 GPU 资源
支持预置规则及自定义规则的模型评估,支持多模型对比
贴合企业多租户场景,支持租户间资源隔离
支持各类资源的细粒度权限分配
组件库
开发空间
模型服务
支持对象存储,在线清洗脏数据,在线多人协作打标系统,原始数据预处理一键导入平台存储,为模型训练提供数据保障,发挥数据的价值。
支持 GPU 加速训练,支持分布式训练,可视化部署训练作业。支持优先级队列批量创建训练任务,将数据科学家从资源调度和等待中彻底解放。
AI 团队实践敏捷模型开发,训练结果一键导入模型仓库、部署模型、发布服务。在线模型版本管理,持续集成模型流水线,模型服务灰度发布,弹性伸缩。一处训练,多处可用,模型仓库结合便捷的模型 DevOps 系统,最大化模型的价值。