针对开拓环境多样化的问题,目前比较主流的方法是Docker技能。
Docker是基于LXC容器技能利用Go开拓的开源软件,可以打包代码的运行环境+代码,并且移植性强,可以把代码的运行环境+代码打包成Docker镜像,在不同的平台上进走运行。
比较于传统的基于硬件层面的虚拟化,Docker是基于操作系统层面上的虚拟化,可直策应用本地主机的操作系统,更加轻量化。
因此在开拓过程中,Docker成为了开拓者办理不同开拓环境依赖的首选方法。

少量Docker容器相对来说比较好管理与调度, 那么基于云真个大规模容器之间又该如何调度呢?又如何对容器中的机器学习进行推理加速呢?为了让大家更好的理解容器云中的机器学习加速事理与构建,智东西公开课推出机器学习容器云公开课。
8月20日晚7点,由超集信息中国平台研发总监李盘宵与NVIDIA办理方案架构师黄煜主讲,为大家带来主题为《AI Max机器学习平台的大规模容器调度方案解析》的直播讲解。

超集信息的李老师将从NVIDIA GPU在当前AI领域的运用现状出发,对大规模容器调度方案进行解析,并深度讲解机器学习平台AI Max的架构及运用。
而NVIDIA的黄老师将会向大家先容NVIDIA DGX A100系统与A100 GPU,以及NVIDIA NGC软件中央的底层加速事理。

李盘宵是超集信息中国平台研发总监,在AI、云打算平台方面具有丰富的架构和研发履历,带领团队研发了基于k8s和docker的大规模容器AI云平台,产品在行业处于领先地位。
其个人善于k8s、docker,微做事等多项技能。
黄煜是NVIDIA办理方案架构师,本科和硕士毕业于北京邮电大学。
他在基于3D视觉的人体关键点预测、碰撞预测等方面具有丰富履历,致力于为NVIDIA互助伙伴在GPU软硬件、深度学习开拓等方面供应办理方案支持。

机械进修容器云公开课上线两位专家深度讲解AI Max机械进修平台的大年夜规模容器调解筹划  直播预告

专场内容

主题: AI Max机器学习平台的大规模容器调度方案解析

提要:

1、NVIDIA GPU在当前AI领域的运用现状

2、大规模容器调度方案解析

3、机器学习平台AI Max架构及运用

4、NVIDIA DGX A100系统与A100 GPU

5、NVIDIA NGC软件中央先容

讲师先容

李盘宵,超集信息中国平台研发总监,在AI、云打算平台方面具有丰富的架构和研发履历,带领团队研发了基于k8s和Docker的大规模容器AI云平台,产品在行业处于领先地位。
个人善于k8s、Docker,微做事等多项技能。

黄煜,NVIDIA办理方案架构师,本科和硕士毕业于北京邮电大学。
在基于3D视觉的人体关键点预测、碰撞预测等方面具有丰富履历。
现为英伟达办理方案架构师,致力于为NVIDIA互助伙伴在GPU软硬件、深度学习开拓等方面供应办理方案支持。

直播信息

韶光:8月20日19点

地点:智东西公开课小程序

报名办法

添加智东西公开课小助手芒芒(ID:zhidxclass005)报名,添加时请备注“姓名-公司/学校-职位/专业”,因报名人数过多,优先通过备注者。