针对开拓环境多样化的问题,目前比较主流的方法是Docker技能。Docker是基于LXC容器技能利用Go开拓的开源软件,可以打包代码的运行环境+代码,并且移植性强,可以把代码的运行环境+代码打包成Docker镜像,在不同的平台上进走运行。比较于传统的基于硬件层面的虚拟化,Docker是基于操作系统层面上的虚拟化,可直策应用本地主机的操作系统,更加轻量化。因此在开拓过程中,Docker成为了开拓者办理不同开拓环境依赖的首选方法。
少量Docker容器相对来说比较好管理与调度, 那么基于云真个大规模容器之间又该如何调度呢?又如何对容器中的机器学习进行推理加速呢?为了让大家更好的理解容器云中的机器学习加速事理与构建,智东西公开课推出机器学习容器云公开课。8月20日晚7点,由超集信息中国平台研发总监李盘宵与NVIDIA办理方案架构师黄煜主讲,为大家带来主题为《AI Max机器学习平台的大规模容器调度方案解析》的直播讲解。
超集信息的李老师将从NVIDIA GPU在当前AI领域的运用现状出发,对大规模容器调度方案进行解析,并深度讲解机器学习平台AI Max的架构及运用。而NVIDIA的黄老师将会向大家先容NVIDIA DGX A100系统与A100 GPU,以及NVIDIA NGC软件中央的底层加速事理。
李盘宵是超集信息中国平台研发总监,在AI、云打算平台方面具有丰富的架构和研发履历,带领团队研发了基于k8s和docker的大规模容器AI云平台,产品在行业处于领先地位。其个人善于k8s、docker,微做事等多项技能。黄煜是NVIDIA办理方案架构师,本科和硕士毕业于北京邮电大学。他在基于3D视觉的人体关键点预测、碰撞预测等方面具有丰富履历,致力于为NVIDIA互助伙伴在GPU软硬件、深度学习开拓等方面供应办理方案支持。
专场内容
主题: AI Max机器学习平台的大规模容器调度方案解析
提要:
1、NVIDIA GPU在当前AI领域的运用现状
2、大规模容器调度方案解析
3、机器学习平台AI Max架构及运用
4、NVIDIA DGX A100系统与A100 GPU
5、NVIDIA NGC软件中央先容
讲师先容
李盘宵,超集信息中国平台研发总监,在AI、云打算平台方面具有丰富的架构和研发履历,带领团队研发了基于k8s和Docker的大规模容器AI云平台,产品在行业处于领先地位。个人善于k8s、Docker,微做事等多项技能。
黄煜,NVIDIA办理方案架构师,本科和硕士毕业于北京邮电大学。在基于3D视觉的人体关键点预测、碰撞预测等方面具有丰富履历。现为英伟达办理方案架构师,致力于为NVIDIA互助伙伴在GPU软硬件、深度学习开拓等方面供应办理方案支持。
直播信息
韶光:8月20日19点
地点:智东西公开课小程序
报名办法
添加智东西公开课小助手芒芒(ID:zhidxclass005)报名,添加时请备注“姓名-公司/学校-职位/专业”,因报名人数过多,优先通过备注者。