江骏 / 饿了么资深后端工程师
嘉宾介绍:曾在携程系统研发部任职。获 2016 年饿了么黑客马拉松冠军(在黑客马拉松初赛中使用了 TensorFlow)。擅长 Cloud 相关领域 (Kubernetes、OpenStack),热衷开源社区,有一些贡献。近一年多来重点关注 TensorFlow,为饿了么打造深度学习云,并在实际业务中尝试将深度学习落地。
江骏本人授权, K8sMeetup 中国将持续转载他的 Kubernetes 学习笔记,由浅入深地分享他在学习过程中的收获。

想看精彩 Q & A,直接拉到最底部。

我是饿了么的资深后端工程师,现在负责深度学习的平台 elearn,也有幸参加搜索推荐部门深度学习的业务场景。我现在手机上的饿了么 APP 上面的推荐,就是基于我最近的深度学习模型出做出来的。


Deep Learning、AI、Machine Learning
关于"深度学习、AI、Machine Learning",基本上这三个词同时都听得见,但是大家不太清楚其中的关系。
这三者的关系是这样,AI 是最大的范围,带点智能都可以叫 AI;Machine Learning 主要分两块,一块是相对传统的,比如基于一些决策树模型;另一块就是现在的Deep Learning。


Hadoop & Spark 和 Tensorflow 的关系
说到机器学习、大数据,大家听到的是 Hadoop 和 Spark 居多,它们跟 TensorFlow 是一个什么样的关系呢?是不是有 TensorFlow 就不需要 Spark 这些?

像 Hadoop 跟 Spark,背后都是 MapReduce。Hadoop 更多是去写文件,Spark 更多是通过内存。它们通过 MapReduce,下发 task 给这些去做。


它们擅长的这种并行运算叫“Embarrassingly Parallel”,就是这种并行是非常完美的并行,要非常完美,最后收集结果。这个对于做一些数据分析这一类是非常适用的。Spark 的 MLlib 对于传统机器学习的方法,基本上支持很全,功能也好用。


Tensorflow 优势
TensorFlow 特别擅长做深度学习的时候,如果一些神经网络,最后放在一个 graph 上看的话,很轻松就会达到一个很复杂的程度。所以,大家看到这样一个 graph 以后就会发现,用前面的 MapReduce 其实很难写,而且它也没办法那样完美并行,而且深度学习还有个反向传播的过程,更难做了。所以 Hadoop 跟 Spark 从架构本质上,根本就是做不了深度学习的。所以就出现了 TensorFlow。
为什么需要 TensorFlow 来做深度学习?TensorFlow 大体的思路是这样,用 Python,一般是用 Python 定义好深度学习神经网络以后,TensorFlow 会做成 DAG,有向无环图,然后把 DAG 交给 TensorFlow  的 C++ Core 来运行,这样保证它的运算效率非常高。所以我个人认为,对于一个 framework 是否支持深度学习,最关键的就是:它是否支持构建 DAG 和进行 DAG 运算。


那么 Hadoop、Spark 用在哪?机器学习第一步非常关键,就是对数据的预处理,因为互联网公司有非常多结构化数据,存在了 Hive、MySQL 这些里面。这些数据经过处理以后才能供机器学习使用。这类的预处理非常适合用 Hadoop、Spark 这些来做。


数据准备好了之后,我们把数据放在分布式存储里面。上面跑分布式 TensorFlow,然后 TensorFlow 用集群里的 CPU 资源和 GPU 资源做 training。
当模型训练好,用 TensorFlow Serving 能够接收线上的请求,实时做出预测。分布式存储和计算,这样两块组合起来,这是深度学习平台 elearn 做的事情。


elearn :overview
elearn 是 TaaS  (TensorFlow as a Service),去年 8 月底开始研发,受到 Google CloudML 的启发。我们 elearn 的一个核心想法就是:我们让算法工程师可以专注于算法,他们不用再多花精力去搞 CPU 资源、去搞发布。他们只要专心写算法就可以了,后面的事情全部交给 elearn。

繁琐的事情,比如分布式存储、计算资源的弹性伸缩、IP / port 的管理、container 的生命周期,全部变成 API,不用管了。尤其这里面 IP 的管理 pod 的管理,本来也不应该算法工程师操心的。
而他们的现在现状是什么呢?现在算法工程师要操心非常多,他写完了之后,不知道怎么转化成工程产品;怎样大规模做 training;怎么做模型的版本管理,再到上线了以后,预测的性能不行。
这一切,导致深度学习没有办法拓展到更多业务,无法拓展到工程师这边来。然后让我们觉得 Deep Learning 好像有一点束之高阁的感觉。


elearn:分布式存储
首先,我们来讲分布式存储
分布式存储在 elearn 里面,我给它一个抽象的定义,叫 Datastore,它是一个对所有数据类型的抽象概念。换句话说,计算的部分,你只要看到你的目录有数据就可以了,不用管这个目录是怎么来的,所以这就可以做到 storage 和 computing 两个之间的解耦,就是可以随便换 storage,和计算是没有影响的。


比如,以前如果要用一个 S3 的存储,需要在代码里用上 S3 client 才能写数据和读数据。而现在不用了,S3 存储的文件让你看起来就在一个容器的目录里面。 
Datastore 需要支持多种 storage backend 的另一个原因,是当深度学习来了以后,我们需要处理的数据不仅仅是 Hive 里那样的结构化数据了。在处理图片、做智能客服,或处理语音数据时,这些非结构化数据的存储,跟往常做的大数据的存储是不一样的,所以也要提供更加丰富的 storage 种类。
有了 Datastore,算法工程师可以做到什么呢?他在本地开发的时候,读数据都来源于一个目录。而如果在容器里,数据也会出现在那个目录里,一模一样的。所以对算法工程师来说,数据是无缝衔接的,没有任何的学习成本。从笔记本上写的代码,到在云上做 training,其实代码可以不需要改任何一行。


关于 Datastore 背后的技术先不细讲,我们来看几个我们支持的分布式存储。
NFS,大家平时比较多诟病的是它的性能问题,还有权限管理。但是,这都是因为大家在把它当成中心化的存储在用。如果说以 Datastore 的模式来用, 其实每个 model,都可以用独立的 NFS。这样,其实一个 NFS 存储只被几个 training 任务用就够了。在这种场景下,NFS 的性能已经完全够用了。所以它既可以放训练数据,也可以放最后的模型。
再看 S3 Compatible 的一类存储,有一些工具可以把对象存储封装成 file system 存储,但是它们毕竟还是对象存储,把它当 file system 的时候,会有各式各样的问题。比如 s3fs-fuse 不能创建空目录,因为“空目录”在对象存储里,不是一个“对象”,是存不下来的。还有比如 MinFS,它虽然绕过了“空目录”这个问题,但它无法创建 symlink 这样一个常见的操作。
GlusterFS 我没有测过,但它用起来应该和 NFS 很像,应该也不错。


这张 PPT 比较形象地展示了定义一个 Datastore 有多方便和简单。


elearn:GPU
讲到深度学习,大家一般都比较好奇 GPU 这方面的东西。GPU 很有意思,一般服务器会装好多块 GPU 卡,但是如果用的时候不做限制,就会导致 10 块卡全部用满。
因此,需要所有同事建个微信群,大家商量好,你用 1 号卡,我用 2 号卡,第三个人用 3 号卡,基本上沟通靠微信群。这样 10 块卡的利用率极低。关键问题就在于需要手动设置两个环境变量 CUDA_DEVICE_ORDER 和 CUDA_VISIBLE_DEVICES 来限制使用 GPU。
你要知道没有开发者能一定记得每次设置这两个环境变量,而且这两个环境变量不能写在 .bashrc 这样的配置里面,因为每个人每次能够用的空闲 GPU 卡是不一样的。



但是如果在 elearn 的 container 里看到的,机器上虽然有 10 块卡,如果你只要一块卡,那么 elearn 就能做到让你在 container 里就只能看到一块卡,你用爆了,也只能用这一张卡。这就是为什么要通过 container 来使用 GPU。


说到 GPU,提一句它的“内存”,跟平常的内存不一样, TensorFlow 里它默认是抢占式的,一上来就把这块 GPU 所有的内存都抢掉,防止后续的内存碎片问题,但这个设置其实是可以取消的。
再看 GPU 的 Docker image 直接用 Nvidia 打的 image 就可以了,还有基于此的 TensorFlow官方GPU image,非常好用。

最后讲到 GPU 跟 Docker。一说到在 Docker 上用 GPU,很多人都以为一定要用 Nvidia 修改版的 nvidia-docker 才行。其实根本不需要,直接用原生 Docker 就能做到前面的效果,而且 Kubernetes 也是这样做的。Kubernetes 只是帮你分 GPU ID,剩下的事情,比如原来 nvidia-docker 帮你做掉的事情,是需要 elearn 帮你做的。



elearn:分布式 training


接下来,讲分布式 training。
说起分布式 training,就得提 TensorFlow 的上一代产品,DistBelief。它是谷歌内部的上一代机器学习框架。这一代的出现,就已经解决 model 的变量 size 超过了 GPU 显存的范围的问题了。随着公司的发展,大家多多少少会在这方面遇到这样的问题。就跟谷歌在好多年前就已经开始用 Borg,而直到现在,我们大家才用上 Kubernetes,才意识到企业确实需要这样一个东西。


另外,分布式 training 可以给训练的过程加速。
从单机版变成分布式 training,就是把模型参数这块单独拆出来,放在单独的 PS (parameter server) 上面。


这个 PS 也是可以分布式的,这样就对模型大小理论上没有限制了。当再加一个 worker 进来的时候,每个 worker 在每一轮训练开始时,去拉 model 的最新状态。当它自己 Training 完了再把更新的内容告诉 PS,这样完成一次 Training。如果两个甚至更多 worker 在同时做这样的事情,那么就有两种模式,一种是同步,一种是异步。


但值得注意的是,TensorFlow 只是一个代码框架,它是不管你如何启动运行的。所以一个 TensorFlow cluster 的启动运行全得靠工程师自己来。
如果想启动一个 10 台服务器组成的 cluster,你需要登录 10 台服务器、记下每个 DNS、IP、Port,设计 10 条不一样的启动命令,手动敲 10 遍等等;然后,还要自己搞分布式存储,mkdir 把模型存放整齐。一个月后,你或许早就忘了你的模型存在哪台机器的哪台目录了。这还没完,training 的时候,算法工程师要看 TensorBoard,才能知道训练得好不好(如果训练到一半,看效果不好,就可以直接把训练停掉了)。


好了,做这么多事情,到现在只训练了一个模型。业务上希望每周,甚至每天的新数据都要训练一版型模型,如果训练一个都这样麻烦,谁还受得了。

elearn 功能介绍
咱们先在来看 elearn。这个是 elearn 主界面。


你在上面可以轻松创建 TensorFlow cluster,现在只需要提供你的 Docker image。然后借助 Datastore 定义任何的数据来源,启动命令。这和算法工程师在本地开发的时候敲命令一模一样,没有很大的迁移成本。
看到这里,你可能会发现 elearn 不仅仅可以做分布式 training,如果做单机版 training 怎么办?把 PS 和 worker 两项写成 0,只靠 master 工作,就是单机版 training。


elearn 里,用 image 有个什么好处?大家做数据预处理或者 training 过程当中,还有可能要对数据做处理,很多算法工程师要装其它都 python module,而且他对 TensorFlow 的版本可能也有要求。支持了 docker image,算法工程师想要什么环境,都可以自己准备,我不做任何强制。代码上,TensorFlow 要求怎么写 distributed training,就怎么写,不用为了 elearn 去做太多适配。
有了 elearn,要跑一个这样的 GPU & CPU 跑分就非常轻松,发四个 API 请求给 elearn, 过一会儿就可以看到结果。



这里面进行了分布式 GPU 对比和 GPU & CPU 的对比,依次是 3 块 GPU、6 块 GPU、9 块 GPU。可以看到多块 GPU 一起接近于线性的性能提升。

这里即使大家觉得 GPU 很牛,但是 CPU 跟 GPU 到底差多少?这个地方也能看出来,同样是 9 个 CPU 和 9 个 GPU,性能差 9 到 10 倍,这算比较好的情况了。
也就是说 GPU 并没有你想想中的那么夸张,比如说 100 倍、1000 倍的提升,但是 GPU 的提升意义也非常大,以前训练等 10 天要出结果,现在用了 GPU 等 1 天就出结果了。
但是 GPU 非常贵,在企业里面 CPU 非常多非常多,如果 9 个 CPU 能顶一个 GPU。(当然再往上去,就不可以做这样的数学运算了,CPU 多了,瓶颈在于网络通讯之间的消耗了) 至少我觉得 1 块 GPU 跟 10 块 CPU 对于一个企业的成本是不一样的。


接下来,讲两个刚才 elearn 界面上没有出现的东西,但是有 API,就是 Model 和 Serving。用户用着自己带来的 Datastore 做 training,model 也是先往用户的 Datastore 上面存。当你觉得这个 model 训练得效果比较好,就可以选择把这个 model 存进 elearn,由 elearn 帮你托管 model。这个 model 存了几次,都会记录好不同的版本。
当在线上使用 model 做预测的时候,有两种方式:第一种,由 elearn,启动 GRPC Serving,可以水平扩展;第二种,你可以把这个 model 下载,用 Golang、Java 这些语言把 model 直接加载进代码里,跟随着业务一起上线。


elearn:实现过程与思考
在最后,讲一下我在设计、实现整个 elearn 的过程当中,几个非常重要的点,也是我非常坚持的点。

第一,为 TensorFlow 量身打造的。目前为止 elearn 是为 TensorFlow 量身打造的。包括现在 Amazon 的 MXNet 和 Facebook pyTorch,还有一些新的 framework,尤其是新手,觉得非常乱,社区和微信群各种横向的比拼,不知改选哪个。
其实,你要知道为什么 TensorFlow 会被 Google 发明出来,就是因为谷歌意识到每个算法工程师,都是自己实现一套代码,只能做某一件事,别人很难看懂。等工程师应用的时候,根本没有办法分布式用、没有办法大范围用。这就造成了科学家、算法工程师跟实际场景的脱节。这个时候谷歌才推出了 TensorFlow,用同一个 framework 写,大家都能看懂,工具很多,还保证性能不错。所以 TensorFlow 被发明出来了,就不要再折腾别的框架了,好好把 TensorFlow 做好。
除非有一种情况,需要再接受一个框架,就是当“下一代”架构被设计出来的时候,那么“下一代”框架可以取代 TensorFlow,这时 elearn 也只要多写个 driver 就可以立马支持。但是在此之前,我不会那么做,我们把 TensorFlow 支持好,其他 framework 的所谓特色功能,TensorFlow 一定在未来版本实现不了吗?


第二,我在设计 elearn 的 cloud interfaces 的时候,不是设计成“以 Pod 为最小单元”,如果以这样作为接口来写 interfaces,就可以轻松接各种 cloud了,但一旦这样做了以后,elearn 就只能用各个 cloud 功能的交集,也就是只剩下最通用的部分,而忽略了每个 cloud 编排的特色。
所以我在做 elearn  cloud  interfaces 的时候是面向功能的。这个同样可以实现功能,同样可以写其他的 Driver 来轻松支持 Kubernetes 以外的 cloud,而且这样还能够用到每个 cloud 特色的编排和功能。所以 elearn 是用了非常多 Kubernetes 所特有的编排特性的。


第三,我在这个项目中第一次尝试,把 Kubernetes 真的当成一个 OS 来用,这是什么意思呢?举个最简单的例子,以 save model 为例,如果按往常,一个很自然的想法,在一个中心化的存储上面启动一个 daemon,完成文件操作的请求。但这样的劣势就是所有的瓶颈阻塞在那台 daemon 上。所以我们对于 post run,保存 model,这些都是一个个独立的 Kubernetes Job,并不在 elearn  server 或某台专门的 server 上运行。Kubernetes 调度 Job 就像 OS 调度一个进程一样,让 Job 完全分布式运行。


以上就是我本次的分享。
Q & A
 Q1:我有两个问题,我对分布式 TensorFlow 比较感兴趣。作为一个用户,我有这样一个需求,比如我想做一个分布式任务,我需要 100 张卡。但是一台机器没有 100 张卡,只有 8 张卡。另外平台有没有功能,会自动把 100 张卡的任务分解?
A:单个 container 里要求的 GPU 卡的数量,必须在集群里有节点能满足, 这个 container 才会被 Kubernetes 调度启动起来。像 100 张 GPU 卡,应该分解成多个 8 GPU 的任务,然后用 TensorFlow distributed training,实现一个 100 GPU一起 training 的效果。
Q2:刚刚您讲,在 Docker 里面 GPU,可以使用原生的 Docker,然后再加上库就可以了,是吧?
A:是的。
Q2 追问:你有没有经验,我想用英特尔的 GPU 卡,这种方式有没有办法在 Docker 里面实现呢?
A:用英特尔的 GPU 卡,没有接触过,因为即使有这个硬件,最后它在 TensorFlow 上能不能用起来,要看 TensorFlow 有没有支持这个硬件。目前 TensorFlow 就支持 CPU、GPU 还有 Google 自家的 TPU,这三种硬件。
Q2 追问:因为英特尔也在推一些 GPU 做 AI 相关的。如果在容器中使用,你觉得有可能吗?
A:我觉得原理都差不多,应该没什么问题。
Q3:我想问资源管理方面,像 TensorFlow,它有 worker,PS 什么时候停掉和回收掉呢?
A:这个也是非常精彩的问题,如果一个 Training 已经做完了,worker 和 PS 的资源还不释放,其实是对整个集群的浪费,尤其 GPU 资源,目前都是独占的,经不起这样的浪费。解决这个问题很简单,你需要关注这个 training 是不是做完,做完之后会调用 elearn 里面的 FreeCluster interface,这样这个 training cluster 还存在,在 elearn 上面可以看得到,但是它消耗的计算资源全部释放了。在训练结束或者出错那一刻,就全部释放了。
内容来源:2017 年 7 月 23 日,饿了么江骏在 “Kubernetes 2 周岁 Meetup - 上海场” 进行了《饿了么 TensorFlow 深度学习平台:elearn》为主题的演讲分享。K8sMeetup 中国社区经演讲者审阅授权发布。