p*****2 发帖数: 21240 | 1 刚才看了看有两个小问题,
1. 可以把两个images merge吗?
2. 怎么没看到C*, Spark这些的image呢?没人用吗? |
d*******r 发帖数: 3299 | 2 还不太懂,没怎么实战,乱答一下
2. 我随便搜一了一下,很多呢, 乱放几个 (我没试验):
https://tobert.github.io/post/2014-06-26-cassandra-and-docker.html
https://github.com/tobert/cassandra-docker/blob/master/Dockerfile
https://github.com/sequenceiq/docker-spark/blob/master/Dockerfile
1. 你看它们的 Dockerfile, 就是个类 bash shell 的安装脚本.
看懂了,如果里面没冲突的步骤,自己合并出个新 Dockerfile 就是了.
【在 p*****2 的大作中提到】 : 刚才看了看有两个小问题, : 1. 可以把两个images merge吗? : 2. 怎么没看到C*, Spark这些的image呢?没人用吗?
|
p*****2 发帖数: 21240 | 3
多谢大牛。另外有必要merge吗?比如redis,mongo,一般的应用是干脆用两个image算
了,还是会合并呢?
【在 d*******r 的大作中提到】 : 还不太懂,没怎么实战,乱答一下 : 2. 我随便搜一了一下,很多呢, 乱放几个 (我没试验): : https://tobert.github.io/post/2014-06-26-cassandra-and-docker.html : https://github.com/tobert/cassandra-docker/blob/master/Dockerfile : https://github.com/sequenceiq/docker-spark/blob/master/Dockerfile : 1. 你看它们的 Dockerfile, 就是个类 bash shell 的安装脚本. : 看懂了,如果里面没冲突的步骤,自己合并出个新 Dockerfile 就是了.
|
d*******r 发帖数: 3299 | 4 我没实战经验,就不瞎说了,这个还是 Go 学委 cnbuff410 大牛比较懂
二爷动作很快呀, 就开始试验了 |
p*****2 发帖数: 21240 | 5
没有了。也是随便看看。
【在 d*******r 的大作中提到】 : 我没实战经验,就不瞎说了,这个还是 Go 学委 cnbuff410 大牛比较懂 : 二爷动作很快呀, 就开始试验了
|
w***g 发帖数: 5958 | 6 1. 不能自动实现。比如你同时要mysql和redis,那么你就上两个docker,docker自动
给你优化两个docker冗余的那部分存储,而不是弄一个docker装两个服务。docker的设计
目标就是能让人廉价地起N多docker同时跑着。
2. hadoop C* spark这些拼的是硬件计算能力,都是一个机群当搭一个系统。和docker
是两条路子(docker是一台机器当多台用)。最多也就是弄一个C*的docker做开发用,生
产环境是断断不行的。hadoop机群硬件复用需要上yarn和mesos这些。
【在 p*****2 的大作中提到】 : 刚才看了看有两个小问题, : 1. 可以把两个images merge吗? : 2. 怎么没看到C*, Spark这些的image呢?没人用吗?
|
h*i 发帖数: 3446 | 7 用docker不就是想要isolation么,merge干吗?
【在 p*****2 的大作中提到】 : 刚才看了看有两个小问题, : 1. 可以把两个images merge吗? : 2. 怎么没看到C*, Spark这些的image呢?没人用吗?
|
N*****m 发帖数: 42603 | 8 1.啥叫merge?
2.到处都是
【在 p*****2 的大作中提到】 : 刚才看了看有两个小问题, : 1. 可以把两个images merge吗? : 2. 怎么没看到C*, Spark这些的image呢?没人用吗?
|
N*****m 发帖数: 42603 | 9 1.当然可以,一般用supervisor实现;问题是不太符合docker的哲学;实际上很多这么用
设计
docker
【在 w***g 的大作中提到】 : 1. 不能自动实现。比如你同时要mysql和redis,那么你就上两个docker,docker自动 : 给你优化两个docker冗余的那部分存储,而不是弄一个docker装两个服务。docker的设计 : 目标就是能让人廉价地起N多docker同时跑着。 : 2. hadoop C* spark这些拼的是硬件计算能力,都是一个机群当搭一个系统。和docker : 是两条路子(docker是一台机器当多台用)。最多也就是弄一个C*的docker做开发用,生 : 产环境是断断不行的。hadoop机群硬件复用需要上yarn和mesos这些。
|
d*******r 发帖数: 3299 | 10 docker 是有这种很好的 isolation 能力
具体要不要 merge, 是不是还是得看需求呀
【在 h*i 的大作中提到】 : 用docker不就是想要isolation么,merge干吗?
|