如何选用电容器用OpenStack和K8s快速搭建一个容器和虚拟机组合服务的云平台

基于k8s部署的应用(服务)如何访问
当我们使用k8s部署了一套应用时(比如一个blog),要怎么访问它便成了我们最直接的问题,这里的访问应该同时包括了对外(tomcat)和对内()服务。
要弄清楚这个问题,首先我们需要了解kubernetes网络模型设计的基础原则:
每个pod都拥有一个独立的ip地址,而且假定所有的pod都在一个直接连通的、扁平的网络空间中。
回到题目的问题,我们这里分两步分讨论:
1. 集群内部访问
1.1 通过pod的ip访问
通过这种方式访问是不可靠的,因为当pod重启后,它的ip会重新分配
1.1.1 因为pod中所有容器共享一个网络堆栈(pod的ip地址是docker0分配的),所以同一个pod中的容器可以通过localhost来互相访问
1.1.2 不同pod的容器访问可以使用endpoint方式:pod的ip+容器的端口
1.2 通过服务访问
通过创建service,可以为一组具有相同功能的容器应用提供一个统一的入口地址,这个地址不会因为pod的重启而发生改变,所以是可靠的。
访问方式:服务的clusterIP(这个是系统分配的全局唯一ip)+containerPort(应用容器的端口)
2. 集群外部访问
2.1 直接访问容器
在启动pod的rc/deployment中指定容器的hostport,并设置pod级别的hostwork=true,这样直接通过主机ip+hostport就可以实现访问
2.2 通过service访问
2.2.1 NodePort方式
在service.yaml中配置nodeport参数,这一集群会在每一个node上为需要外部访问的service开启一个TCP监听端口,外部系统只需要用任意一个Node的IP地址+具体的NodePort端口号就可访问此服务。不过这种方式没有解决node层负载均衡的问题(pod层kube-proxy会自动实现负载分发到多个pod上,但node层不能负载分发到多个node)
2.2.2 如果使用公有云平台(如aws、azure、openstack、gce等)部署时,可以用loadbalance方式,配置外部负载均衡器,对service的请求会通过loadbalance转发到后端pod
2.3 Ingress
Ingress也是k8s中单独定义的对象,它的作用就是实现对外暴露访问的负载均衡,它和Service本身LoadBalancer的区别在于:
- Ingress支持L4、L7负载均衡,LoadBalancer设计上只支持L4;
- Ingress基于Pod部署,并将Pod网络设置成external network;
- Ingress controller支持Nginx、Haproxy、GCE-L7,能够满足企业内部使用。&>&Qcon全球软件开发大会[]_容器集群管理实践专场(厂商共建)
Qcon全球软件开发大会[]_容器集群管理实践专场(厂商共建)
上传大小:6.43MB
4-1-Docker 应用:如何设计超大规模容器调度系统-孙宏亮
4-2-如何用OpenStack和K8s快速搭建一个容器和虚拟机组合服务的云平台-王昕
4-3-技术解析:构建高效开发容器云平台-陈谔
QCon是由InfoQ主办的全球顶级技术盛会,每年在伦敦、北京、东京、纽约、圣保罗、杭州、旧金山召开。自2007年3月份首次举办以来,已经有包括传统制造、金融、电信、互联网、航空航天等领域的近万名架构师、项目经理、团队领导者和高级开发人员参加过QCon大会。
更多其他QCon大会PPT:http://download.csdn.net/user/cleopard/album...展开收缩
综合评分:0(0位用户评分)
下载个数:31
{%username%}回复{%com_username%}{%time%}\
/*点击出现回复框*/
$(".respond_btn").on("click", function (e) {
$(this).parents(".rightLi").children(".respond_box").show();
e.stopPropagation();
$(".cancel_res").on("click", function (e) {
$(this).parents(".res_b").siblings(".res_area").val("");
$(this).parents(".respond_box").hide();
e.stopPropagation();
/*删除评论*/
$(".del_comment_c").on("click", function (e) {
var id = $(e.target).attr("id");
$.getJSON('/index.php/comment/do_invalid/' + id,
function (data) {
if (data.succ == 1) {
$(e.target).parents(".conLi").remove();
alert(data.msg);
$(".res_btn").click(function (e) {
var q = $("#form1").serializeArray();
console.log(q);
var res_area_r = $.trim($(".res_area_r").val());
if (res_area_r == '') {
$(".res_text").css({color: "red"});
$.post("/index.php/comment/do_comment_reply/", q,
function (data) {
if (data.succ == 1) {
var $target,
evt = e || window.
$target = $(evt.target || evt.srcElement);
var $dd = $target.parents('dd');
var $wrapReply = $dd.find('.respond_box');
console.log($wrapReply);
var mess = $(".res_area_r").val();
var str = str.replace(/{%header%}/g, data.header)
.replace(/{%href%}/g, 'http://' + window.location.host + '/user/' + data.username)
.replace(/{%username%}/g, data.username)
.replace(/{%com_username%}/g, _username)
.replace(/{%time%}/g, data.time)
.replace(/{%id%}/g, data.id)
.replace(/{%mess%}/g, mess);
$dd.after(str);
$(".respond_box").hide();
$(".res_area_r").val("");
$(".res_area").val("");
$wrapReply.hide();
alert(data.msg);
}, "json");
/*删除回复*/
$(".rightLi").on("click",'.del_comment_r', function (e) {
var id = $(e.target).attr("id");
$.getJSON('/index.php/comment/do_comment_del/' + id,
function (data) {
if (data.succ == 1) {
$(e.target).parent().parent().parent().parent().parent().remove();
$(e.target).parents('.res_list').remove()
alert(data.msg);
//填充回复
function KeyP(v) {
$(".res_area_r").val($.trim($(".res_area").val()));
评论共有0条
审核通过送C币
上百套精品PPT模板专题
创建者:fantasysxan
平面设计师/UI设计师 必读书单大集合,强烈推荐。
创建者:qq_
如何高效学习
创建者:houzhiguo
积分&36374
上传者其他资源上传者专辑
最新版 mysql-for-visualstudio-1.2.7-noinstall
最新版 mysql-for-visualstudio-1.2.7.msi
最新SVNServer3.6.0&TortoiseSVN1.9.5&中文包__CLeopard
深入浅出PDF
《深入浅出WPF》源码
课程资源热门标签
VIP会员动态
CSDN下载频道资源及相关规则调整公告V11.10
下载频道用户反馈专区
下载频道积分规则调整V1710.18
spring mvc+mybatis+mysql+maven+bootstrap 整合实现增删查改简单实例.zip
资源所需积分/C币
当前拥有积分
当前拥有C币
为了良好体验,不建议使用迅雷下载
Qcon全球软件开发大会[]_容器集群管理实践专场(厂商共建)
会员到期时间:
剩余下载个数:
剩余C币:593
剩余积分:0
为了良好体验,不建议使用迅雷下载
积分不足!
资源所需积分/C币
当前拥有积分
您可以选择
程序员的必选
绿色安全资源
资源所需积分/C币
当前拥有积分
当前拥有C币
(仅够下载10个资源)
为了良好体验,不建议使用迅雷下载
资源所需积分/C币
当前拥有积分
当前拥有C币
为了良好体验,不建议使用迅雷下载
资源所需积分/C币
当前拥有积分
当前拥有C币
您的积分不足,将扣除 10 C币
为了良好体验,不建议使用迅雷下载
你当前的下载分为234。
你还不是VIP会员
开通VIP会员权限,免积分下载
你下载资源过于频繁,请输入验证码
你下载资源过于频繁,请输入验证码
您因违反CSDN下载频道规则而被锁定帐户,如有疑问,请联络:!
若举报审核通过,可奖励20下载分
被举报人:
举报的资源分:
请选择类型
资源无法下载
资源无法使用
标题与实际内容不符
含有危害国家安全内容
含有反动色情等内容
含广告内容
版权问题,侵犯个人或公司的版权
*详细原因:
Qcon全球软件开发大会[]_容器集群管理实践专场(厂商共建)Kubernetes(k8s)环境搭建实战_服务器应用_Linux公社-Linux系统门户网站
你好,游客
Kubernetes(k8s)环境搭建实战
来源:Linux社区&
作者:whaon
k8s官方版本更新太快,网上很多的文章都已经过时了,很多工具或者接口都发生了变化.官网上的不是很好理解,这里只记录搭建k8s环境的过程,不会讲太多k8s的各种概念,所以建议先去了解下各种概念,然后来搭建环境,然后再对比着理解各种概念是一种比较好的学习方式。
按网上有些文章的意思,之前k8s是有提供安装的版本,并且有yum源,但是看目前是不需要安装的,解压可用
官网地址:/kubernetes/kubernetes
可以自己下载源码包进行编译,不过需要go的支持,而且在墙内的话会编译不过,原因是需要的镜像被墙了,所以直接下载release版本即可,地址:/kubernetes/kubernetes/releases
笔者使用的是,这个包已经有之大了,而之前的版本才182M,可见更新之快,之多,笔者之前还使用过1.0.1版本,有些接口和参数就已经发生变化了,比如之前kubectl expose的参数是public-ip,而现在改为externalIPs,所以大家实践时要根据自己的版本 &环境说明:
2台机器,167和168,系统都是6.5
167上面会跑etcd,flannel,kube-apiserver,kube-controller-manager,kube-scheduler,自己也充当minion,所以也会跑kube-proxy和kubelet&
168上只需要跑etcd,flannel,kube-proxy和kubelet,etcd和flannel是为了打通2台机器的网络
k8s是建立在docker之上的,所以docker是必须的 &环境搭建 &打通网络
k8s还需要etcd和Flannel的支持,先下载这2个包,注意2台机器都需要下载和执行
wget wget &分别解压,然后添加到环境变量
cd etcd-v2.2.4-linux-amd64/cp etcd etcdctl /usr/bin/cd flannel-0.5.5/cp flanneld mk-docker-opts.sh /usr/bin
# 167上运行etcd -name infra0 -initial-advertise-peer-urls http://172.16.48.167:2380 -listen-peer-urls http://172.16.48.167:2380 -listen-client-urls http://172.16.48.167:2379,http://127.0.0.1:2379 -advertise-client-urls http://172.16.48.167:2379& -discovery https://discovery.etcd.io/322a6b0e89fd6db941c4add --data-dir /usr/local/kubernete_test/flanneldata& && /usr/local/kubernete_test/logs/etcd.log 2&&1 &&# 168上运行etcd -name infra1 -initial-advertise-peer-urls http://203.130.48.168:2380 -listen-peer-urls http://203.130.48.168:2380 -listen-client-urls http://203.130.48.168:2379,http://127.0.0.1:2379 -advertise-client-urls http://203.130.48.168:2379& -discovery https://discovery.etcd.io/322a6b0e89fd6db941c4add&
--data-dir /usr/local/kubernete_test/flanneldata& && /usr/local/kubernete_test/logs/etcd.log 2&&1 &&注意中间的-discovery参数,这是个url地址,我们可以通过访问 https://discovery.etcd.io/new?size=2来获得,size表示minion的数目,我们这里是2,2台机器要用同一个url地址,如果访问这个地址,会发现返回一坨json字符串,这个服务器我们也是可以自己搭建的 这样就启动成功了,然后我们可以在任意一台机器上执行
etcdctl lsetcdctl cluster-health&来确认已经成功启动,如果有错可以查看日志文件
tail -n 1000 -f /usr/local/kubernete_test/logs/etcd.log&然后在任一台机器上执行&
etcdctl set //network/config '{ "Network": "172.17.0.0/16" }'
[root@w ~]# etcdctl ls //network/subnets//network/subnets/172.17.4.0-24//network/subnets/172.17.13.0-24[root@w ~]# etcdctl get //network/subnets/172.17.4.0-24{"PublicIP":"203.130.48.168"}[root@w ~]# etcdctl get //network/subnets/172.17.13.0-24{"PublicIP":"203.130.48.167"}&可以看到167上的网段为172.17.4.13/24 168上的为172.17.14.0/24,我们后面建立的docker容器的IP就分别在这2个网段中 然后2台机器上分别执行
flanneld && /usr/local/kubernete_test/logs/flanneld.log 2&&1 &&在每个机器上执行:&
mk-docker-opts.sh -isource /run/flannel/subnet.envrm /var/run/docker.pidifconfig docker0 ${FLANNEL_SUBNET}&然后重启docker&
service docker restart&这样2台机器上的容器的网络就打通了,后续可以看到效果& 安装和启动k8s
wget /kubernetes/kubernetes/releases/download/v1.2.0-alpha.6/kubernetes.tar.gz&然后各种解压
tar zxvf &span style="line-height: 1.5; font-size: 9"&kubernetes.tar.gz &/span&cd kubernetes/servertar zxvf kubernetes-server-linux-amd64.tar.gz&
# 这个是我们需要执行命令的包cd kubernetes/server/bin/
复制命令到环境变量中,这里我只复制了kubectl
cp kubectl /usr/bin/
在167上执行&
./kube-apiserver --address=0.0.0.0& --insecure-port=8080 --service-cluster-ip-range='172.16.48.167/24' --log_dir=/usr/local/kubernete_test/logs/kube --kubelet_port=10250 --v=0 --logtostderr=false --etcd_servers=http://172.16.48.167:2379 --allow_privileged=false& && /usr/local/kubernete_test/logs/kube-apiserver.log 2&&1 &&./kube-controller-manager& --v=0 --logtostderr=false --log_dir=/usr/local/kubernete_test/logs/kube --master=172.16.48.167:8080 && /usr/local/kubernete_test/logs/kube-controller-manager 2&&1 &&./kube-scheduler& --master='172.16.48.167:8080' --v=0& --log_dir=/usr/local/kubernete_test/logs/kube& && /usr/local/kubernete_test/logs/kube-scheduler.log 2&&1 &&这样就把master跑起来了,
[root@w ~]# kubectl get componentstatusesNAME& & & & & & & &
STATUS& & MESSAGE& & & & & & & ERRORscheduler& & & & & & Healthy&
ok& & & & & & & & &
controller-manager&
ok& & & & & & & & &
etcd-0& & & & & & &
{"health": "true"}&
etcd-1& & & & & & &
{"health": "true"}&我们可以看到都很健康的在运行 然后我们就阔以愉快的在2台机器上跑minion需要的程序了(注意167同时也是minion)
# 167./kube-proxy& --logtostderr=false --v=0 --master=http://172.16.48.167:8080&
&& /usr/local/kubernete_test/logs/kube-proxy.log 2&&1 &&./kubelet& --logtostderr=false --v=0 --allow-privileged=false& --log_dir=/usr/local/kubernete_test/logs/kube& --address=0.0.0.0& --port=10250& --hostname_override=172.16.48.167& --api_servers=http://172.16.48.167:8080&
&& /usr/local/kubernete_test/logs/kube-kubelet.log 2&&1 &&# 168./kube-proxy& --logtostderr=false --v=0 --master=http://172.16.48.167:8080&
&& /usr/local/kubernete_test/logs/kube-proxy.log 2&&1 &&./kubelet& --logtostderr=false --v=0 --allow-privileged=false& --log_dir=/usr/local/kubernete_test/logs/kube& --address=0.0.0.0& --port=10250& --hostname_override=172.16.48.97& --api_servers=http://172.16.48.167:8080&
&& /usr/local/kubernete_test/logs/kube-kubelet.log 2&&1 &&来确认启动成功
[root@w ~]# kubectl get nodesNAME& & & & & & LABELS& & & & & & & & & & & & & & & &
STATUS& & AGE172.16.48.167&
kubernetes.io/hostname=172.16.48.167&
1d172.16.48.168&
kubernetes.io/hostname=172.16.48.168&
18h&2个minion都是Ready& 提交命令
k8s支持2种方式,一种是直接通过命令参数的方式,另一种是通过配置文件的方式,配置文件的话支持json和yaml,下面只讲通过命令参数的方式 &建立rc和pod
kubectl run nginx --image=nginx --port=80& --replicas=5&这样就建立了一个rc和5个pod 通过以下命令可以查看
kubectl get rc,pods&如果我们手工把建立的pod删掉,k8s会自动重新启动一个,始终确保pod的数目为5& 跨机器间的通信
我们分别在167和168上用docker ps来查看,会发现2台机器上分别跑了一下nginx的容器,我们在2台机器上随意找一个容器进入,使用ip a来查看IP地址,会发现167上为172.17.13.0/24中,168为172.17.4.0/24中,我们分别ping对方的IP会发现是可以ping通的,说明网络已经通了,如果宿主机可以连上外网的话,在容器中也是可以访问外网的
如果我们不通过k8来启动容器,而是直接通过docker来启动容器,会发现启动的容器IP端也是在我们上述2个IP段之内的,并且和k8启动的容器的网络是互通的
当然IP端随机分配并且是内网的IP会给我们造成一些困扰
比如我们一般会这样做:通过docker启动容器,然后通过pipework来给其分配固定IP地址,既可以是内网IP也可以是外网IP,辣么,这样的话k8s启动的容器会和他们想通么
答案是通了一半,即通过k8s启动的容器是可以访问pipework设置的容器的内网IP和外网IP,但是反过来不行,pipework设置的容器是不能访问k8s启动的容器的,虽然是这样,但是不影响我们一般的需求,因为我们一般通过k8s启动的容器是web应用,通过pipework设置固定IP的是数据库之类,刚好可以满足从web应用访问数据库的需求 &暴露service
kubectl expose rc nginx --port=80 --container-port=9090 --external-ip=x.x.x.168&port参数是容器的端口,因为nginx使用的80,所以这里必须是80 container-port和target-port是一个意思,指的是宿主机转发的端口,可以随意指定一个,也可以不指定 &external-ip指的是对外暴露的ip地址,一般用公网IP地址,执行那个命令过后,我们就可以在公网上访问了,但是这里有个问题就是这个IP地址必须是安装了k8s的机器的IP,如果你随便用一个IP是不能访问的,这里也给应用上造成了不便
查看service
kubectl get svc
可以看到CLUSTER_IP和EXTERNAL_IP &后续的问题
如果用k8s做负载均衡的话,效率会怎样?怎么保持session?
由于现在k8s还不是很稳定,可能还不是很适合上生产环境
Kubernetes集群部署&
OpenStack, Kubernetes, Mesos 谁主沉浮&
Kubernetes集群搭建过程中遇到的问题及解决&
Kubernetes 的详细介绍:Kubernetes 的下载地址:
本文永久更新链接地址:
相关资讯 & & &
& (10月26日)
& (10月12日)
& (11月01日)
& (10月18日)
& (10月09日)
   同意评论声明
   发表
尊重网上道德,遵守中华人民共和国的各项有关法律法规
承担一切因您的行为而直接或间接导致的民事或刑事法律责任
本站管理人员有权保留或删除其管辖留言中的任意内容
本站有权在网站内转载或引用您的评论
参与本评论即表明您已经阅读并接受上述条款
匿名 发表于 我觉得etcd集群要用自动发现好一些,这样添加服务器不用太麻烦
(0) 匿名 发表于 我觉得这个不错【图文】基于OpenStack和Kubernetes构建组合云平台_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
您可以上传图片描述问题
联系电话:
请填写真实有效的信息,以便工作人员联系您,我们为您严格保密。
基于OpenStack和Kubernetes构建组合云平台
售前技术顾问|
总评分4.4|
浏览量2685295
用知识赚钱
&&Docker,Container,容器,容器开发,企业容器平台,互联网转型,Devops,微服务
大小:51页
登录百度文库,专享文档复制特权,财富值每天免费拿!
你可能喜欢

我要回帖

更多关于 控根快速育苗容器 的文章

 

随机推荐