ceph 是openstack kilo ceph里的组件么

OpenStack Kilo版加CEPH部署手册作者:
yz联系方式:
目录实验环境
服务器系统安装
导入软件源
Iptables服务安装
NTP服务安装
第一个监视器节点安装
其余监视器节点安装
与Openstack结合
OpenStack控制节点安装
Mysql服务安装
Rabbitmq服务安装
Keystone服务安装
Glance服务安装
Neutron服务安装
Nova服务安装
Cinder服务安装
计算节点安装
Neutron服务安装
Nova服务安装
Horizon安装
实验环境硬件:曙光 I610r-GV(1台)CPU:Intel(R) Xeon(R) CPU E5606
@ 2.13GHz * 1内存:32GB硬盘:SAS 10K 300G * 1网卡:Intel Corporation 82574L Gigabit Network Connection * 2网卡:Intel Corporation 82599ES 10-Gigabit SFI/SFP+ Network Connection(双端口) * 1曙光 I610r-GV(3台)CPU:Intel(R) Xeon(R) CPU E5606
@ 2.13GHz * 1内存:32GB硬盘:SAS 10K 300G * 1,SSD 160G * 3网卡:Intel Corporation 82574L Gigabit Network Connection * 2网卡:Intel Corporation 82599ES 10-Gigabit SFI/SFP+ Network Connection(双端口) * 1系统:CentOS 7.1 x64OpenStack版本:Kilo()Ceph版本:Hammer(0.94.2)前言1.
文档很初级,只是为了带新手入门,很多参数使用默认值2.
文档中Ceph不使用ceph-deploy部署3.
后续会有telemetry,lbaas,sahara,swift,trove部署文档4.
如果网卡不够,可以将管理,虚机,存储合并为一个网络5.
文档中ceph只建立一个池子6.
rdo中某些服务的conf文件红帽有一些修改,如果大家享用官方原版可以在launchpad下载源码包自行生成(这是说给强迫症用户的)7.
dvr模式下每个l3节点所绑定网卡都需要有外网ip架构图架构部署服务器系统安装1.
CentOS 7.1 x64使用最小化安装方式2.
设置主机名,关闭selinux基础工作不在文档出现全局工作导入软件源1.
导入软件源rpm -ivh https://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpmrpm -ivh https://repos.fedorapeople.org/repos/openstack/openstack-kilo/rdo-release-kilo-1.noarch.rpmrpm --import '/git/?p=ceph.a=blob_f=keys/release.asc'2.
新建/etc/yum.repos.d/ceph.repo文件添加如下内容[ceph]name=Ceph packages for $basearchbaseurl=/rpm-hammer/el7/$basearchenabled=1priority=2gpgcheck=1type=rpm-mdgpgkey=/git/?p=ceph.a=blob_f=keys/release.asc[ceph-noarch]name=Ceph noarch packagesbaseurl=/rpm-hammer/el7/noarchenabled=1priority=2gpgcheck=1type=rpm-mdgpgkey=/git/?p=ceph.a=blob_f=keys/release.ascIptables服务安装1.
安装Iptablesyum install -y iptables-services2.
启动并设置开机自启动systemctl stop firewalldsystemctl disable firewalldsystemctl start iptablessystemctl enable iptablesNTP服务安装1.
安装NTP服务yum install -y ntp
启动并设置开机自启动systemctl start ntpdsystemctl enable ntpdCeph安装第一个监视器节点安装1.
安装Cephyum install -y ceph2.
生成集群uuiduuidgen3.
新建/etc/ceph/ceph.conf文件添加如下内容fsid = 第二步生成的值mon initial members = Kilo-com-1,mon host = 20.0.0.3,4.
建立拥有操作监视器权限的凭证ceph-authtool --create-keyring /etc/ceph/ceph.mon.keyring --gen-key -n mon. --cap mon 'allow *'5.
建立一个名称为client.admin的管理员凭证ceph-authtool --create-keyring /etc/ceph/ceph.client.admin.keyring --gen-key -n client.admin --set-uid=0 --cap mon 'allow *' --cap osd 'allow *' --cap mds 'allow'6.
将管理员凭证添加到监视器权限凭证内ceph-authtool /etc/ceph/ceph.mon.keyring --import-keyring /etc/ceph/ceph.client.admin.keyring7.
建立监视器节点对应关系地图monmaptool --create --add Kilo-com-1 20.0.0.3
--fsid 第二步生成的值也是 /tmp/monmap8.
建立监视器服务数据存放目录mkdir /var/lib/ceph/mon/ceph-Kilo-com-1 9.
初始化监视器数据目录ceph-mon --mkfs -i Kilo-com-1
--monmap /tmp/monmap --keyring /etc/ceph/ceph.mon.keyring10.
编辑/etc/ceph/ceph.conf文件添加如下内容public network = 20.0.0.0/24cluster network = 30.0.0.0/24auth cluster required = cephxauth service required = cephxauth client required = cephxfilestore xattr use omap = trueosd pool default pg num = 256osd pool default pgp num = 25611.
添加部署完毕标志文件及服务启动标志文件touch /var/lib/ceph/mon/ceph-Kilo-com-1/donetouch /var/lib/ceph/mon/ceph-Kilo-com-1/sysvinit12.
启动监视器服务/etc/init.d/ceph start mon13.
查看状态 属于正常状态14.
添加防火墙规则允许其他节点连接iptables -I INPUT 2 -s 20.0.0.0/24 -p tcp -m tcp --dport 6789 -j ACCEPTiptables-save & /etc/sysconfig/iptables其余监视器节点安装1.
安装Cephyum install -y ceph2.
从第一监控器节点靠谱配置文件和凭证scp /etc/ceph/ceph.client.admin.keyring /etc/ceph/ceph.mon.keyring /etc/ceph/ceph.conf 10.0.0.4:/etc/ceph/3.
获取监视器节点对应关系地图ceph mon getmap -o /tmp/monmap4.
建立监视器服务数据存放目录mkdir /var/lib/ceph/mon/ceph-Kilo-com-25.
初始化监视器数据目录ceph-mon --mkfs -i Kilo-com-2 --monmap /tmp/monmap --keyring /etc/ceph/ceph.mon.keyring6.
编辑/etc/ceph/ceph.conf文件添加如下内容mon initial members = 追加当前节点主机名,并以逗号结尾mon host = 追加当前节点虚机网络,并以逗号结尾7.
添加部署完毕标志文件及服务启动标志文件touch /var/lib/ceph/mon/ceph-Kilo-com-2/donetouch /var/lib/ceph/mon/ceph-Kilo-com-2/sysvinit8.
启动Ceph mon节点服务/etc/init.d/ceph start mon9.
添加防火墙规则允许其他节点连接iptables -I INPUT 2 -s 20.0.0.0/24 -p tcp -m tcp --dport 6789 -j ACCEPTiptables-save & /etc/sysconfig/iptables10.
添加当前监视器到监视器集群ceph mon add Kilo-com-2 20.0.0.4:678911.
将/etc/ceph/ceph.conf覆盖到其他节点的ceph目录并重启服务部署OSD1.
申请OSD号,计划当前节点有几个OSD就执行几次,输出结果后续使用,我这里每个节点三个OSD,我需要执行三次ceph osd tree2.
通过OSD号创建OSD数据目录mkdir /var/lib/ceph/osd/ceph-0mkdir /var/lib/ceph/osd/ceph-1mkdir /var/lib/ceph/osd/ceph-23.
格式化OSD使用磁盘为xfs文件系统mkfs.xfs /dev/sdbmkfs.xfs /dev/sdcmkfs.xfs /dev/sdd4.
编辑/etc/fstab添加如下内容/dev/sdb /var/lib/ceph/osd/ceph-0 xfs defaults 0 0/dev/sdb /var/lib/ceph/osd/ceph-0 xfs remount,user_xattr 0 0/dev/sdc /var/lib/ceph/osd/ceph-1 xfs defaults 0 0/dev/sdc /var/lib/ceph/osd/ceph-1 xfs remount,user_xattr 0 0/dev/sdd /var/lib/ceph/osd/ceph-2 xfs defaults 0 0/dev/sdd /var/lib/ceph/osd/ceph-2 xfs remount,user_xattr 0 05.
挂载磁盘mount /dev/sdbmount /dev/sdcmount /dev/sdd6.
初始化OSD数据目录ceph-osd -i 0 --mkfs --mkjournal --mkkeyceph-osd -i 1 --mkfs --mkjournal --mkkeyceph-osd -i 2 --mkfs --mkjournal --mkkey7.
注册OSD凭证ceph auth add osd.0 osd 'allow *' mon 'allow profile osd' -i /var/lib/ceph/osd/ceph-0/keyringceph auth add osd.1 osd 'allow *' mon 'allow profile osd' -i /var/lib/ceph/osd/ceph-1/keyringceph auth add osd.2 osd 'allow *' mon 'allow profile osd' -i /var/lib/ceph/osd/ceph-2/keyring8.
添加OSD到CRUSH关系图ceph osd crush add-bucket Kilo-com-1 host9.
将节点移动到default树下ceph osd crush move Kilo-com-1 root=default10.
将OSD添加到Kilo-com-1下ceph osd crush add osd.0 1.0 host=Kilo-com-1ceph osd crush add osd.1 1.0 host=Kilo-com-1ceph osd crush add osd.2 1.0 host=Kilo-com-111.
添加服务启动标志文件touch /var/lib/ceph/osd/ceph-0/sysvinittouch /var/lib/ceph/osd/ceph-1/sysvinittouch /var/lib/ceph/osd/ceph-2/sysvinit12.
添加防火墙规则 iptables -I INPUT 2 -s 20.0.0.0/24 -p tcp -m multiport --dports
-j ACCEPTiptables -I INPUT 2 -s 30.0.0.0/24 -p tcp -m multiport --dports
-j ACCEPTiptables-save & /etc/sysconfig/iptables13.
启动当前节点OSD/etc/init.d/ceph start osd14.
查看当前OSD树状态 15.
查看ceph状态 会看到健康状态是HEALTH_WARN,原因是PGs过少,我们来添加16.
增加PG和PGP数量ceph osd pool set rbd pg_num 256ceph osd pool set rbd pgp_num 256注:如果在执行第二条命令时报Error EBUSY: currently creating pgs, wait,说明第一条命令还没处理完17.
再次查看ceph状态 与Openstack结合1.
建立存储池ceph osd pool create storages 2562.
建立一个名称为client.storages的凭证,对storages池有操作权限ceph auth get-or-create client.storages mon 'allow rx' osd 'allow class-read object_prefix rbd_children, allow rwx pool=storages'OpenStack控制节点安装Ceph配置1.
安装ceph-commonyum install -y ceph-common2.
拷贝配置文件和管理员凭证到本机scp /etc/ceph/ceph.client.admin.keyring /etc/ceph/ceph.conf 10.0.0.2:/etc/ceph/3.
导出client.storages凭证ceph auth get-or-create client.storages && /etc/ceph/ceph.client.storages.keyring4.
安装libvirtyum install -y libvirt5.
编辑/etc/libvirt/libvirtd.conf文件添加或修改如下行listen_tls = 0listen_tcp = 1listen_addr = &0.0.0.0&auth_tcp = &none&6.
编辑/etc/sysconfig/libvirtd文件添加或修改如下行LIBVIRTD_ARGS=&--listen&7.
启动并设置开机自启动systemctl start libvirtdsystemctl enable libvirtd8.
添加防火墙规则iptables -I INPUT 2 -s 10.0.0.0/24 -p tcp -m tcp --dport 16509 -j ACCEPTiptables-save & /etc/sysconfig/iptables9.
生成libvirt secret使用uuiduuidgen10.
新建ceph-storages-secrets.xml文件添加如下内容&secret ephemeral='no' private='no'&
&uuid&第九步生成值&/uuid&
&usage type='ceph'&&name&client.storages secret&/name&
&/usage&&/secret&11.
设置libvirt secret值virsh secret-set-value --secret第九步生成值 --base64 $(ceph auth get-key client.storages)Mysql服务安装1.
安装MYSQL服务yum install -y mariadb-server2.
编辑/f文件的[mysqld]下添加如下内容collation-server = utf8_general_ciinit-connect = 'SET NAMES utf8'character-set-server = utf8skip-name-resolveskip-host-cache3.
启动并设置开机自启动systemctl start mariadbsystemctl enable mariadb4.
初始化mysql设置root密码为openstackmysql_secure_installation
#此命令为交互命令,过程自行解决5.
添加防火墙规则iptables -I INPUT 2 -s 10.0.0.0/24 -p tcp -m tcp --dport 3306 -j ACCEPTiptables-save & /etc/sysconfig/iptablesRabbitmq服务安装1.
安装RABBITMQ服务yum -y install rabbitmq-server2.
启动并设置开机自启动systemctl start rabbitmq-serversystemctl enable rabbitmq-server3.
更改RABBITMQ消息队列服务guest用户默认密码为openstackrabbitmqctl change_password guest openstack4.
添加防火墙规则iptables -I INPUT 2 -s 10.0.0.0/24 -p tcp -m tcp --dport 5672 -j ACCEPTiptables-save & /etc/sysconfig/iptablesKeystone服务安装1. 安装Keystoneyum install -y openstack-keystone2. 生成管理员tokenopenssl rand -hex 103. 建立数据库及数据库用户mysql -uroot -popenstack -e 'create database keystone'mysql -uroot -popenstack -e 'grant all on keystone.* to&keystone&@&%& identified by &keystone&'4. 编辑/etc/keystone/keystone.conf文件添加或修改如下行[DEFAULT]admin_token = 第二步生成的值log_dir = /var/log/keystoneuse_stderr = false[database]connection = mysql://keystone:keystone@10.0.0.2/keystoneuse_db_reconnect = true[oslo_messaging_rabbit]rabbit_host = 10.0.0.2rabbit_password = openstack5. 初始化数据库su -s /bin/sh -c 'keystone-manage db_sync' keystone6. 启动并设置开机自启动systemctl start openstack-keystonesystemctl enable openstack-keystone7. 添加防火墙规则iptables -I INPUT 2 -s 10.0.0.0/24 -ptcp -m tcp --dport 5000 -j ACCEPTiptables -I INPUT 2 -s 10.0.0.0/24 -ptcp -m tcp --dport 35357 -j ACCEPTiptables-save & /etc/sysconfig/iptables8. 建立tenant,user,role,service,endpointexport OS_SERVICE_TOKEN=第二步生成的值export OS_SERVICE_ENDPOINT=http://10.0.0.2:3keystone tenant-create --name admin --description &AdminTenant&keystone user-create --name admin --pass admin --email keystone role-create --name adminkeystone user-role-add --tenant admin --user admin --role adminkeystone role-create --name _member_keystone user-role-add --tenant admin --user admin --role _member_keystone tenant-create --name service --description &ServiceTenant&keystone service-create --name keystone --type identity --description&OpenStack Identity Service&keystone endpoint-create --service-id $(keystone service-list | awk '/identity / {print $2}') --publicurl http://10.0.0.2: --internalurlhttp://10.0.0.2:
--adminurlhttp://10.0.0.2:3 --region regionOne9. 新建/root/admin-openrc文件添加如下行,作为以后新建公用镜像,网络使用的认证凭证export OS_TENANT_NAME=adminexport OS_USERNAME=adminexport OS_PASSWORD=adminexport OS_AUTH_URL=http://10.0.0.2:3Glance服务安装1. 安装Glanceyum install -y openstack-glance2. 建立user,role,service,endpointexport OS_SERVICE_TOKEN=安装Keystone时第二步生成的值exportOS_SERVICE_ENDPOINT=http://10.0.0.2:3keystone user-create --name glance--pass glancekeystone user-role-add --user glance--tenant service --role adminkeystone service-create --name glance--type image --description &OpenStack Image Service&keystone endpoint-create --service-id$(keystone service-list | awk '/ image / {print $2}') --publicurlhttp://10.0.0.2:9292 --internalurl http://10.0.0.2:9292 --adminurlhttp://10.0.0.2:9292 --region regionOne3. 建立数据库及数据库用户mysql -uroot -popenstack -e 'createdatabase glance'mysql -uroot -popenstack -e 'grant allon glance.* to &glance&@&%& identified by&glance&'4. 编辑/etc/glance/glance-api.conf文件添加或修改如下行[DEFAULT]use_stderr = falseshow_image_direct_url = truerabbit_host = 10.0.0.2rabbit_password = openstack[database]connection = mysql://glance:glance@10.0.0.2/glanceuse_db_reconnect = true[keystone_authtoken]auth_uri = http://10.0.0.2:5000identity_uri = http://10.0.0.2:35357admin_tenant_name = serviceadmin_user = glanceadmin_password = glance[paste_deploy]flavor = keystone[glance_store]stores = glance.store.rbd.Store,default_store = rbdrbd_store_user = storagesrbd_store_pool = storages5. 编辑/etc/glance/glance-registry.conf文件添加或修改如下行[DEFAULT]use_stderr = falserabbit_host = 10.0.0.2rabbit_password = openstack[database]connection = mysql://glance:glance@10.0.0.2/glanceuse_db_reconnect = true[keystone_authtoken]auth_uri = http://10.0.0.2:5000identity_uri = http://10.0.0.2:35357admin_tenant_name = serviceadmin_user = glanceadmin_password = glance[paste_deploy]flavor = keystone6. 初始化数据库su -s /bin/sh -c 'glance-manage db_sync' glance7. 启动并设置开机自启动systemctl start openstack-glance-apisystemctl startopenstack-glance-registrysystemctl enable openstack-glance-apisystemctl enableopenstack-glance-registry8. 添加防火墙规则iptables -I INPUT 2 -s 10.0.0.0/24 -ptcp -m tcp --dport 9191 -j ACCEPTiptables -I INPUT 2 -s 10.0.0.0/24 -ptcp -m tcp --dport 9292 -j ACCEPTiptables-save & /etc/sysconfig/iptablesNeutron服务安装1. 安装Neutronyum install -y openstack-neutron openstack-neutron-ml2openstack-neutron-openvswitch2. 建立user,role,service,endpointkeystone user-create --name neutron--pass neutronkeystone user-role-add --user neutron--tenant service --role adminkeystone service-create --name neutron--type network --description &OpenStack Network Service&keystone endpoint-create --service-id$(keystone service-list | awk '/ network / {print $2}') --publicurlhttp://10.0.0.2:9696 --adminurl http://10.0.0.2:9696 --internalurl http://10.0.0.2:9696--region regionOne3. 建立数据库及数据库用户mysql -uroot -popenstack -e 'createdatabase neutron'mysql -uroot -popenstack -e 'grant allon neutron.* to &neutron&@&%& identified by&neutron&'4. 编辑/etc/neutron/neutron.conf文件添加或修改如下行[DEFAULT]router_distributed = trueuse_stderr = falselog_dir = /var/log/neutroncore_plugin = ml2service_plugins = routerauth_strategy = keystonehost = Kilo-conallow_overlapping_ips = truenotify_nova_on_port_status_changes =truenotify_nova_on_port_data_changes = truenova_url = http://10.0.0.2:8774/v2nova_region_name = regionOnenova_admin_username = novanova_admin_tenant_name = servicenova_admin_password = novanova_admin_auth_url = http://10.0.0.2:3rabbit_host = 10.0.0.2rabbit_password = openstack[agent]root_helper = sudo neutron-rootwrap/etc/neutron/rootwrap.conf[keystone_authtoken]auth_uri = http://10.0.0.2:5000identity_uri = http://10.0.0.2:35357admin_tenant_name = serviceadmin_user = neutronadmin_password = neutron[database]connection =mysql://neutron:neutron@10.0.0.2/neutronuse_db_reconnect = true[oslo_messaging_rabbit]rabbit_host = 10.0.0.2rabbit_password = openstack5. 编辑/etc/neutron/dhcp_agent.ini文件添加或修改如下行[DEFAULT]interface_driver =neutron.agent.linux.interface.OVSInterfaceDriverdnsmasq_config_file =/etc/neutron/neutron-dnsmasq.conf6. 新建/etc/neutron/neutron-dnsmasq.conf添加如下行dhcp-option-force=26,1450log-facility =/var/log/neutron/dnsmasq.log7. 编辑/etc/neutron/l3_agent.ini文件添加或修改如下行[DEFAULT]interface_driver =neutron.agent.linux.interface.OVSInterfaceDriverhandle_internal_only_routers = falseenable_metadata_proxy = falseagent_mode = dvr_snat8. 编辑/etc/neutron/plugins/ml2/ml2_conf.ini文件添加或修改如下行[ml2]type_drivers = flat,vxlantenant_network_types = vxlanmechanism_drivers = openvswitch,l2population[ml2_type_vxlan]vni_ranges = 9. 编辑/etc/neutron/plugins/openvswitch/ovs_neutron_plugin.ini文件添加或修改如下行[ovs]local_ip = 20.0.0.2bridge_mappings = external:br-ex[agent]tunnel_types = vxlanvxlan_udp_port = 4789l2_population = truearp_responder = trueenable_distributed_routing = true[securitygroup]firewall_driver = neutron.agent.linux.iptables_firewall.OVSHybridIptablesFirewallDriver10.建立ml2插件配置文件软链ln -sv /etc/neutron/plugins/ml2/ml2_conf.ini /etc/neutron/plugin.ini11.编辑/etc/sysctl.conf文件添加或修改如下行net.ipv4.ip_forward = 1net.ipv4.conf.all.rp_filter = 0net.ipv4.conf.default.rp_filter = 012.重加载内核参数sysctl -p13.初始化数据库su -s /bin/sh -c &neutron-db-manage upgrade kilo& neutron14.启动并设置开机自启动openvswitchsystemctl start openvswitchsystemctl enable openvswitch15.建立openvswitch端口ovs-vsctl add-br br-intovs-vsctl add-br br-ex16.像br-ex添加网卡ovs-vsctl add-port br-ex eth317.启动并设置开机自启动neutron服务systemctl start neutron-serversystemctl start neutron-dhcp-agentsystemctl startneutron-openvswitch-agentsystemctl start neutron-l3-agentsystemctl start neutron-ovs-cleanupsystemctl start neutron-netns-cleanupsystemctl enable neutron-serversystemctl enable neutron-dhcp-agentsystemctl enableneutron-openvswitch-agentsystemctl enable neutron-l3-agentsystemctl enable neutron-ovs-cleanupsystemctl enable neutron-netns-cleanup18.添加防火墙规则iptables -I INPUT 2 -s 10.0.0.0/24 -ptcp -m tcp --dport 9696 -j ACCEPTiptables-save & /etc/sysconfig/iptables19.建立内网,外网,路由及绑定子网和接口到路由器source /root/admin-openrcneutron net-create --shared--provider:network_type vxlan internal-networkneutron subnet-create internal-network100.100.100.0/24 --name internal-network-subnet --gateway 100.100.100.1--allocation-pool start=100.100.100.10,end=100.100.100.200 --enable-dhcp--ip-version 4 --dns-nameserver 202.106.0.20neutronnet-create ext-net --shared --router:external --provider:network_type flat--provider:physical_network externalneutronsubnet-create ext-net 200.200.200.0/24 --name ext-network-subnet --gateway200.200.200.1 --allocation-pool start=200.200.200.10,end=200.200.200.200--disable-dhcp --ip-version 4 --dns-nameserver 202.106.0.20neutronrouter-create routerneutronrouter-interface-add router internal-network-subnetneutronrouter-gateway-set router ext-netKVM虚拟化实践(kvm_virt) 
 文章为作者独立观点,不代表微头条立场
的最新文章
TcpDump可以将网络中传送的数据包完全截获下来提供分析。它支持针对网络层、协议、主机、网络或端口的过滤,并提供and、or、not等逻辑语句来帮助你去掉无用的信息。朋友圈分享,就有可能获得顶级容器大会门票。朋友们,感觉是时候说,Intel显卡设备(IGD)目前在qemu.git中可用了,而且将成为QEMU2.7发行版本的一部分。已经有了相当详细的文档,描述了两种模式,传统模式和通用直通模式,两者各有利弊。哪种模式更适合你取决于你的硬件。只想帮你达成小小心愿!为庆祝“KVM虚拟化实践”更名为“云技术实践”,特别精选了2016年以来,阅读量超过2000+的技术干货,并且送出价值90元的华章读书卡30张,凡是转发本篇文章到朋友圈,点赞超过30个,截图给北极熊,送一张读书卡,数量有限,送完为止。容器应用轻盈灵活,存储应该怎样与其匹配呢?本文节选自笔者参与编写的《软件定义存储:原理、实践与生态》一书,附容器存储技术沙龙信息(7月3日周日)。北京易思捷CEO
炙伦科技 CEO 朱俊
思杰中国 BD总监 Patrick Zhang
云端时代 总经理助理 秦川
曙光 解决方案中心首席云架构师 王永宁
广州辉远 CEO 章国锋
冰特 CEO 高宏亮峰会玩的开不开心,你的选择决定一切 | 十二星座峰会参会报名指南,这简直就是选择困难症的福音!1、搭建需证书认证的Docker私有仓库
2、搭建需证书加用户名密码认证的Docker私有仓库1. 直播APP开发过程中的那些坑
2. 揭秘魅族C++微服务框架技术内幕
3. 基于Raft算法构建分布式系统 TiKV
4. OpenResty 新特性和未来发展探索懒惰的 Linux 管理员的秘诀,了解如何减少管理集群的工作量必看,云架构师第一课!哪些应用,哪些数据应该放在云上,哪些应该留在本地?journald会锁定libvirt守护进行,限制日志记录级别,如果想监控debug级别日志,必须显式配置到“log_outputs"选项中,在众多的云服务中,如何选择适合自身业务发展需求的云服务,成为很多企业用户关心的头等大事,性能(Performance)和运维(Operation)作为云服务的关键环节,是用户比较关注的因素,也是我们今天将要探讨的话题。高扬,欢聚时代YY娱乐事业部资深大数据专家。有多年编程经验(多年日本和澳洲工作经验)和多年大数据架构设计与数据分析、处理经验,专注于大数据系统架构以及变现研究。OVM是国内首款、完全免费、企业级混合虚拟化管理平台,OVM-V1.0版本今天正式发布了,欢迎各方朋友下载安装体验。KVM超量使用一直是热门话题,前段时间发的文章:
群讨论:虚拟机能否使用32个CPU
又引去了群友的激烈讨论,本文为群友根据自己的经验总结投稿,感谢这位热心的群友!
欢迎更多的朋友投稿,将自己的经验发给大家,我们一起进步。KVM虚拟机也可以UEFI从2.1版开始,Linux内核有了能力(capability)的概念,即它打破了UNIX/LINUX操作系统中超级用户/普通用户的概念,由普通用户也可以做只有超级用户可以完成的工作.容器的盛宴加干货:
Azure中的容器支持
人人贷容器化实践之路
从容器看运维的演变
容器公司的产品迭代实践七牛架构师实践日-第十二期- 泛娱乐+直播技术最佳实践无PowerShell on Linux 旨在让用户使用相同的工具和相同的人力,在任何地方管理一切。初期它将支持 Ubuntu、Centos、Red Hat 以及 Mac OS X,未来还将支持更多平台。libvirt bug 报告方法
qemu bug 报告方法
Windows Virtio 报告方法中国首届桌面云沙龙
邀请十位CEO或者架构师
分享自己如何定义桌面云目前国内运维企业,能做到技术为王的很少,这是国情和行情决定的,不过你可以 以技术为台阶,寻求更宽广的发展。近日,UCloud云主机硬件热升级正式上线,包括CPU与内存均支持在线升级扩展。升级过程中云主机无需关机或重启,同时不会对主机上运行的应用和业务产生性能影响。主机支持热升级,犹如在F1大赛中,赛车无需进站停车即可加油。为促进更深入的业内同行技术交流,同时传播先进技术理念,日-13日,由CSDN重磅打造的互联网应用架构实战峰会、运维技术与实战峰会将在成都举行。公测版OVM: 将会推出新的虚拟化引擎Docker的支持,在OVM后续的版本中,我们将会陆续推出对Esxi、XenServer、Hyper-V的管理,真正的实现混合虚拟化统一管理,帮助你轻松掌控自己的云数据中心。从辩证角度看,任何事物都不可能是完美的,超融合是不是也存在一些问题或局限性呢?超融合有适用场景,但肯定不是普遍适用的。OpenStack生于美国,至今也只有6年光景,但它的发展速度超乎想象。作为应用交付领域领头羊的F5已经完成了和国内OpenStack厂商华为、EasyStack和UnitedStack集成。从LBaaS集成开始,已经在中国开了花,结了果。李佳禧,腾讯云Nosql产品线技术负责人一个偶然的机会,由于我的好奇,总算搞明白了点每天和我们息息相关的生活天文常识,分享给大家,估计很多人和我一样小白。Ovirt对接OpenStack的glance和neutron模块,从而实现Ovirt与OpenStack平台镜像和网络资源和服务的无缝对接和扩展。实践表明,SSAN+vSphere超融合架构可提供一体化的虚拟化/私有云解决方案,SSAN是一种绝好的替换VSAN方案。GNU计划(又称革奴计划),是由Richard Stallman(理查德·斯托曼)在日公开发起的自由软件集体协作计划。它的目标是创建一套完全自由的操作系统。GNU也称为自由软件工程项目。用户组是干什么的?
组织这些群目标是做云用户之间沟通的桥梁,在使用云遇到问题的时候,大家可以技术互助,互相探讨切磋使用技巧。本次的分享主要包含以下两个部分:
1. 大型端游如何走进G云?
2. 面对页游、手游,G云后端架构该如何?本文主要描述针对 OpenStack 云计算项目的企业级性能测试标准和性能测试实施的解决方案。这套标准和解决方案为 Openstack 云计算项目开发和部署的性能评估提供参考,为云系统的性能瓶颈排查和调优提供有效的依据。随着私有云管理软件(如ZStack)的普及,有越来越多的用户可以利用这些软件快速的搭建私有云平台。 不过在搭建私有云之前,大家都会想私有云环境中该如何进行网络规划? 是不是把所有的物理机都连接到交换机,给它们分配一个IP地址就好了呢?但是……慢慢你就明白,openstack是给系统工程师,网络工程师,和架构师最好的修行。让一个人从一个普通工程师变成了“系(系统)网(网络)架(架构)”全面发展的好工程师。重点介绍如何通过使用应用程序设计、开发流程和 IT 管理流程领域中的云计算最佳实践,让 IT 解决方案能够最大限度地发挥云计算的优势。第 1 部分将会研究云计算解决方案与传统 Web 应用程序有哪些不同。关于端口漏洞的,类似的还有前段时间的redis,现在是docker。端口无故的对外开放,本身就是一种风险。而且是无关的端口。此次的2375是有 docker swarm 远程api 开放的。完全可以对外禁止访问该端口。最近一直在想,做了这么多年IT,最终要做成什么样子?是继续钻研代码,誓把技术坐穿,成为顶尖程序员;
还是转做管理,尝试统筹和调度,跟认识的不认识的、喜欢的不喜欢的人推杯换盏?昨天,520KVM牵手Redis!kvm_virt分享在KVM虚拟化项目实施中的经验,讨论KVM技术热门文章最新文章kvm_virt分享在KVM虚拟化项目实施中的经验,讨论KVM技术

我要回帖

更多关于 ceph fuel openstack 的文章

 

随机推荐