一本不错的书《富足人生指南》。
脑图
https://docs.qq.com/mind/DTmVDWmNEdkxUTnhp?nlc=1&subId=BB08J2&mode=mind
最近刚考过了腾讯云架构高级工程师TCCP的认证,考试的过程相当于又学习了一遍腾讯云产品,复习了很多细节知识点,收获还是非常大的。
在考前我也在网上查了一下考试相关的资料,资料并不是很多这是由于最近腾讯云又重新梳理了认证体系导致的,所以以我个人学习过程为例,从考试的三个阶段分别来分享一下学习过程供大家参考,希望大家都能高分并顺利的考过认证。
我们可以在腾讯云认证相关网站了解到其认证体系(https://cloud.tencent.com/edu/training ) 本次主要介绍分享的是“腾讯云架构高级工程师认证TCCP(下文简称TCCP)”。
整个考试费用在1800元,考试时间为120分钟,40道单选,20道多选,总共100分达到70分就可以通过考试,考试的范围与占比:
考试过程为三步:
按服务的重要性来分类,越是重要的服务就需要通过跨机、跨机房或跨地域来保障服务容灾性,当然这种容灾成本也会相应的升高,因为相当于一批硬件资源解决的是容灾保障而非带来收益,但这仍然是有必要的,当硬件出现异常情况时可以通过保险逃生通道来保证业务稳定性与连续性。 而云是提供类似的保障方案,相应的硬件设备会均摊到需要类似服务的用户上,相当于买保险的价格来保障我们的服务。 近年也有很多类似的事件,如锂电池失火导致机房不可用、空调异常导致机房高温服务异常等问题,本章以腾讯云为例来演示如果通过同地域跨可用区来保障业务高可用。
以下为搭建环境相应的配置与架构图
架构图
压测概述
CLB规格:超强型I(100w并发连接数、10w新建连接数、5w QPS、带宽上限10G)
CLB后端RS/客户端规格:CentOS 7.5 64位、4核8g或更高、公网带宽100M
压测工具:Apache Bench(ab)
压测目标:客户端向CLB压测一定数量的QPS,查看CLB监控是否符合预期
压测重点关注指标:七层QPS
创建负载均衡实例
1.创建负载均衡实例,配置如下(需要注意后续购买云服务器需要在相同的vpc)。
2、CLB同地域购买一台或多台CVM作为CLB的后端服务器
操作系统选择CentOS,如CentOS 7.5 64位;公网带宽设置为100M;性能选择4c8g。
注意事项:CVM的安全组要放通待压测的客户端源IP。
3、后端服务器配置Nginx
参考CentOS 下部署 Nginx
验证Nginx服务配置正常
CVM公网IP+html或者直接输入IP出现以下页面代表部署成功
4、CLB配置监听器
创建7层监听器
正式压测
1、安装ab及注意事项
客户端安装ab
1 | yum install -y httpd-tools |
2、开启正式压测之旅
关注指标:七层CLB QPS
1 | ab -k -n 90000000 -c 100 http://x.x.x.x/index.html |
下面的方法查看CLB QPS监控指标。
测试环境&测试工具&测试方法
1、CVM规格
4C8G(三台机器作为redis client,同时压测)、CentOS 7.9 64位
2、Redis主从版本
架构:标准架构
版本:4.0
副本数量:1主1副本
内存容量:8G
3、Redis集群版本
架构:集群架构
版本:4.0
副本数量:1主2副本
内存容量:4分片2GB
4、Redis测试工具
redis-benchmark
安装方法:
1 | yum - y install redis.x86_64 |
以笔者最近接触的一个案例大数据上云为例,首先客户需要测试自己在IDC服务器的性能作为基线,并与上云后的云服务器做比较,因服务器型号厂家都有区别为满足业务需要,所以会先通过工具测试一下内网带宽、CPU性能等数据作为IDC上云的基线,不同型号架构的机器在满足基线基础上再来横向看性价比,以下就介绍两款测试网络与CPU性能的工具。
iperf是一款网络性能测试工具,可以为网络生成标准化的性能测量结果。iperf具有客户端和服务器功能,并且可以创建数据流来测量两端之间单向或双向的吞吐量。iperf支持TCP和UDP协议,作为开源的跨平台工具,支持Linux、Unix和Windows平台。
内网带宽测试相关指标:
关于iperf的关键指标:
性能测试
一、环境准备
创建2台按量计费CVM,地域可用区不限,2台CVM在同一VPC子网下,并配置公网IP(默认5Mb/s的带宽即可),相关配置如下:
二、内网宽带测试
1、登录cvm机器
打开CVM控制台,找到刚刚创建的2台cvm机器,点击登录
超融合架构(Hyperconvergence Infrastructure, HCI )将虚拟化计算、虚拟网络和存储整合到同一个系统平台,简单的说就是物理服务器上运行虚拟化软件(Hypervisor),通过在虚拟化软件上运行分布式存储服务供虚拟机使用,也是一种软件定义的IT基础架构,主要解决数据中心资源高效利用和低成本运营的驱动问题。
2009年斯坦福大学Nick教授,在OpenFlow的基础上,提出了(software Defined Network SDN)的概念,2009年SDN入围Technology Review年度十大技术。同年VCE成立,主推计算统一平台,在虚拟化使得云计算基础设施变得更加复杂的情况下,致力于为用户搭建私有云,简化云的基础设施建设中用户工作。
2010年VCE联盟推出了第一代vblock产品,该产品是一种基础设施型整柜式套件,由VMware虚拟化软件搭配Cisco服务器与交换器、加上EMC存储设备而成。
超融合两个派系
2012年超融合概念被提出
2014年VMware在Vmworld大会上第一次像大众展示超融合设备,VMwareEVO:RAIL,该软件能够帮助客户在基于自身发展的情况下迅速部署并扩展软件定义的IT架构,EVO:RAIL是VMware首款超融合产品系列的解决方案。
2015年深信服于深圳发布了包含服务器虚拟化aSV,网络虚拟化aNet和存储虚拟化aSAN在内的超融合结构。
2016年EMC和VMware联合推出了超融合基础设施设备-VCEVxRail,该设备汇集了EMC丰富的数据服务和领先的系统管理功能,并将该功能与VMware主要的超融合软件包括VMwarevSphere,vCenter Serve和VMware Virtual SAN结合起来。
2016年Cicso推出了新一代HyperFlex产品涵盖了网络结构、UCS计算、存储以及虚拟机管理软件。
2016年HPE推出超融合产品HC380,HC380在ProliantGen9服务器DL380基础上开发,用的是VMware和vSphere以及HPE的管理软件。
2016年联想发布了三款和Nutanix共同开发的HX超融合产品,分别是HX3500、HX5500以及HX7500。联想在次基础上还推出了自主研发的Think Cloud Aio超融合产品。
参考文章
超融合是什么?发展历史梳理:https://www.sgpjbg.com/info/8542eda76664e2f8172d10efad0dcca0.html
超融合模式有哪些缺点: https://blog.51cto.com/u_15127572/2723789
超融合:https://www.bilibili.com/video/BV1f44y1g7PT/?spm_id_from=333.337.search-card.all.click&vd_source=6a7bdbb04103243c7c1ab278e053ee47