存算一体真的便宜吗?
近日,拜访一互联网金融客户,客户说,当前分布式架构采用某互联网提供的数据库,1主2从,硬件是服务器及几块本地盘,规模有数千台,每年容量增长需要扩容,受限于本地盘IO能力和容量有限,都需要增加服务器资源,但,数据库服务器的CPU利用率却很低,不到10%。
客户认为,为啥扩容量必须要扩CPU资源呢,CPU现在很闲,二者绑定,CPU远比SSD贵啊!
简单计算,假如扩2TB容量,需要增加1主2从的3台服务器,这个得30万吧,成本不下15万/TB了!还需要增加数据库的软件许可,这更了不得。容量每年都增长,但是业务压力并没有明显增长,SSD盘拉CPU下水玩,那得多贵,为啥不能分离呢?
现在要降本增效,你们搞一个SSD单独扩容的方案,这个能节省不少成本。另外现在有部分服务器上配置4块3.84TB盘,裸容量15TB,但实际的单数据分片容量需求也就1TB,容量利用率也很低,百分之几,有没有解决办法?
看来互联网金融用户也意识到数据库SSD盘绑在服务器CPU上,扩容量需要同步扩CPU,二者比例肯定无法精确计算,资源利用率低,浪费就很严重,成本其实高很多。
其实30年来IOE技术架构就是数据库服务器挂外置企业存储,存算分离,IO的能力卸载到存储,减少CPU资源的消耗,扩容量,就存储扩盘,CPU不够就加计算节点,二者灵活配置,不绑定。而且计算节点是无状态的,故障切换才快速。管理学讲,资源的管理一定是逐步精细化的,而不是粗放型的。只是最近几年某些厂家粗放的推出了这套多副本主从架构,变成了所谓的“众口铄金”的分布式架构趋势,其实仔细掰开看,真的是这样吗?这不早行的互联网金融用户也在反思到底怎么通过架构的改善,达成降本增效。
节约是种美德,架构规划也是的,靠资源的多副本堆砌其实很初级的。IOE架构是对等的替换,能够平替都已经很牛逼了,如果把架构推翻,不是倒退到90年代了吗?
硅谷大佬们的智慧三十年来的实践证明是成功的,每个领域都有专业公司,常识讲,专业的公司或者人才能干成专业的事情。
文航来源:毕须说