千万级到一亿级别的数据库瓶颈

千万级到一亿级别的数据库瓶颈

从msyql – monogodb
还是解决不了查询的问题

目前debug出的问题是在硬盘瓶颈
数据总量是30G 记录条数大约1亿

现在计划
新增加一台 48G内存的服务器
分40G内存作为单独的分区 挂载到系统上
数据存储在这个上面
关于重启丢失数据的问题 做同步到本地硬盘 实时监控
反正都是读 写的时候不太多 cronjob一天1次采集数据

这样不知道查询速度会不会停留在毫秒级
我以为我建索引方式不正确引起的 实际上不是
数据量 大到一定程度
一般是集群 分布存储
暂时不考虑这种方式 有无效果还不知道 投入太多不太划算

数据量大也是问题的说
目前才2个语言的版本 计划是8个语言的版本
每附生页面x7 如果1亿数据 会产生7亿-10亿的页面
10个语种的话 就是70亿-100亿页面
如果这个可以全部被搜索引擎收录的话 那么流量 会非常之大

现在需要解决的就是内容有效性的问题 如果被搜索引擎判断为spam页面
那么几悲剧了
网站地图还是要生成 编译分析收录量的变动
我这种方式属于变态方式了…….

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注