共计 3578 个字符,预计需要花费 9 分钟才能阅读完成。
这期内容当中丸趣 TV 小编将会给大家带来有关 MySQL 数据库单一表突破 4G 限制的实现方法是怎么样的,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。
问题:在发表回复时出现“The table is full”的提示,字面意义上是数据表已满的意思。因为很少有开发者遭遇单一表超过 4G 的情况,因此朋友间的讨论只能提供一些外围的信息。为解决此问题,我翻阅了很多资料,本文将以我此次问题的解决过程,介绍问题发生的原因及对策。
根据经验,The table is full 提示往往出现在以下两种情况:
1. 表中设置了 MAX_ROWS 值,简单的说,若 MAX_ROWS 设置为 100,而程序试图写入第 101 条记录,会出现此错误。
2. 表满。这种情况是本文讨论的重点
我们认为 MySQL 在存取表的时候,存在一种定位分配规律。这个规律在默认的情况下,可以寻址 4G 以内的数据。超过这个大小,数据库将不能对数据定位,因而也无法进行读写。经过实验,这个限制是完全可以被突破的。
用户的系统环境为双 Athlon 处理器、SCSI 硬盘 72G、2G 内存,用户的帖子表数据尺寸为 4294963640,接近 4G(4G 的实际字节数为 4294967296)。
首先 SSH 登录后,查看用户的系统信息:
# uname -a
zichen.com 2.4.20-8smp #1 SMP Thu Mar 13 16:43:01 EST 2003 i686 athlon i386 GNU/Linux
证明是 Linux 系统,根据内核版本 2.4.20-8smp,加上国内使用的常见系统,估计应该是 redhat 9 发行包。
# cat /etc/*release*
Red Hat Linux release 9 (Shrike)
这也证明了我们对系统版本的猜想。
然后看一下用的是什么文件系统。因为该用户并非高手,估计在装系统的时候就是一路回车下来,redhat 9 默认的应该是 EXT3,不过我们还是看一下:
# parted
GNU Parted 1.6.3
Copyright (C) 1998, 1999, 2000, 2001, 2002 Free Software Foundation, Inc.
This program is free software, covered by the GNU General Public License.
This program is distributed in the hope that it will be useful, but WITHOUT ANY WARRANTY; without even the implied warranty of
MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU General Public License for more details.
Using /dev/sda
Information: The operating system thinks the geometry on /dev/sda is 8942/255/63. Therefore, cylinder 1024 ends at 8032.499M.
(parted) print
Disk geometry for /dev/sda: 0.000-70149.507 megabytes
Disk label type: ms
Minor Start End Type Filesystem Flags
1 0.031 101.975 primary ext3 boot
2 101.975 10103.378 primary linux-swap
证明确实是这样子。随后我们翻阅了 EXT3 文件系统的相关技术参数,EXT3 是在 EXT2 基础上演变而来。EXT2 所支持最大单一文件长度是 2G,这个是很蹩脚的一个限制。EXT3 做的很大一个改善就是将这个限制放大到了 2TB,由此稍松一口气,起码不是操作系统上的限制。
经过朋友的开导,了解到单一文件大小有如下几个因素:
1. 文件系统的限制(如刚存所说 EXT3 的 2TB 限制)
2. 某一程序进程所能存取的第一文件最大尺寸(例如 apache 在 Linux EXT3 下能存取的最大尺寸为 2G,诸如日志)
初步判断瓶颈就在上述其中第二项。随后找到 myisamchk 来显示一下表信息,证明了瓶颈就在 MySQL 本身的存取上。
# myisamchk -dv cdb_posts
结果就不贴了,其中有一项 Max datafile length 的值恰好就是 4G。由此产生了瓶颈。
后来翻阅了 N 多资料,进行了 N 多尝试,也走了不少弯路,最终觉得还是官方文档比较可靠。比较老的文档里写道这是由于 tmp_table_size 的值造成的,也有提到用 BIG-TABLES 这个参数。事实证明这些都是歧途。大晚上的确实很累,这里只给出最终的解决方案吧,中间的就不罗嗦了。
进到 mysql 客户端。
# mysql -uroot -p
Enter password: ******
Welcome to the MySQL monitor. Commands end with ; or g.
Your MySQL connection id is 59411 to server version: 4.0.18-standard
Type help; or h for help. Type c to clear the buffer.
mysql use ******
Database changed
mysql ALTER TABLE cdb_posts MAX_ROWS=1000000000 AVG_ROW_LENGTH=15000;
因为这个表非常大,执行时间在双 Athlon 的专业服务器上竟然花了 30 分钟!
之后再通过 myisamchk 查看该表的信息:
# myisamchk -dv cdb_posts
MyISAM file: cdb_posts
Record format: Packed
Character set: latin1 (8)
File-version: 1
Creation time: 2004-08-30 22:19:48
Recover time: 2004-08-30 22:42:47
Status: open,changed
Auto increment key: 1 Last value: 1063143
Data records: 619904 Deleted blocks: 5
Datafile parts: 619909 Deleted data: 323872
Datafile pointer (bytes): 6 Keyfile pointer (bytes): 4
Datafile length: 4295287332 Keyfile length: 40421376
Max datafile length: 281474976710654 Max keyfile length: 4398046510079
Recordlength: 149
table description:
Key Start Len Index Type Rec/key Root Blocksize
1 1 4 unique unsigned long 1 4535296 1024
2 5 2 multip. unsigned short 13776 12540928 1024
3 111 4 multip. unsigned long 1 18854912 1024
4 28 3 multip. uint24 18 24546304 1024
5 7 3 multip. uint24 7 32827392 1024
111 4 unsigned long 1
6 7 3 multip. uint24 7 40418304 1024
28 3 uint24
令人振奋的事情发生了,该表的 Max datafile length: 281474976710654 Max keyfile length: 4398046510079,即最大数据尺寸 (MYD 文件) 达到了 2TB,最大索引尺寸 (MYI) 仍然为 4G。
由此默认的 4G 限制被突破了。关于其中的原理,其实很简单:假设你有一个日记本,上面有 10 页纸可以写东西,编排目录只需要 1 个字节 (因为 0~9 就够了)。如果你把这本子又塞进两张纸,变成 12 页,1 个字节的目录空间就无法寻址到后面的两页中,进而产生了错误。上面那个 ALTER 语句中的数值都是我为保证成功,取的比较大的值(因为 ALTER 一次实在是太慢了,没时间在那乱试验),相当于告诉,这个本子有 1000000000 页,每页平均有 15000 个字节。这样数据库便知道这是很大的一个本子,因此不遗余力的拿出了 100 页(假设说) 做目录编排,这样这个新的目录就可以寻址到日记本的所有内容了。错误消失。
惟一的缺点就是,目录占用的空间多了一些,但已经微乎其微了,做了这种改变其实 4G 的文件尺寸大小只增大了 1M 多,非常令人振奋。
上述就是丸趣 TV 小编为大家分享的 MySQL 数据库单一表突破 4G 限制的实现方法是怎么样的了,如果刚好有类似的疑惑,不妨参照上述分析进行理解。如果想知道更多相关知识,欢迎关注丸趣 TV 行业资讯频道。