总结一条SQL竟然让Oracle奔溃了

50次阅读
没有评论

共计 4170 个字符,预计需要花费 11 分钟才能阅读完成。

本篇内容介绍了“总结一条 SQL 竟然让 Oracle 奔溃了”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让丸趣 TV 小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

系统介绍

系统架构见下图:

application1 和 application2 是一个分布式系统中的 2 个应用,application1 连接的数据库是 database1,application2 连接的数据库是 database2,application2 生产的数据要给 application1 做跑批使用。

application1 要获取 database2 的数据,并不是通过接口来获取的,而是直连 database2 来获取,因此 application1 也具有 database2 库的读权限。

database2 中有 1 张表 table_b,里面保存的数据是 application1 跑批需要的数据。application1 查找到 table_b 的数据后,先保存到 database1 的数据库表 table_a 中,等跑批时取出来用。

table_a 和 table_b 的表结构如下:

2 个表的主键都是字段 a,application1 查询出 table_b 的数据后,会根据主键 a 来判断这条数据是否存在,如果数据存在,就更新,否则,就插入。

application1 使用的 orm 框架是 mybatis,为了减少应用和数据库的交互,使用了 oracle 的 merge 语句。

注意:mybatis 相关的文件有 5 个:

TableAMapper.java

TableBMapper.java

TableAMapper.xml

TableBMapper.xml

TableAEntity.java

熟悉 mybatis 的同学应该都知道,前两个 java 类是 sql 操作接口类,第 3、4 两个文件是存放 sql 的 xml 文件,跟前两个文件对应,最后一个 java 文件是 do 类。

事故现场

TableBMapper 中有一个方法 selectForPage, 用来按页查询 table_b 中数据,每页 1 万条数据,之后把这个 list 结果 merge 到 table_a,看一下代码:

// 从 table_b 按每页 1 万条来查询数据  List TableAEntity  list = tableBMapper.selectForPage(startPage, 10000); // 把查到的数据一次性 merge 到 table_a 中  tableAMapper.mergeFromTableB(list);

我们再看一下 TableAMapper.xml 中的 mergeFromTableB 方法,代码如下:

update id= mergeFromTableB  parameterType= list   foreach collection= list  item= item  index= index  separator=  close= end;  open= begin  MERGE INTO table_a ta USING(select #{item.a} as a,#{item.b} as b,#{item.c} as c, #{item.d} as d from dual) tb on (ta.a = tb.a) WHEN MATCHED THEN UPDATE set ta.b=tb.b, ta.c=tb.c, ta.d=tb.d WHEN NOT MATCHED THEN insert( a, b, c, d ) values ( tb.a, tb.b, tb.c, tb.d )  /foreach   /update

注意:为了文章排版,我对表结构做了简化,真实案例中 table_a 这张表有 60 多个字段。

这条 sql 执行后,我截取部分 oracle 的日志,如下:

图中可以看到 oracle 报了 ORA-07445 错误。

分析日志后发现,sql 绑定变量达到了了 79010 个,而 oracle 是不允许超过 65535 个的。

解决方案

前面的分析确定了导致 oracle 挂掉的原因是绑定变量超过了 65535 个,那对症下药,解决的方案有 3 个:

业务系统方案

1. 循环单条执行 merge 语句,优点是修改简单,缺点是业务系统跟数据库交互太多,会影响跑批任务执行效率。

2. 对 mergeFromTableB 进行分批调用,比如每 1000 条调用一次 merge 方法,改造稍微多一点,但是交互会少很多。

DBA 方案

给 oracle 打一个补丁,这个方案需要停服务。

业务方案 2 明细有优势,我用这个方案进行了改造,每次 1000 条,批量 merge,代码如下:

for (int i = 0; i   list.size(); i += 1000) { if (i + 1000   list.size()) { tableAMapper.mergeFromTableB(list.subList(i, i + 1000)); } else { tableAMapper.mergeFromTableB(list.subList(i, list.size())); } }

新的问题

按照上面的方案改造完成后,数据库不会奔溃了,但是新的问题出现了。测试的同学发现,每次处理超过 1000 条数据,非常耗时,有时竟然达到了 4 分钟,惊呆。

看打印的批量 sql,类似于下面的语句:

begin merge into table_a ta USING(...; merge into table_a ta USING(...; end;

分析了一下,虽然放在了一个 SQL 块中,但还是单条执行,最后一起提交。

再做一次优化,把上面多条 merge 语句合成 1 条。

我的优化思路是创建一张临时表,先把 list 中的数据插入到临时表中,然后用一次 merge 把临时表的数据 merge 进 table_a 这张表。

oracle 的临时表有 2 种,一种是会话级别,一种是事务级别:

1. 会话级别的临时表,数据会在整个会话的生命周期中,会话结束,临时表数据清空;

2. 事务级别的临时表,数据会在整个事务执行过程中,事务结束,临时表数据清空。

下面看具体实施过程。

1. 我们创建一张会话临时表,SQL 如下:

create global temporary table_a_temp on commit delete rows as select * from table_a; comment on table_a_temp is  table_a 表临时表 

2. 把 table_b 查询到的数据 list 插入临时表,需要在 TableAMapper.xml 增加一个方法:

insert id= batchInsertTemp  parameterType= list  insert all  foreach collection= list  index= index  item= item  into table_a_temp  trim prefix= ( suffix=)  suffixOverrides= ,    a,  if test= item.b != null    b,  /if   if test= item.c != null    c,  /if   if test= item.d != null    d,  /if   /trim   trim prefix= values ( suffix=)  suffixOverrides= ,    #{item.a},  if test= item.b != null    #{item.b,jdbcType=VARCHAR},  /if   if test= item.c != null    #{item.c,jdbcType=VARCHAR},  /if   if test= item.d != null    #{item.d,jdbcType=VARCHAR},  /if   /trim   /foreach  select 1 from dual  /insert

注意:oracle 的 insert all 语句单次插入不能超过 1000 条。

3. 把临时表的数据 merge 到 table_a 中,需要在 TableAMapper.xml 增加一个方法:

update id= mergeFromTempData  MERGE INTO table_a ta USING (select * from table_a_temp) tb on (ta.a = tb.a) WHEN MATCHED THEN UPDATE set ta.b = tb.b, ta.c = tb.c, ta.d = tb.d WHEN NOT MATCHED THEN insert (a, b, c, d) values (tb.a, tb.b, tb.c, tb.d)  /update

4. 最终业务代码修改如下:

// 从 table_b 查询  List TableAEntity  list = tableBMapper.selectForPage(startPage, 10000); // 批量插入 table_a_temp 临时表  for (int i = 0; i   list.size(); i += 1000) { if (i + 1000   list.size()) { tableAMapper.batchInsertTemp(list.subList(i, i + 1000)); } else { tableAMapper.batchInsertTemp(list.subList(i, list.size())); } } // 从 table_a_temp 把数据 merge 到 table_a tableAMapper.mergeFromTempData();

总结

在 oracle 上执行 SQL 时,如果绑定变量的数量超过了 65535,会引发 ORA-07445。当然,引发 ORA-07445 的原因还有其他。

解决这个问题最好的方式是从业务代码层面进行修改。

也可以让 DBA 可以给 oracle 打一个补丁,但是 oracle 必须要停服务。

“总结一条 SQL 竟然让 Oracle 奔溃了”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注丸趣 TV 网站,丸趣 TV 小编将为大家输出更多高质量的实用文章!

正文完
 
丸趣
版权声明:本站原创文章,由 丸趣 2023-07-27发表,共计4170字。
转载说明:除特殊说明外本站除技术相关以外文章皆由网络搜集发布,转载请注明出处。
评论(没有评论)