场景
:前端滚动分页,当滚动到下一页时,发现随着鼠标的滚动所有的列表数据都变成同一条数据信息。
排查
:前端表格根据rowKey进行唯一性判断,将两次分页请求数据拼接使用HashSet发现100条数据只剩97条,明显是有重复数据。
日常开发中,我们会使用
limit
进行分页,当我们还需对数据进行排序时,比如:
order by create_time DESC
,问题就出现在这里。
在MySQL 5.6的版本以后,优化器在遇到order by limit的语句时候,会做一个priority queue的优化。
使用priority queue的目的,就是在不能使用索引有序性的时候,如果要排序,并使用了limit
n,那么只需要在排序的过程中,保留n条记录即可,这样虽不能解决所有记录都需要排序的开销,但只需要sort
buffer少量的内存就可以完成排序。
之所以5.6版本以后出现第二页数据重复的问题,就是因为priority
queue使用了堆排序的排序方法,而堆排序是一个不稳定的排序方法,也就是相同的值可能排序出的结果和读出来的数据顺序不一致。
同时,我们再看一下MySQL语句关键字执行顺序依次为 form… where… select… order by…
limit…,由于上述priority queue的原因,在完成select之后,所有记录是以堆排序的方法排列的,在进行order
by时,仅把view_count值大的往前移动。
但由于limit的因素,排序过程中只需要保留到5条记录即可,view_count并不具备索引有序性,所以当第二页数据要展示时,mysql见到哪一条就拿哪一条,因此,当排序值相同的时候,第一次排序是随意排的,第二次再执行该sql的时候,其结果应该和第一次结果一样。
此段话引用自:
blog.csdn.net/nipppppp/ar…
可能问题是:相同的
create_time
,
mysql
使用了
priority queue
优化导致数据重复。
解决办法:
可以在再加一个唯一字段的排序:
order by create_time DESC, id DESC
本文正在参加
「金石计划」