场景 :前端滚动分页,当滚动到下一页时,发现随着鼠标的滚动所有的列表数据都变成同一条数据信息。
排查 :前端表格根据rowKey进行唯一性判断,将两次分页请求数据拼接使用HashSet发现100条数据只剩97条,明显是有重复数据。

日常开发中,我们会使用 limit 进行分页,当我们还需对数据进行排序时,比如: order by create_time DESC ,问题就出现在这里。

在MySQL 5.6的版本以后,优化器在遇到order by limit的语句时候,会做一个priority queue的优化。 使用priority queue的目的,就是在不能使用索引有序性的时候,如果要排序,并使用了limit n,那么只需要在排序的过程中,保留n条记录即可,这样虽不能解决所有记录都需要排序的开销,但只需要sort buffer少量的内存就可以完成排序。 之所以5.6版本以后出现第二页数据重复的问题,就是因为priority queue使用了堆排序的排序方法,而堆排序是一个不稳定的排序方法,也就是相同的值可能排序出的结果和读出来的数据顺序不一致。 同时,我们再看一下MySQL语句关键字执行顺序依次为 form… where… select… order by… limit…,由于上述priority queue的原因,在完成select之后,所有记录是以堆排序的方法排列的,在进行order by时,仅把view_count值大的往前移动。 但由于limit的因素,排序过程中只需要保留到5条记录即可,view_count并不具备索引有序性,所以当第二页数据要展示时,mysql见到哪一条就拿哪一条,因此,当排序值相同的时候,第一次排序是随意排的,第二次再执行该sql的时候,其结果应该和第一次结果一样。 此段话引用自: blog.csdn.net/nipppppp/ar…

可能问题是:相同的 create_time , mysql 使用了 priority queue 优化导致数据重复。

解决办法: 可以在再加一个唯一字段的排序: order by create_time DESC, id DESC

本文正在参加 「金石计划」