我有一个mongodb查询,它获取大约50,000个大文档。这对我的RAM来说太多了,因此计算机速度变慢了。现在我想逐block迭代mongodb结果。我想获取前1000个文档并处理它们,然后再处理下一个1000个文档。这是处理大量数据的最佳方式吗?还是我应该一个接一个地服用?我尝试了以下方法:MongoCursoritems=collection.Find(query);longcount=items.Count();intstepSize=1000;for(inti=0;ilist=items.SetSkip(i*stepSize).SetLimit(stepSize).ToLis