我几乎在整个互联网上进行了搜索,但不知何故,这些方法似乎都不适用于我的情况。我有两个大的csv文件(每个都有一百万多行,大小约为300-400MB)。他们使用read_csv函数很好地加载到数据帧中,而无需使用chunksize参数。我什至对这些数据执行了一些小的操作,例如新列生成、过滤等。但是,当我尝试合并这两个帧时,我得到了MemoryError。我什至尝试使用SQLite来完成合并,但徒劳无功。手术需要很长时间。我的电脑是Windows7电脑,内存为8GB。Python版本是2.7谢谢。编辑:我也尝试过分block方法。执行此操作时,我没有收到MemoryError,但RAM使用