jjzjj

MemoryError

全部标签

python - 我能找出导致我的 Python MemoryError 的分配请求吗?

上下文我的小型Python脚本使用一个库来处理一些相对较大的数据。此任务的标准算法是动态规划算法,因此大概“幕后”库分配了一个大数组来跟踪DP的部分结果。事实上,当我尝试给它相当大的输入时,它会立即给出一个MemoryError。最好不要深入库的深处,我想弄清楚是否值得在具有更多内存的不同机器上尝试这个算法,或者尝试减少我的输入大小,或者它是否丢失导致我尝试使用的数据大小。问题当我的Python代码抛出MemoryError时,是否有一种“自上而下”的方式让我调查我的代码尝试分配的内存大小是什么导致了错误,例如通过检查错误对象? 最佳答案

python - 我能找出导致我的 Python MemoryError 的分配请求吗?

上下文我的小型Python脚本使用一个库来处理一些相对较大的数据。此任务的标准算法是动态规划算法,因此大概“幕后”库分配了一个大数组来跟踪DP的部分结果。事实上,当我尝试给它相当大的输入时,它会立即给出一个MemoryError。最好不要深入库的深处,我想弄清楚是否值得在具有更多内存的不同机器上尝试这个算法,或者尝试减少我的输入大小,或者它是否丢失导致我尝试使用的数据大小。问题当我的Python代码抛出MemoryError时,是否有一种“自上而下”的方式让我调查我的代码尝试分配的内存大小是什么导致了错误,例如通过检查错误对象? 最佳答案

memory - 执行 scikit-learns 剪影分数时如何修复 MemoryError?

我运行一个聚类算法,并希望通过使用scikit-learn中的轮廓分数来评估结果。但是在scikit-learn中,需要计算距离矩阵:distances=pairwise_distances(X,metric=metric,**kwds)由于我的数据是300K量级,而我的内存是2GB,结果内存不足。而且我无法评估聚类结果。有人知道如何解决这个问题吗? 最佳答案 设置sample_sizesilhouette_score调用中的参数为小于300K的某个值。使用此参数将从X中采样数据点,并在这些数据点而不是整个数组上计算silhouet

memory - 执行 scikit-learns 剪影分数时如何修复 MemoryError?

我运行一个聚类算法,并希望通过使用scikit-learn中的轮廓分数来评估结果。但是在scikit-learn中,需要计算距离矩阵:distances=pairwise_distances(X,metric=metric,**kwds)由于我的数据是300K量级,而我的内存是2GB,结果内存不足。而且我无法评估聚类结果。有人知道如何解决这个问题吗? 最佳答案 设置sample_sizesilhouette_score调用中的参数为小于300K的某个值。使用此参数将从X中采样数据点,并在这些数据点而不是整个数组上计算silhouet

Python | NumPy | numpy.core._exceptions.MemoryError: Unable to allocate 1.04 MiB for an array

本文简要概括出现类似于numpy.core._exceptions.MemoryError:Unabletoallocate1.04MiBforanarraywithshape(370,370)anddatatypefloat64报错信息的原因及解决方法。更新:2023/2/4Python|NumPy|numpy.core._exceptions.MemoryError:Unabletoallocate1.04MiBforanarray报错原因解决方案修改`float`精度python库、Pandas和Numpy库更新为`64`位扩充虚拟内存更改Python读取大文件的方法Preliminar

Python | NumPy | numpy.core._exceptions.MemoryError: Unable to allocate 1.04 MiB for an array

本文简要概括出现类似于numpy.core._exceptions.MemoryError:Unabletoallocate1.04MiBforanarraywithshape(370,370)anddatatypefloat64报错信息的原因及解决方法。更新:2023/2/4Python|NumPy|numpy.core._exceptions.MemoryError:Unabletoallocate1.04MiBforanarray报错原因解决方案修改`float`精度python库、Pandas和Numpy库更新为`64`位扩充虚拟内存更改Python读取大文件的方法Preliminar

python - 如何连接多个 pandas.DataFrames 而不会遇到 MemoryError

我尝试连接三个DataFrame。concat_df=pd.concat([df1,df2,df3])这会导致MemoryError。我该如何解决这个问题?请注意,现有的大多数类似问题都是关于读取大文件时发生的MemoryErrors。我没有那个问题。我已将我的文件读入DataFrames。我只是无法连接这些数据。 最佳答案 问题是,就像在其他答案中看到的那样,是一个内存问题。一个解决方案是将数据存储在磁盘上,然后构建一个唯一的数据框。拥有如此庞大的数据,性能是个问题。csv解决方案非常慢,因为会在文本模式下进行转换。由于使用二进制

python - 如何连接多个 pandas.DataFrames 而不会遇到 MemoryError

我尝试连接三个DataFrame。concat_df=pd.concat([df1,df2,df3])这会导致MemoryError。我该如何解决这个问题?请注意,现有的大多数类似问题都是关于读取大文件时发生的MemoryErrors。我没有那个问题。我已将我的文件读入DataFrames。我只是无法连接这些数据。 最佳答案 问题是,就像在其他答案中看到的那样,是一个内存问题。一个解决方案是将数据存储在磁盘上,然后构建一个唯一的数据框。拥有如此庞大的数据,性能是个问题。csv解决方案非常慢,因为会在文本模式下进行转换。由于使用二进制

python - 克服 Ashton String 任务中的 MemoryError/Slow Runtime

在AshtonStringtask,目标是:Arrangeallthedistinctsubstringsofagivenstringinlexicographicalorderandconcatenatethem.PrinttheKthcharacteroftheconcatenatedstring.ItisassuredthatgivenvalueofKwillbevalidi.e.therewillbeaKthcharacter.输入格式:FirstlinewillcontainanumberTi.e.numberoftestcases.Firstlineofeachtestca

Python - 如何在没有 MemoryError 的情况下 gzip 大文本文件?

我使用以下简单的Python脚本在EC2m3.large实例上压缩一个大文本文件(例如,10GB)。但是,我总是得到一个MemoryError:importgzipwithopen('test_large.csv','rb')asf_in:withgzip.open('test_out.csv.gz','wb')asf_out:f_out.writelines(f_in)#orthefollowing:#forlineinf_in:#f_out.write(line)我得到的回溯是:Traceback(mostrecentcalllast):File"test.py",line8,in