jjzjj

Compress

全部标签

android - bitmap.compress(Bitmap.CompressFormat.PNG, 0, fOut) 使图像尺寸大于原始尺寸

我想将相机拍摄的图像压缩为png格式以使其尺寸更小,所以我正在使用这段代码:compressedPictureFile=newFile(imagePath);Bitmapbitmap=BitmapFactory.decodeFile(imagePath);FileOutputStreamfOut=newFileOutputStream(compressedPictureFile);booleancompressed=bitmap.compress(Bitmap.CompressFormat.PNG,0,fOut);fOut.flush();fOut.close();问题是compres

python - python列表中的不连续切片

我正在寻找一种有效的方法来实现这一点,我认为这是一种类似切片的操作:>>>mylist=range(100)>>>magicslicer(mylist,10,20)[0,1,2,3,4,5,6,7,8,9,30,31,32,33,34,35,36,37,38,39,60,61,62,63......,97,98,99]想法是:切片获取10个元素,然后跳过20个元素,然后获取下一个10,然后跳过下一个20,依此类推。如果可能的话,我认为我不应该使用循环,因为使用slice的原因(我猜)是为了在单个操作中有效地进行“提取”。感谢阅读。 最佳答案

python - python列表中的不连续切片

我正在寻找一种有效的方法来实现这一点,我认为这是一种类似切片的操作:>>>mylist=range(100)>>>magicslicer(mylist,10,20)[0,1,2,3,4,5,6,7,8,9,30,31,32,33,34,35,36,37,38,39,60,61,62,63......,97,98,99]想法是:切片获取10个元素,然后跳过20个元素,然后获取下一个10,然后跳过下一个20,依此类推。如果可能的话,我认为我不应该使用循环,因为使用slice的原因(我猜)是为了在单个操作中有效地进行“提取”。感谢阅读。 最佳答案

尽管 mapred.output.compress=true,hadoop 流仍会生成未压缩的文件

我像这样运行一个hadoop流作业:hadoopjar/opt/cloudera/parcels/CDH/lib/hadoop-mapreduce/hadoop-streaming.jar-Dmapred.reduce.tasks=16-Dmapred.output.compres=true-Dmapred.output.compression.codec=org.apache.hadoop.io.compress.GzipCodec-inputfoo-outputbar-mapper"pythonzot.py"-reducer/bin/cat我确实在输出目录中得到了16个包含正确数据

java - 哪种格式的compress适合hadoop中的大图输出?

我是hadoop的新手,我正在使用一个程序,它的map输出与输入文件的大小相比非常大。我安装了lzo库并更改了配置文件,但它对我的程序没有任何影响。我如何压缩map输出?lzo是最好的情况吗?如果是,我如何在我的程序中实现它? 最佳答案 要压缩中间输出(您的map输出),您需要在mapred-site.xml中设置以下属性:mapred.compress.map.outputtruemapred.map.output.compression.codecorg.apache.hadoop.io.compress.LzoCodec如果您

hadoop - 启用 dfs.image.compress 时会压缩什么?

Hadoophdfsdocumentation表示此旋钮指定是否应压缩“dfs图像”。那具体指的是什么?存储在hdfs中的输入文件、输出文件(有一个单独的参数)或其他什么? 最佳答案 这里的“dfsimage”是实际dfs的副本,在检查点时创建。当最初创建检查点时,检查点有助于恢复到以前的dfs状态。图像文件包含dfs中存在的所有文件。压缩会尝试使用压缩编解码器将此文件压缩到更小的大小。 关于hadoop-启用dfs.image.compress时会压缩什么?,我们在StackOverf

android - bitmap.compress() 参数 'quality' 是什么意思?

在我的应用程序中,我向服务器发送了一些图像。图片最大尺寸为300kb,我将调整文件大小。这是我的调整代码。publicstaticvoidresize_filesize(Contextcontext,Uriuri,intmaxSize){intfilesize;intcompressRate;try{InputStreaminputStream=context.getContentResolver().openInputStream(uri);filesize=inputStream.available();inputStream.close();compressRate=((100*

c++ - 有什么有效的方法可以动态更改 boost 中的 compress_matrix 吗?

我正在使用ublas::CompressedMatrix与UMFPACK(一种稀疏线性求解器)一起工作。因为我在做模拟,所以每次线性系统的构造都略有不同,可能涉及扩大/缩小系数矩阵和一些稀疏矩阵乘法。线性系统的规模在25k左右。即使有boost与UMFPACK一起工作的绑定(bind)补丁,我仍然需要不时更改矩阵,有时甚至计算非零值的数量也会很耗时(理想情况下,我必须初始化矩阵时给出非零值的数量)。此外,我使用ublas::range动态追加列/行。所以我的问题是:有什么有效的方法可以做到这一点吗?现在对我来说太慢了。转置一个维度为15k的矩阵花费将近6s并且附加大约12k行很快(因为

ios - Change NSData Size of a UIImage - Compress And Resize UIImage With a Maximum Megabyte Mb 限制

我有一个用户上传的UIImage。如果图像数据超过10Mb,我如何将它的大小调整到最大10Mb?到目前为止,我发现的最接近数据大小调整的是:NSData*imageData=UIImageJPEGRepresentation(theUploadedImage.image,0.5f);但我似乎无法控制Mb的文件大小...仅控制JPG表示中的第二个参数(图像质量float) 最佳答案 必须创建我自己的函数来尽可能小地压缩图像,如果它仍然超过我的“最大大小”,那么它会调整大小、保留并再次开始压缩迭代。如果图像超过文件大小时,这可以很好地使

swift - Compress Image in iOS 12。这段代码将如何更新?

这个问题在这里已经有了答案:UIImageJPEGRepresentationhasbeenreplacedbyinstancemethodUIImage.jpegData(compressionQuality:)(3个答案)关闭4年前。//compressingimage(avaImg)beforesendingittotheserver(Parse)letavaData=UIImageJPEGRepresentation(avaImg.image!,0.5)letavaFile=PFFile(name:"ava.jpg",data:avaData!)user["ava"]=avaF