如题,本文主要介绍图片压缩方法的使用(原生)
主要处理逻辑,就是对bitmap的处理,例如质量压缩,和宽高剪裁压缩。
参考博客
代码地址在文末
核心方法如下:
质量压缩:
如上图,质量压缩为compress方法中的第二个参数,范围为0-100,越大,保真度越高,但是压缩后体积越大,反之越小但越模糊。
宽高剪裁
这里使用了inSampleSize进行缩放,缩放的倍率,是通过目标宽高和原始宽高对比得出。
项目所在目录
调用方法
目前只支持本地图片压缩,不支持网络图片,resourceId等方法压缩。
总体而已,该压缩逻辑,仅仅实现了对bitmap通过原生api进行压缩处理。
项目开源地址
that's all------------------------------------------------------------------------
Hive ORC table常规小文件过多问题,于是用Spark写了一个Application来自动的Merge分区数据,思路很简单大概就是
insert overwrite table partition (分区 XXX) select * from table where (分区 XXX)当然已经把该dataframe repartition到想要的目标并发度,来控制最终分区下的文件个数
但是发现生成的文件个数虽然是对的,但是最后整个分区的Size竟然几乎翻倍。
函数计算具有弹性伸缩的能力,可以给用户带来免运维和毫秒级扩容的计算能力。 但是它也存在一些限制, 比如一个执行环境最大内存只有3G, 本文旨在进行总结一些函数计算在文件压缩和解压缩的一些实践案例, 希望能给大家抛砖引玉,引出更好的实践案例。
以前对压缩算法一无所知,只是知道哈弗曼编码能做这种事情,但是感觉这样的方法奇慢无比。昨天下午看了下号称世界上最快的压缩算法Quicklz,对压缩的基本思路有了一定的了解。一般的压缩程序的要求读入文件之后以便压缩一边输出,而不是去先分析整个文件中的情况之后才做决定采取哪种算法。