php压缩gzcompress和解压gzuncompress字符串的方法

serialize将数组序列化成字符串,然后通过gzcompress进行压缩,最后进行base64编码。

为什么进行base64编码?

字符问题压缩后的字符 可能 数据库当成乱码
插入前编码读取解码
base64_encode()//编码
base64_decode()//解码

base64_encode(gzcompress(serialize($data)))
unserialize(gzuncompress(base64_decode($search_cache['data'])));
  • 判断字符串是否进行base64编码
* 判断字符串是否base64编码 function func_is_base64($str) return $str == base64_encode(base64_decode($str)) ? true : false; php压缩gzcompress和解压gzuncompress字符串的方法整体思路serialize将数组序列化成字符串,然后通过gzcompress进行压缩,最后进行base64编码。为什么进行base64编码?字符问题压缩后的字符 可能 数据库当成乱码 插入前编码读取解码 base64_encode()//编码 base64_decode()//解码实现代码压缩数... 之前和我玩CrossFire(CF)的一个朋友,前几天突然找到我,问怎么查询网站是不是真的 然后他解释说他想考一级消防工程师证,因为种种原因自己考不了,所以就找到了一家教育机构 那家机构就是假站的官方指定报名机构 他当时一听就感觉有问题,然后打电话到中国人事考试网咨询,了解到根本没有什么官方指定报名机构 然后我一搜索,就发现是假的了,也是急忙制止了我的这位好哥们 当然,这里可以忽视哈,我嘛,肯定是非常直的啦
  在大数据驱使下,数据量越来越多,以内容为王的时代更是让数据表越大越膨胀,导致读取数据表时返回数据变慢,访问内容页速度也相应变慢。如果能在保持内容不变,对内容进行压缩无疑也是一种网站优化。倘若每条内容长度都被压缩到之前的百倍千倍之后,整体数据表就减少了几G、几十G的存储,读取数据时返回数据速度也会提升。以下分享php压缩数据方法,希望给需要人带来帮助。/** * 判断字符串是否base64编...
最近一个项目里使用mysql数据库,维护单位要求字段平均长度必须小于1k,由于存的东西太多,有的达到了14k,所以必须要压缩 开始想的是对内容gzcompress后base64,但这会增加1/3的数据量,考虑到维护单位的变态要求,考虑对内容gzcompress后转成二进制流后直接存成varbinary,这样保存数据就不用考虑编码的问题了。 php转成二进制流使用的就是pack和unpack,使