本文实例讲述了php使用fputcsv实现大数据的导出操作。分享给大家供大家参考,具体如下:

为了实验大数据的导出,我们这里先自已创建一张大表,表结构如下:

create table `tb_users` (
 `id` int(11) unsigned not null auto_increment comment '用户id',
 `name` varchar(32) default '' comment '用户名',
 `age` tinyint(3) default '0' comment '用户年龄',
 `desc` varchar(255) default '' comment '用户描述',
 `phone` varchar(11) default '' comment '用户手机',
 `qq` varchar(16) default '' comment '用户qq',
 `email` varchar(64) default '' comment '用户邮箱',
 `addr` varchar(255) default '' comment '用户地址',
 primary key (`id`)
) engine=innodb default charset=utf8;

 然后写个php脚本往这个表插入数据,代码如下:

<?php
set_time_limit(0);
ini_set('memory_limit', '128m');

//使用tp3.2的string类,php7下会报错,注意把类名换一下
require './string.class.php';
use org\util\newstring;

$begin = microtime(true);

$db = new mysqli('127.0.0.1', 'root', '', 'test');

if($db->connect_error) {
  die('connect error');
}
//数据插入语句
$inssql = '';

//一百万数据,分200步,每步插入5000条
$step = 200;
$nums = 5000;

for($s = 0; $s < $step; ++$s) {
  $inssql = 'insert into tb_users values';
  for($n = 0; $n < $nums; ++$n) {
    $name = newstring::randstring(3, 4);
    $age = mt_rand(1, 120);
    $desc = newstring::randstring(64, 4);
    $phone = newstring::randstring(11, 1);
    $qq = newstring::randstring(13, 1);
    $email = $qq . '@qq.com';
    $addr = newstring::randstring(128, 4);
    $inssql .= "(null, '{$name}', $age, '{$desc}', '{$phone}', '{$qq}', '{$email}', '{$addr}'),";
  }
  $inssql = rtrim($inssql, ',');
  $db->query($inssql);
}
$end = microtime(true);
echo '用时:', $end - $begin;

$db->close();

里面用到的tp3.2的string类大家自行上tp官网下载。整个用时2个多小时,最后数据大小662m。

现在我们用php提供的fputcsv来导出这一百万的数据,原理就是打开一个标准输出流,然后把数据按一万条来分割,每一万条就刷新缓冲区。

<?php
set_time_limit(0);
ini_set('memory_limit', '128m');

$filename = date('ymdhis', time());
header('content-type: application/vnd.ms-execl');
header('content-disposition: attachment;filename="' . $filename . '.csv"');

$begin = microtime(true);

//打开php标准输出流
//以写入追加的方式打开
$fp = fopen('php://output', 'a');

$db = new mysqli('127.0.0.1', 'root', '', 'test');

if($db->connect_error) {
  die('connect error');
}

//我们试着用fputcsv从数据库中导出1百万的数据
//我们每次取1万条数据,分100步来执行
//如果线上环境无法支持一次性读取1万条数据,可把$nums调小,$step相应增大。
$step = 100;
$nums = 10000;

//设置标题
$title = array('id', '用户名', '用户年龄', '用户描述', '用户手机', '用户qq', '用户邮箱', '用户地址');
foreach($title as $key => $item) {
  $title[$key] = iconv('utf-8', 'gbk', $item);
}
//将标题写到标准输出中
fputcsv($fp, $title);

for($s = 1; $s <= $step; ++$s) {
  $start = ($s - 1) * $nums;
  $result = $db->query("select * from tb_users order by id limit {$start},{$nums}");
  
  if($result) {
    while($row = $result->fetch_assoc()) {
      foreach($row as $key => $item) {
        //这里必须转码,不然会乱码
        $row[$key] = iconv('utf-8', 'gbk', $item);
      }
      fputcsv($fp, $row);
    }
    $result->free();
    
    //每1万条数据就刷新缓冲区
    ob_flush();
    flush();
  }
}

$end = microtime(true);
echo '用时:', $end - $begin;

整个过程用时5分钟,最终生成的csv文件大小420m。

对于如何用phpexcel导出大数据,并没有什么比较好的方案,phpexcel提供的一些缓存方法,数据压缩,虽然内存使用小了,但所用时间则加长了,时间换空间,显然并不是最好的方案。比较靠谱的方法还是生成多个下载链接地址,把你要下载的数据,以get形式传递当前页数,后台进行数据分页然后导出。

<a href="/downsearchdata.php?参数1=值1&参数2=值2&page=1" rel="external nofollow" >下载汇总结果1</a>
<a href="/downsearchdata.php?参数1=值1&参数2=值2&page=2" rel="external nofollow" >下载汇总结果2</a>
<a href="/downsearchdata.php?参数1=值1&参数2=值2&page=3" rel="external nofollow" >下载汇总结果3</a>

 比如你有一个查询数据表单,id为searchfrm,然后你想把导出数据按1万条分割(phpexcel一次导出1万条是没有问题的,效率还行)

<form id="searchfrm">
  姓名<input type="text" name="uname">
  <input type="button" id="searchdatabtn" value="导出汇总结果">
</form>
<div id="searchdatalist"></div>

<script type="script">
  $("#searchdatabtn").on("click", function() {
    var params = $("#searchfrm").serialize();
    
    //获取查询数据的条数
    $.get("/getsearchdatarows?" + params, function(data) {
      var downdatalist = "";
      if(data["rows"]) {
        //rows是数据总条数,pagesize是一页多少条
        var pagenum = math.ceil(data["rows"] / data["pagesize"]);
        for(var i = 1; i <= pagenum; ++i) {
          downdatalist += "<a href='/downsearchdata.php?'" + params + "&page=" + i + ">下载汇总结果" + i + "</a>&nbsp;&nbsp;";
        }
        $("#searchdatalist").html(downdatalist);
      } else {
        $("#searchdatalist").text("没有数据");
      }
    }, "json");
    return false;
  });
</script>