3.同步数据到其他表的。
这种又分插入和更新字段两种情况,除了sql方面的逻辑外,要考虑记录执行sql和变化前后数据记录。总是要做最坏的打算,一旦更新错了还能回滚数据。
比如在更新之前先记录被更新的数据记录到某表(新建表)或文件中。在编写阶段也做到先跑一条数据,然后再进循环去测试。
一步一步,小心驶得万年船,毕竟你是在做非select操作。
4.从一种DB迁移数据到另外一种DB的。(比如从mssql->mysql,或反之)
这种迁移其实和第二种是类似的,除了业务逻辑外,也要考虑上线后数据的回滚,还有查询和插入需要做到分批。编写代码的时候各种引用渠道和调用model不要写到foreach里面了,驱动也别滥用,每一次的初始化都会消耗链接资源和时间成本。
把不必要的查询都干掉,集中在一次查询里面,同时也避免什么都select *之类的查询,用到哪几个字段列就select那几个。
在设计数据表的时候(mysql),还是多用时间戳,方便查询,即使显示格式要求,也可以在脚本层面去做。
在插入的时候还应该多用框架自带的批量方法,比如CI中有insert_batch方法,多了解一下驱动底层的实现,免得自己重复造轮子还加一些多于判断。
比如我之前写的分批插入:
for ($i = 1; $i<= $times;$i++) { $insertData = array(); $partData = $this->mssql->select($sql, array(), $i, 10000); //var_dump($partData);die(); foreach ($partData as $p) { $insertData[] = array( 'user_id' => $p['user_id'], 'login_from' => $p['login_from'], 'type' => $p['type'], 'ip' => $p['ip'], 'created' => $p['created'] ); } $allData = array_chunk($insertData, 1000); // 分批插入 $num = count($allData); for ($n = 0; $n< $num; $n++) { $mysql->insert_batch($tableName , $allData[$n]); } }
其中array_chunk那句是把装好的10000条数据的数组再分成1000个一份,然后每一千个记录插入一次。看起来很合理,但实际上CI的insert_batch里面已经帮我们这么做了。
DB_active_rec.php源码如下:
// Batch this baby for ($i = 0, $total = count($this->ar_set); $i < $total; $i = $i + 1000) { $sql = $this->_insert_batch($this->_protect_identifiers($table, TRUE, NULL, FALSE), $this->ar_keys, array_slice($this->ar_set, $i, 1000)); $this->query($sql); }
这里面已经是1000条一次性批量插入了(这是我修改过的,默认是100),当然mssql的官方驱动比较二逼,那个_insert_batch方法并不存在,我把mysql驱动对应的那个_insert_batch方法给拷贝过去即可。
多了解一些底层实现,就少一些麻烦。