如何解决PHP里大量数据循环时内存耗尽的问题

最近在开发一个PHP程序时遇到了下面的错误:

PHP Fatal error: Allowed memory size of 268 435 456 bytes exhausted

错误信息显示允许的最大内存已经耗尽。遇到这样的错误起初让我很诧异,但转眼一想,也不奇怪,因为我正在开发的这个程序是要用一个foreach循环语句在一个有4万条记录的表里全表搜索具有特定特征的数据,也就是说,一次要把4万条数据取出,然后逐条检查每天数据。可想而知,4万条数据全部加载到内存中,内存不爆才怪。

毕竟编程这么多年,我隐约记得PHP里提供有非一次全部加载数据的API,是像处理流媒体那样,随用随取随丢、数据并不会积累在内存的查询方法。经过简单的搜索,果然在官方网站上找到的正确的用法。

这个问题在PHP的官方网站上叫缓冲查询和非缓冲查询(Buffered and Unbuffered queries)。 PHP的查询缺省模式是缓冲模式。也就是说,查询数据结果会一次全部提取到内存里供PHP程序处理。这样给了PHP程序额外的功能,比如说,计算行数,将 指针指向某一行等。更重要的是程序可以对数据集反复进行二次查询和过滤等操作。但这种缓冲查询模式的缺陷就是消耗内存,也就是用空间换速度。

相对的,另外一种PHP查询模式是非缓冲查询,数据库服务器会一条一条的返回数据,而不是一次全部返回,这样的结果就是PHP程序消耗较少的内存,但却增加了数据库服务器的压力,因为数据库会一直等待PHP来取数据,一直到数据全部取完。

很显然,缓冲查询模式适用于小数据量查询,而非缓冲查询适应于大数据量查询。

对于PHP的缓冲模式查询大家都知道,下面列举的例子是如何执行非缓冲查询API。


非缓冲查询方法一: mysqli

<?php
$mysqli  = new mysqli("localhost", "my_user", "my_password", "world");
$uresult = $mysqli->query("SELECT Name FROM City", MYSQLI_USE_RESULT);

if ($uresult) {
   while ($row = $uresult->fetch_assoc()) {
       echo $row['Name'] . PHP_EOL;
   }
}
$uresult->close();
?>

非缓冲查询方法二: pdo_mysql

<?php
$pdo = new PDO("mysql:host=localhost;dbname=world", 'my_user', 'my_pass');
$pdo->setAttribute(PDO::MYSQL_ATTR_USE_BUFFERED_QUERY, false);

$uresult = $pdo->query("SELECT Name FROM City");
if ($uresult) {
   while ($row = $uresult->fetch(PDO::FETCH_ASSOC)) {
       echo $row['Name'] . PHP_EOL;
   }
}
?>

非缓冲查询方法三: mysql

<?php
$conn = mysql_connect("localhost", "my_user", "my_pass");
$db   = mysql_select_db("world");

$uresult = mysql_unbuffered_query("SELECT Name FROM City");
if ($uresult) {
   while ($row = mysql_fetch_assoc($uresult)) {
       echo $row['Name'] . PHP_EOL;
   }
}
?>


转载于:https://my.oschina.net/gfcm/blog/476197

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 当在PyTorch中进行GPU计算内存耗尽问题可能由于以下几种原因引起: 1. 模型过大:如果模型的参数量或层数过多,可能会导致GPU内存不足。解决这个问题的方法是减少模型的大小,可以通过减少隐藏层的数量或尝试使用更小的模型架构来缓解内存耗尽问题。 2. 批量输入过大:较大的批量输入也会导致内存耗尽。一种解决方法是减小批量大小,但这可能会影响训练的稳定性和精度。另一种方法是使用分布式计算,将训练数据分成多个子集,并在多个GPU上并行处理。 3. 张量占用内存:在计算过程中,如果使用了过多的中间张量变量,可能会导致内存耗尽。要解决这个问题,可以尽量避免在计算中创建大量张量变量,尽量使用必要的变量并及释放内存。 4. 数据类型选择:使用较高精度的数据类型(如float64)会使用更多的内存,可以尝试使用较低精度的数据类型(如float32)来减少内存消耗。PyTorch提供了float16数据类型,可以通过将模型和数据类型转换为float16来减少内存使用。 5. 内存回收:PyTorch使用自动内存回收机制,当计算完成后会自动释放内存。但有会存在内存碎片问题,可以尝试手动释放不再使用的变量内存(使用`del`命令)或者在每个小批量训练后调用`torch.cuda.empty_cache()`来清空GPU缓存。 总之,减小模型规模、减小批量输入、避免过多中间张量变量、选择合适的数据类型以及适释放内存可以有效解决PyTorch GPU计算过程中的内存耗尽问题。 ### 回答2: 当在PyTorch中进行GPU计算,可能会遇到内存耗尽问题。出现这个问题的原因通常是因为GPU上的内存不足以容纳所需的张量、模型参数和临变量。 以下是一些解决这个问题的方法: 1. 减少数据集的批次大小:减少每个批次中的样本数量可以减少所需的内存。可以通过减小`batch_size`参数来实现,但要注意批次大小过小可能会影响模型的性能。 2. 使用`torch.utils.data.DataLoader`的`pin_memory`选项:`pin_memory`选项可以将内存中的数据固定,这将加快数据传输速度。但是,该选项会占用更多的内存。 3. 使用`torch.nn.DataParallel`或`torch.nn.DistributedDataParallel`:这些类可以在多个GPU上并行计算,从而减少每个GPU上的内存使用量。使用这些类需要确保每个GPU上的内存足够容纳模型和张量。 4. 减少模型的参数量:可以尝试减少模型的参数数量,例如通过减少模型的层数、每个层的神经元数量或使用更小规模的预训练模型。 5. 删除不必要的变量:在计算过程中,可以手动删除不再需要的中间变量或结果,以释放内存。 6. 使用半精度浮点数:将模型和张量的数据类型从32位浮点数(float32)转换为16位浮点数(float16)可以减少内存占用。这可以通过将模型和输入数据类型设置为`torch.float16`来实现。 7. 尝试更大的GPU显存:如果以上方法都无法解决内存耗尽问题,可以考虑使用显存更大的GPU。 请注意,这只是一些可能的解决方法,具体的方法可能因情况而异。在实践中,可以尝试结合多个解决方法,以找到最适合的解决方案。 ### 回答3: 在使用PyTorch进行GPU计算,可能会出现内存耗尽问题。下面是一些解决这个问题的方法: 1. 减少批量大小(batch size):批量大小是在训练过程中输入神经网络的样本数量。通过减小批量大小可以降低内存的需求量。需要注意的是,减少批量大小可能会对模型的训练效果产生一定的影响。 2. 减少模型的大小:模型的大小直接影响了内存的使用量。可以通过减少模型的层数、减少每层的神经元数量等方式来减小模型的内存占用。 3. 延迟分配内存:有候,在开始计算之前,PyTorch会预先分配一些内存,用于缓存计算结果。可以通过设置torch.backends.cuda.cudnn.benchmark = True来延迟内存分配,这样可以减少内存的使用。 4. 增加GPU内存:如果以上方法都无法解决内存耗尽问题,可以考虑增加GPU的内存。这可以通过更换较大内存容量的GPU卡来实现。 5. 减少不必要的中间变量:在计算过程中,可能会产生一些中间变量。可以尝试减少或及释放这些中间变量,以减少内存的使用。 6. 使用混合精度计算:可以使用半精度浮点数来减少内存的使用。PyTorch中提供了自动混合精度计算的方法,可以在一定程度上减小内存消耗。 总结,解决PyTorch GPU内存耗尽问题的方法包括减少批量大小、减小模型的大小、延迟内存分配、增加GPU内存、减少中间变量的使用以及使用混合精度计算。根据具体问题的情况选择合适的方法,以确保内存能够满足计算需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值