在深入研究哈希和zval结构以及数组如何基于它的过程中,面临奇怪的插入时间.
这是一个例子:
$array = array();
$someValueToInsert = 100;
for ($i = 0; $i < 10000; ++$i) {
$time = microtime(true);
array_push($array, $someValueToInsert);
echo $i . " : " . (int)((microtime(true) - $time) * 100000000) . "";
}
所以,我发现每个1024,2024,4048 …元素将使用更多的时间插入(> ~x10).
它不依赖于我将使用array_push,array_unshift,或仅仅是$array [] = someValueToInsert.
我在哈希结构中考虑这个问题:
typedef struct _hashtable {
...
uint nNumOfElements;
...
} HashTable;
nNumOfElements具有默认的最大值,但它不是答案为什么在特殊计数器(1024,2048 …)中插入需要更多时间.
有什么想法吗 ?
解决方法:
虽然我建议在PHP内部列表中仔细检查我的答案,但我相信答案在于zend_hash_do_resize().当哈希表中需要更多元素时,将调用此函数并且现有哈希表的大小加倍.由于表格从1024开始,这个加倍解释了你观察到的结果.码:
} else if (ht->nTableSize < HT_MAX_SIZE) { /* Let's double the table size */
void *old_data = HT_GET_DATA_ADDR(ht);
Bucket *old_buckets = ht->arData;
HANDLE_BLOCK_INTERRUPTIONS();
ht->nTableSize += ht->nTableSize;
ht->nTableMask = -ht->nTableSize;
HT_SET_DATA_ADDR(ht, pemalloc(HT_SIZE(ht), ht->u.flags & HASH_FLAG_PERSISTENT));
memcpy(ht->arData, old_buckets, sizeof(Bucket) * ht->nNumUsed);
pefree(old_data, ht->u.flags & HASH_FLAG_PERSISTENT);
zend_hash_rehash(ht);
HANDLE_UNBLOCK_INTERRUPTIONS();
我不确定remalloc是否是性能命中,或者是否重击是命中,还是整个块不可中断的事实.将剖析器放在上面会很有趣.我想有些人可能已经为PHP 7做过了.
旁注,Thread Safe版本的做法有所不同.我对这段代码并不太熟悉,所以如果你使用ZTS可能会有不同的问题.
标签:php,arrays,hashtable
来源: https://codeday.me/bug/20190528/1170426.html