访问某些网站,如www.sohu.com或其它一些较大网站,会提示[内存不足],或者[內容过大, 无法显示]

1、如果WAP_SUPPORT=OBIGO_Q03C,请参考如下信息: 
wap_mem_size的大小是以下三部分的和。每部分的作用如下: 
 WAP_INT_GLOBAL_MEM_SIZE (提示内存不足时,只需增大该宏) 
当需要支持更大更丰富的网页时,可以加大该宏的值,修改该宏时,一般有以下三种情况(详见该宏定义处): 
1. 如果在custom_wap_config.h 中定义了WAP_GLOBAL_MEM_SIZE ,则WAP_INT_GLOBAL_MEM_SIZE的值为WAP_GLOBAL_MEM_SIZE。 
2. 如果定义了宏WAP_USE_ASM,WAP_INT_GLOBAL_MEM_SIZE的值为WAP_ASM_MEM_SIZE(目前,以这种case为主)。 
3. 否则,直接定义WAP_INT_GLOBAL_MEM_SIZE的值。 
  WAP_INT_SYS_MEMSIZE (代码中默认是80k) 
当出现"Internal Error"这样的提示时,可以加大该宏,否则,不用调整。 
 WAP_SPARE_MEM_SIZE (代码中默认是4k) 
该宏的作用是起到一个保护的作用,当wap task踩到给他分配的内存区域以外的时候(即走到这个4K的时候),重新启动wap task,一般来说,不需要作调整。
 
需说明的是:能打开的网页大小主要受WAP_INT_GLOBAL_MEM_SIZE限制,理论上只要将该宏配置得足够大,就可以打开更多内容的网页,但由于Q03C浏览器主要用于支持WAP网站,通常,该类网站并不大,因此没有必要将该宏配置太大(即使将memory配置得足够大,Q03C也不能完全支持WWW网站),可逐渐增加该宏得到Q03C浏览器打开某网站所需的实际memory大小。 
2、如果WAP_SUPPORT=OBIGO_Q05A,请参考如下信息: 
 BAM_CFG_MAX_PAGE_SIZE 
用于配置页面文件(包括xhtml/html/wml等)的最大值。如果设置成0,则表示没有限制。代码中的默认值是196k或者256k。 
 BAM_CFG_MAX_TOTAL_SIZE 
用于配置网页的总体最大值,包括页面和资源(如:图片,声音等 )代码中的默认值是1.5M或者2M。如果需要,可以更改。 
 BAM_CFG_MAX_OBJECT_SIZE和BAM_CFG_MAX_OBJECT_PLUGIN_SIZE 
用于配置嵌入资源和插件的最大值。默认值是0,表示大小没有限制。 
 WAP_CUSTOM_CFG_BROWSER_MEM_SIZE (通常只需修改该宏) 
用于配置浏览器的memory能力。默认大小是2500K。当出现[页面显示不完整]等memory不足提示时,可以增大该宏。以www.sina.com为例,要想正常打开该网站,Q05A memory需增大到12M以上。
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我帮你解决这个问题。 首先,我们需要使用 Python 中的 requests 库和 BeautifulSoup 库来爬取网页并解析页面内。在此之前,需要先安装这两个库。 ```python pip install requests pip install beautifulsoup4 ``` 接下来,我们可以使用 requests 库来获取网页内,并使用 BeautifulSoup 库来解析页面。 ```python import requests from bs4 import BeautifulSoup url = "https://www.sohu.com/a/451539303_136745" res = requests.get(url) soup = BeautifulSoup(res.text, 'html.parser') ``` 接下来,我们需要找到包含这100个数学定理的列表所在的 HTML 标签,然后遍历列表获取每个定理的内。 ```python # 找到包含定理的列表所在的标签 div = soup.find('div', {'class': 'article'}) # 遍历列表获取每个定理的内 theorems = [] for li in div.find_all('li'): theorem = li.find('a').text.strip() theorems.append(theorem) ``` 最后,我们可以使用 Python 中的 pandas 库将数据导出到 Excel 文件中。 ```python import pandas as pd df = pd.DataFrame({'定理': theorems}) df.to_excel('theorems.xlsx', index=False) ``` 完整的代码如下: ```python import requests from bs4 import BeautifulSoup import pandas as pd url = "https://www.sohu.com/a/451539303_136745" res = requests.get(url) soup = BeautifulSoup(res.text, 'html.parser') # 找到包含定理的列表所在的标签 div = soup.find('div', {'class': 'article'}) # 遍历列表获取每个定理的内 theorems = [] for li in div.find_all('li'): theorem = li.find('a').text.strip() theorems.append(theorem) # 导出数据到 Excel 文件 df = pd.DataFrame({'定理': theorems}) df.to_excel('theorems.xlsx', index=False) ``` 执行完毕后,你在同级目录下找到一个名为 `theorems.xlsx` 的 Excel 文件,里面包含了这100个最伟大的数学定理的内

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值