zt在Delphi7中屏蔽word,excel左上角的弹出菜单的关闭选项

var
  WordHwnd :THandle;
begin
  WordHwnd := FindWindow('OpusApp',nil);
  {找到Word句柄}
  EnableMenuItem(GetSystemMenu(WordHwnd, FALSE), SC_CLOSE,MF_BYCOMMAND or MF_GRAYED);
  {屏蔽X按钮}
  {SetWindowLong(WordHwnd, GWL_STYLE, GetWindowLong(WordHwnd, GWL_STYLE) and not WS_SYSMENU);则是把最大、最小化和关闭按钮都去掉}
end;

转载于:https://www.cnblogs.com/brent2008/archive/2004/12/24/81522.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我会使用Python的爬虫库和数据处理库来实现你的需求。其,爬虫库我会使用requests和BeautifulSoup,数据处理库我会使用pandas。 首先,我们需要安装requests、BeautifulSoup和pandas这三个库,你可以在终端或命令提示符使用以下命令进行安装: ``` pip install requests beautifulsoup4 pandas ``` 安装完成后,我们就可以开始编写代码了。以下是完整的代码: ```python import requests from bs4 import BeautifulSoup import pandas as pd url = 'https://news.sina.cn/zt_d/yiqing0121' # 发送HTTP请求 r = requests.get(url) # 解析HTML页面 soup = BeautifulSoup(r.content, 'html.parser') # 获取表格的数据 table = soup.find('div', {'class': 'data_warp'}) rows = table.find_all('tr') data = [] for row in rows: cols = row.find_all('td') cols = [col.text.strip() for col in cols] data.append(cols) # 将数据保存到Excel df = pd.DataFrame(data[1:], columns=data[0]) df.to_excel('疫情数据.xlsx', index=False) ``` 代码解释: 1. 首先,我们定义了要爬取的网址。 2. 然后,使用requests库发送HTTP请求,并使用BeautifulSoup库解析HTML页面。 3. 接下来,我们找到页面的数据表格,并获取其的所有行和列。 4. 最后,将数据保存到Excel,使用pandas库的DataFrame数据结构来处理数据,并使用to_excel()方法保存到Excel文件。 运行代码之后,你就可以在当前目录下找到一个名为“疫情数据.xlsx”的Excel文件,里面包含了全国疫情的累计数据。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值