steamcommunity本地反代443端口/80端口被占用解决办法

首先说结论:


(1)443端口占用,网上解决方案一大堆。我这里就不废话了。

(2)80端口占用就比较麻烦了,其实说到底,占用该端口的肯定都是一些系统级的软件。如:sqlserver (微软的)、 IIS(微软的)、Apache、或者mysql、oracle 之类的数据库软件、或者虚拟机软件如VMWare等等占用的。

 

所以解决方案只有:

回忆。

回忆你电脑都装了哪些系统级的端口监听软件,然后百度搜对应的改端口方法。

 

我这里以sqlserver举例:

SQL Server占用的端口是80,而占用80端口的程序,正是其Reporting Services监听模块,所以我们找到其配置管理器,如下图:

(我这里以sql server 2008 R2举例)

1. 找到" Reporting Service 配置管理器 "

2.打开后看到如下图,我们选择 " web服务url配置 "

3.看到那个熟悉的80了么,把" TCP 端口 "的80改成别的数值,保存即可!修改后不影响Sql Server监听功能

(这个数值建议改成八十几,因为八十几的端口段,使用的程序很少,不会和别的程序有冲突,我自己改的是81)

 

类似的修改还有IIS的,我就不解释了,直接上图!

 

如果这篇文章对你有用,还麻烦点个赞再走咯,谢谢!

爬取https://steamcommunity.com/app/2358720/reviews/网站评测内容是一个需要涉及到网页抓取和数据处理的任务。为了实现这个任务,你需要使用Python的几个库,包括requests库用于发送HTTP请求,BeautifulSoup库用于解析HTML页面,以及csv库用于保存和读取数据。 下面是一个简单的Python程序,使用这些库爬取该网站的评测内容: ```python import requests from bs4 import BeautifulSoup import csv def scrape_reviews(url): # 发送HTTP请求获取HTML页面 response = requests.get(url) html = response.text # 使用BeautifulSoup解析HTML页面 soup = BeautifulSoup(html, 'html.parser') # 找到评测内容的标签,这里假设评测内容在<div class="review-content">标签内 review_content = soup.find_all('div', class_='review-content') # 遍历评测内容,将每个评测的内容保存到csv文件中 with open('steam_reviews.csv', 'w', newline='') as file: writer = csv.writer(file) for review in review_content: writer.writerow([review.text]) # 将评测内容写入csv文件 # 调用函数爬取评测内容 scrape_reviews('https://steamcommunity.com/app/2358720/reviews/') ``` 请注意,这个程序仅用于展示基本的爬取流程,实际上可能需要对网页结构进行更深入的分析和理解,以便准确地定位评测内容的标签。此外,为了防止被网站封禁或获取到错误的数据,可能需要使用更高级的爬虫技术和策略。在实际操作时,你可能需要结合具体的情况和需求进行调整和优化。 同时要注意遵守网站的爬虫政策,尊重网站的版权和隐私权。在爬取网站数据时,务必遵守相关法律法规。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值