游上海静安寺有感


最近比较忙,除了吃饭,睡觉,其它的时间都在公司。也不知道为什么,总之,就是一个感觉:忙!

今天周六,可以好好的休息一天,原来就很想去静安寺看看,今天有时间了,怎么能放过呢。

昨天约好一个大学同学,早上便匆匆的坐上了去静安寺的地铁。

很快就到了,在门口等朋友的时候,一位大姐要给我算命,我想本来自己就学这些东西的,也知道一

些。可她太热情了,让我实在不听都不行了。说的都是一些大福大贵的东西,也记不清了,也没有必要

记得些什么。朋友过来了,和他老婆一起来的,我应该叫她嫂子了。门票十元一张,我就这样很不理解

进去了,为什么佛门净地还要收费呢?我很信佛的,可能我没有把自己当成一个游客。

没有想到佛也会成为经济的产物。求佛的心思一下都没化为香烟。求过观音菩萨,然后匆匆得走了。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,这个问题我可以回答。首先需要安装一些必要的库,比如requests、beautifulsoup4等。然后,我们可以通过以下步骤来实现: 1.构建URL 小红书上的话题URL格式为:https://www.xiaohongshu.com/discovery/item/话题ID。其中,“话题ID”可以在话题页面的URL中找到,比如灵隐寺的话题页面为:https://www.xiaohongshu.com/discovery/item/5c8d3e0b00000000010041d9,可以从中获取话题ID为“5c8d3e0b00000000010041d9”。 因此,我们可以先将话题ID存储在一个列表中,然后通过列表中的话题ID来构建URL。 2.发送请求并解析HTML页面 通过requests库发送请求,并使用beautifulsoup4库解析HTML页面,获取页面中的关联词信息。 3.提取关联词 通过beautifulsoup4库提取页面中的关联词信息,将其存储在一个列表中。 4.输出结果 将输出结果保存在一个文件中。 以下是实现代码,供你参考: ```python import requests from bs4 import BeautifulSoup # 话题ID列表 topic_ids = ['5c8d3e0b00000000010041d9', '5c8d3e0b00000000010041d4', '5c8d3e0b00000000010041d6', '5c8d3e0b00000000010041d3', '5c8d3e0b00000000010041d7', '5c8d3e0b00000000010041d8', '5c8d3e0b00000000010041d5', '5c8d3e0b00000000010041da', '5c8d3e0b00000000010041db', '5c8d3e0b00000000010041dc'] # 构建URL urls = [] for topic_id in topic_ids: url = f'https://www.xiaohongshu.com/discovery/item/{topic_id}' urls.append(url) # 发送请求并解析HTML页面,提取关联词 related_words = [] for url in urls: r = requests.get(url) soup = BeautifulSoup(r.content, 'html.parser') tags = soup.find_all('div', {'class': 'tag-item'}) for tag in tags: related_words.append(tag.text) # 输出结果 with open('related_words.txt', 'w', encoding='utf-8') as f: for word in related_words: f.write(word + '\n') ``` 注意:上述代码中的URL和话题ID可能已经失效,需要根据实际情况修改。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值