经济观察报:新浪打造网络新闻的工业化实验

经济观察报:新浪打造网络新闻的工业化实验

http://www.sina.com.cn 2004年05月08日 09:49 经济观察报

  本报记者 王方剑 北京报道

  互联网对于人们获取信息的方式和价值取向产生了重大改变,人们已经由被动接收信息向主动获取信息转变——汪延

  “再过一段时间,我们就要出个规范的编辑手册,现在正在征求意见的阶段。”

新浪网全球资深副总裁、总编辑陈彤4月15日这样告诉记者。

  或许,当陈彤顺口而出说出这句话时,他并没有刻意去对比自网络新闻诞生以来这几年中国网络新闻产品制造水准的进步:网络新闻产品已经从诞生时“Ctrl C+Ctrl V”原始水平发展到了工业化、标准化的时代,而新浪网正在国内门户网站中率先进行着这样的探索和实验。

  中国网络新闻产品的制造水平飞跃了。

  在北京西三环外幢不起眼的白色四层小楼里,中国网络新闻产品的工业化实验正在继续进行。

  “新浪们”的价值

阅读终点,创作起航,您可以撰写心得或摘录文章要点写篇博文。去创作
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论
好的,这个问题需要用到Python的爬虫技术,具体步骤如下: 1. 导入必要的库 先导入requests、BeautifulSoup库,来实现网页的请求和解析。 ```python import requests from bs4 import BeautifulSoup ``` 2. 确定爬取的网站和页面 我们需要爬取、网易、今日头条、UC四大网站的新闻标题和内容,因此需要确定每个网站的新闻页面的URL。 以为例,它的新闻页面URL为:https://news.sina.com.cn/china/,我们需要爬取这个页面上的所有新闻标题和内容。 3. 发送请求并解析页面 使用requests库发送请求,获取新闻页面的HTML源码,然后使用BeautifulSoup库解析HTML源码,得到新闻标题和内容。 ```python url = 'https://news.sina.com.cn/china/' response = requests.get(url) html = response.content soup = BeautifulSoup(html, 'html.parser') ``` 4. 提取新闻标题和内容 使用BeautifulSoup库提取新闻标题和内容。 ```python # 提取新闻标题 titles = soup.select('.news-item h2 a') for title in titles: print(title.text) # 提取新闻内容 contents = soup.select('.news-item p') for content in contents: print(content.text) ``` 5. 爬取其他网站 对于其他网站,只需要重复上述步骤即可,只需要修改URL和CSS选择器即可。 完整代码如下: ```python import requests from bs4 import BeautifulSoup # 爬取新闻 url = 'https://news.sina.com.cn/china/' response = requests.get(url) html = response.content soup = BeautifulSoup(html, 'html.parser') # 提取新闻标题 titles = soup.select('.news-item h2 a') for title in titles: print(title.text) # 提取新闻内容 contents = soup.select('.news-item p') for content in contents: print(content.text) # 爬取网易新闻 url = 'https://news.163.com/' response = requests.get(url) html = response.content soup = BeautifulSoup(html, 'html.parser') # 提取新闻标题 titles = soup.select('.item-top a') for title in titles: print(title.text) # 提取新闻内容 contents = soup.select('.item-wrap p') for content in contents: print(content.text) # 爬取今日头条新闻 url = 'https://www.toutiao.com/ch/news_hot/' response = requests.get(url) html = response.content soup = BeautifulSoup(html, 'html.parser') # 提取新闻标题 titles = soup.select('.title-box a') for title in titles: print(title.text) # 提取新闻内容 contents = soup.select('.abstract') for content in contents: print(content.text) # 爬取UC新闻 url = 'https://news.uc.cn/' response = requests.get(url) html = response.content soup = BeautifulSoup(html, 'html.parser') # 提取新闻标题 titles = soup.select('.item-title a') for title in titles: print(title.text) # 提取新闻内容 contents = soup.select('.item-desc') for content in contents: print(content.text) ``` 注意:在实际使用中要注意网站的反爬机制,避免被封IP。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

韩磊

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值