给读者 | 2年时间,800+发文,180+原创全奉献

点击上方蓝色字体,选择“设为星标”

回复”面试“获取更多惊喜

a145c2185f1d71c72d811cf231b3c1e6.png

回忆

在我写作的这2年时间里有一个标志性的里程碑。

2020年中,我在拉勾平台发表了自己的第一个电子专栏,关于Flink的,目前整个专栏售出近2万份。

现在对很多人来说,写一个Flink入门的系列感觉很简单,毕竟网上博客、视频资源一大堆,加上Flink中文社区的推广更是手到擒来。

但是站在2019年底那个时间段,全网关于Flink的博客凤毛麟角。

Flink在那半年时间里疯狂迭代版本,也正是在那个阶段,数据领域非常多的开发者开始注意到Flink这个框架。

拉勾教育的编辑第一次约我写稿的时候,我也很忐忑。那个时候我完全没有写专栏的经历,在最初的几个星期里,经常一篇稿子改了又改。

这个专栏最初写稿的时候,Flink还是1.9版本,写着写着Flink发布了1.10版本,我只好把原来写好的稿子从头改了一遍。

蜕变

直到6个月后交稿,我感觉到了自己的蜕变。

正是这个写作过程,让我的技术行文写作思路有了质的飞跃。

于是在这个蜕变下猛更Github的《大数据成神之路》,这半年疯狂更新了到了第四版。

到现在有很多商业公司向我约稿,约技术PR文章等等。大家可以去翻看2020年初我写的一些东西应该能感觉到,我也写过"拼凑"文章,官网看一看资料,自己动手实现一遍,然后"拼凑"一下取个吸引人的名字发出来。

那阵子我很苦恼。

我可以一直这么写下去,随便拼凑几个什么基础入门,例如「x万字入门xxx」「史上最全xxx学习指南」,大家也爱看,我也不费力气,当个裁缝不也很好嘛!

但是我觉得没意义,从2019年底关注我的读者到现在工作也有2年多时间了。2年时间如果你还一直在看「x万字基础入门xxx」「史上最全xxx学习指南」,大概率你还在一线最底层苦苦挣扎,面对裁员、公司各种变动毫无还手之力。

所以,我开始写一些较有深度的文章。但是写起来太困难。而且曲高和寡,应者寥寥。

但凡事贵在坚持。

这两年的写作经历让我坚信了一件事情:「输出有价值兼具深度最好能给人带来成长的文章」

「因为我相信没有读者愿意停留在一线最基层的岗位,人人都想成为架构师和技术专家。」

突破

在这两年的写作中,我个人的技术栈也在飞速发生变化。

从最开始专攻数据平台的中间件,到一个偏向业务的数据平台开发,技术栈横跨了后端、离线异构数据交换、任务调度平台、数据监控平台、实时数据仓库,再到后来的业务数据平台和数据产品开发。

直到2021年开始转向ToB的产品开发后,后端、数据、算法三者开始有机融合。

我感觉处在了一个突破的关键阶段。

在这个过程中,曾经我感觉到非常痛苦。

我好好的一个数据平台中间件的开发,为什么疯狂的试探和拓展自己的技术和业务边界,不管是主动还是被动。

有一阵子我也自我怀疑,我在原来领域已经走的非常深入,为什么又跳出来接触这些完全没接触过的领域?

经过和很多人的请教和自悟,我终于明白了:

如果你只做你力所能及的事,你就没法进步。

75fcfcbb072ce5fd4401deaba7c8fded.png

给读者

经过两年多的沉淀,截止目前共发送文章800+篇,原创180+。覆盖了整个数据开发领域几乎100%的方向,从入门到提升到实战再到面试。

经过一周的努力,我把这些文章按照体系全部整理好了。结束了之前大杂烩状态。

现在你可以方便的进行查找了:

52ca297bfd7909d6e32e596b69f90081.png

7d0cbc63efdb22d71f06696f9ff9cc89.png

c20a79204549422b9a765d46d76e2c24.png

这篇文章也算是给我写作两周年做的一个阶段性总结。

结尾

我最欣赏的两位历史人物分别是岳飞和鲁迅。

早在高中时期,我就模仿鲁迅的文笔写作,并且多次参加各种作文比赛。对岳飞的欣赏除了个人事迹,就是那首《满江红》。

「三十功名尘与土,八千里路云和月。」也是对我过去几年个人经历最好的描述。

身处互联网行业,大数据开发领域,面对未来10年的「后红海时代」,我们每个人都会见证历史。

「此后如竟没有炬火,我便是唯一的光。」

最后,在此拜托大家将本文转发到朋友圈,能够让人看到我这两年的努力和沉淀。🙏

给你一个大大的拥抱🤗。

Hi,我是王知无,一个大数据领域的原创作者。 

放心关注我,获取更多大数据领域的一手消息。

好的,这个问题涉及到爬虫技术和数据处理技术,需要一些代码实现。以下是大致的步骤: 1. 安装Python的requests、BeautifulSoup、pandas等库。 2. 使用requests库发送HTTP请求获取微博页面的HTML代码。 3. 使用BeautifulSoup库解析HTML代码,获取微博列表中每个微博的URL。 4. 循环遍历每个微博的URL,再次使用requests库发送HTTP请求获取微博详情页的HTML代码。 5. 使用BeautifulSoup库解析微博详情页HTML代码,获取微博的评论数、点赞数、发文时间、转发数以及发文内容。 6. 将获取到的数据存储到一个Pandas的DataFrame中,方便进行数据处理和分析。 下面是示例代码,仅供参考: ```python import requests from bs4 import BeautifulSoup import pandas as pd # 构造HTTP请求头部 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} # 发送HTTP请求获取微博页面HTML代码 url = 'https://weibo.com/' response = requests.get(url, headers=headers) html = response.text # 使用BeautifulSoup解析HTML代码获取微博列表中的每个微博URL soup = BeautifulSoup(html, 'html.parser') weibo_list = soup.find_all('div', class_='card-wrap') weibo_urls = [] for weibo in weibo_list: weibo_url = weibo.find('a', class_='name')['href'] weibo_urls.append(weibo_url) # 循环遍历每个微博URL,获取微博详情页HTML代码 weibo_data = [] for weibo_url in weibo_urls: response = requests.get(weibo_url, headers=headers) html = response.text # 使用BeautifulSoup解析微博详情页HTML代码,获取微博的评论数、点赞数、发文时间、转发数以及发文内容 soup = BeautifulSoup(html, 'html.parser') # 评论数 comment_count = soup.find('span', class_='comment-txt').text # 点赞数 like_count = soup.find('span', class_='like-txt').text # 发文时间 time = soup.find('span', class_='time').text # 转发数 repost_count = soup.find('span', class_='forward-txt').text # 发文内容 content = soup.find('div', class_='weibo-text').text # 将获取到的数据存储到一个Pandas的DataFrame中 data = {'评论数': comment_count, '点赞数': like_count, '时间': time, '转发数': repost_count, '内容': content} weibo_data.append(data) df = pd.DataFrame(weibo_data) print(df) ``` 需要注意的是,该代码仅能获取当前用户的公开微博,如果想要获取其他用户的微博数据,还需要进行登录操作或者其他身份验证方式。同时,由于微博网页结构经常发生变化,所以代码的可用性和稳定性可能会受到影响。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

王知无(import_bigdata)

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值