QCon Beijing 后记

这次参加 QCon Beijing 2010 技术大会稍有点匆忙。23号早晨从杭州赶往北京,中午才到会场。25号下午原计划回杭州,结果因为天气原因没能成行,第二天上午才回来。在会场的时间安排的也比较紧凑,没时间整理,回到家里也是一堆事儿,一直没空出来时间写一下这次参会的感受。

到了会场就遇到不少熟人,也有网上熟悉但素未谋面的朋友,比如创建监控宝郭欣,还遇到来自盛大创新院的不少朋友。每次会议都会结识新朋友,和老朋友叙旧,大家在一起开开玩笑,诉诉苦,也会宣布一下个人的一些动向。

下午在听了一场比较扯淡的演讲之后(据说25号还有一个某大厂更扯淡的广告话题),重点听了一下豆瓣首席架构师洪强宁 (@hongqn)的《Python于Web 2.0网站的应用》
,这是一次很好的 Python 技术布道,尤其是后半段,由浅入深讲解了好几个应用场景实现的技巧。我后来看了网上的评论,发现不少人忽略了这些案例的重要性,有点惋惜。我在Twitter上说了一句,经过这次的布道,相信明年就会有更多的开发人员用 Python 了。 豆瓣的技术团队对外策略挺有意思,老耿(@flycondor)说”把每个人都打造成技术明星”,期待更多豆瓣牛人出来分享。

第一天的技术演讲,偏重语言方面的内容。下午除了观摩老赵 (@jeffz_cn)的主持风格之外,更多时间是和场外的一些朋友进行交流。晚上和几个朋友赶到奇遇花园咖啡馆参加推友聚会,相当的热闹,相当的开心。和技术Geek们在一起就是有趣啊。透漏一下,各个团队似乎都在面临技术人才荒,而且大家都说”钱不是问题”。一个秘密:虽然我在Twitter上花了这么多精力,但是推友聚会还真是头一回参加。

24日起来的稍微晚了一点,只听到了半场 Facebook 的 Marc Kwiatkowski 的演讲,关于 Memcached 的,个人感觉内容较为平淡,可能之前和我大致了解了他要讲解的内容有关吧。然后认真听了一下 Twitter 大牛 Nick Kallen (@nk)的演讲,很过瘾,对 Twitter 的架构设计有了进一步了解。整个演讲几乎是围绕数据的处理场景进行的,符合我的技术胃口。现在能记住的也就是最后 Nick 总结的几个原则了,包括:Twitter 解决扩展问题依赖的是一些通用的技术手段(索引、分区、复制);不要追求完美够用就行;实时查询的数据必须在内存中。具体的细节还要重新看一遍 PPT 与视频才好。

下午的事情是我这次参会的主要目的:主持人。第二次担任网站架构案例分析(CASE STUDIES)这个分会场的主持人,很有压力啊 :) 之前和演讲嘉宾的沟通没有像去年那么频繁,好在效率有保证,所幸,各位大牛的演讲 PPT 都是经过几次大规模修订,质量没得说。

第一场是潘磊介绍了阿里巴巴国际站架构以及镜像解决方案,以及相关经验。Alibaba.com 是国内少数横跨中美有 多个 IDC 的公司,业务也有其独特的复杂性,印象中这是 Alibaba B2B 第一次对外分享技术经验,潘磊开了一个好头。接着旅游搜索引擎去哪儿(qunar.com)的 CTO 吴永强介绍了监控与虚拟化的实战经验,演讲完了我才知道因为当天凌晨有重要项目发布,老吴4点解决完了问题杀到的会场(创业公司相当辛苦啊),下午结束后就回去休息了。人人网的黄晶介绍了 RenRen.com 的架构经验以及他们的开源项目,演讲结束后的提问可以看出大家对开源项目是相当有兴趣,问题差不多都问到了点子上。最后是来自新浪的杨卫华 (Tim Yang , @xmpp) 介绍可扩展的微博架构,也是相当精彩,和上午 Twitter 的演讲刚好互补。作为主持人,其实最担心自己场地内的人少… 另外的场地同时和这边 PK 的有淘宝章文嵩博士的技术演讲,还好,我偷着去看了一下,两边会场人数平分秋色。Tim 之前的精心准备很值得。

再次利用主持人的便利鼓动大家支持技术图书出版行业,也帮着会场外面的多背一公斤宣传了一下。

说说 24 号晚场的技术沙龙吧。最近自己似乎有转向娱乐圈的趋势,在前一段时间的数据库会议上客串了一次技术沙龙的主持人的活儿,不到一个月,这又硬着头皮做了一回主持人。老实说,做这样的事情对我来说是挺煎熬的。前20分钟,自己也感觉比较平淡;中间阶段互动问答也稍微有点温吞;后半段讨论到各公司的开源项目的时候才真的有感觉了。会上不少公司都非正式的宣布了接下来都会有一些开源项目要回馈给社区,其实也是各家公司对于开放(Open)的认识与认同。要感谢参加沙龙的各位嘉宾以及一起参与互动的各大公司的朋友们! 这是一个美妙的夜晚。

25 号这一天,下午要赶着回去,淘宝赵泽欣(小马,@zhaozexin)的演讲《淘宝网前端应用与发展》没有听完就走了,挺遗憾。这里透漏一个趣事:我在会场里看到小马的时候差不多都是在改进自己的 PPT,可能这也是 UED 人的一个特质吧。

出于技术方向的原因,这次会议也错过了好几场很重要的演讲,像邓草原( @dcaoyuan )大侠布道Scala与Erlang、熊节( @gigix )分享敏捷改造的经验、蔡学镛(@KongXuan)分享复杂事件处理(CEP)等等话题,听多位朋友的反馈都是非常的好。 Douglas Crockford 的压轴演讲据说也是相当的精彩,从 Twitter 上的火爆讨论可见一斑。

恭贺 InfoQ 成功举办了这次技术盛会。600 余技术人济济一堂。感谢泰稳 @taiwen)的努力。

自己的另外一个感慨是,英语交流能力太差了,错过了和国外技术大牛的深入交流。

总算一点点写完了这次 QCon 的流水帐。对于墙内的用户,建议也不妨翻墙搜索一下 Twitter 上 #QCon 的内容,不同人眼中的 QCon 是怎样的,非常有趣。经过我的测试,用 Dabr 的代理似乎搜索 HashTag 快一点(你懂的)。

下一次 QCon 我会以另外的身份参加了。

EOF

如果你也是 QCon 参会者且是 Twitter 用户,不妨参加一下这个”QCon Beijing 参会推友小调查“(非官方)

Google+
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一个可能的 Python 实现代码,仅供参考: ```python import requests from bs4 import BeautifulSoup import pkuseg import matplotlib.pyplot as plt from wordcloud import WordCloud # 确定数据源 brand = "宝马5系" url_template = "https://www.dongchedi.com/koubei/{}?page={}" # 获取数据 questions = [] for month in range(1, 13): url = url_template.format(brand, month) for page in range(1, 11): page_url = url + "&sort=1&tp=3&page=" + str(page) response = requests.get(page_url) soup = BeautifulSoup(response.text, "html.parser") items = soup.select(".koubei-list > .item") if not items: break for item in items: question = item.select_one(".qcon > a").text.strip() questions.append(question) # 分词 seg = pkuseg.pkuseg() words = [] for question in questions: words.extend(seg.cut(question)) nouns = [word for word in words if word.isalnum() and word[0].isupper()] # 统计词频 word_count = {} for noun in nouns: if noun not in word_count: word_count[noun] = 0 word_count[noun] += 1 # 可视化 top_n = 10 top_words = sorted(word_count.items(), key=lambda x: x[1], reverse=True)[:top_n] labels, values = zip(*top_words) plt.bar(labels, values) plt.xticks(rotation=45) plt.title("Top {} Nouns for {}".format(top_n, brand)) plt.show() # 词云图 wordcloud = WordCloud(background_color="white").generate(" ".join(nouns)) plt.imshow(wordcloud, interpolation='bilinear') plt.axis("off") plt.show() ``` 其中,我们使用 pkuseg 分词包进行分词处理,使用 Matplotlib 库绘制柱状图展示频率最高的前十个名词,使用 WordCloud 库绘制词云图。 注意,该代码仅供参考,具体的实现方式还需要根据实际情况进行调整和改进。在编写爬虫程序时,需要注意遵守网站的 robots.txt 规定,不要过度频繁地访问同一网站,以免给网站带来过大的负担。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值