简评263邮箱

作者:朱金灿

来源:http://blog.csdn.net/clever101

 

         公司内部交流邮箱使用的是263收费邮箱。我对同事说“以我这种非专业的产品设计人员的眼光来看,263邮箱是我见到过的做得最烂的商业邮箱。”

 

        我说这句话是有依据的。首先263邮箱缺乏鲜明的标识。让我们看看一些网站和263邮箱的对比吧:

                                                                             263邮箱


                                                                          163邮箱

                                                                            qq邮箱



                                                                      gmail邮箱


 

        任何一个规范网站或者产品,都有其鲜明的标识,可惜你在263邮箱的页面上看不到(使用的是默认的网页图标)。(这点或许可以归入产品设计人员的常识之列)。在这一点做得最规范的是Gmail邮箱,因为163邮箱和qq 邮箱使用的都是各自公司的标识(qq邮箱其实是有其标识,不过在浏览器的tab栏上还是看不到),而Gmail邮箱并没有使用google公司的标识,而是有其产品的标识。263邮箱则是最差,连公司标识都没打上(我甚至严重怀疑其公司有没有标识)。

 

二.263的背景色调的选择有问题。对比各大邮箱,263的色调显得有点陈旧灰暗,让人提不起心情。163邮箱、qq 邮箱和Gmail邮箱采用的背景色是简洁明快的浅蓝色,不会太刺眼,也不会显得灰暗。贴图对比不出效果。有兴趣的朋友可以对比下。

 

 

 

 









  • 2
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
好的,我会尽力回答你的问题。首先,我们需要安装需要的库,可以在命令行输入以下指令安装: ``` pip install requests pip install beautifulsoup4 pip install openpyxl ``` 接下来,我们可以编写代码来实现爬取豆瓣前250名电影的所有信息。以下是代码示例: ```python import requests from bs4 import BeautifulSoup from openpyxl import Workbook from openpyxl.chart import BarChart, Reference # 请求头,模拟浏览器访问 headers = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3"} # 请求链接 url = "https://movie.douban.com/top250" # 请求参数 params = { "start": 0, "filter": "" } # 爬取数据 movie_data = [] for i in range(10): response = requests.get(url, headers=headers, params=params) soup = BeautifulSoup(response.content, 'html.parser') movies = soup.find_all('div', attrs={'class': 'info'}) for movie in movies: title = movie.find('span', attrs={'class': 'title'}).text rating = movie.find('span', attrs={'class': 'rating_num'}).text quote = movie.find('span', attrs={'class': 'inq'}) if quote: quote = quote.text else: quote = '' movie_data.append([title, rating, quote]) params['start'] += 25 # 存储到excel文件中 wb = Workbook() ws = wb.active ws.title = '豆瓣前250名电影' # 写入表头 ws['A1'] = '电影名称' ws['B1'] = '评分' ws['C1'] = '简评' # 写入数据 for row in movie_data: ws.append(row) # 添加柱状图 chart = BarChart() chart.title = '豆瓣前20名电影评分' chart.y_axis.title = '评分' chart.x_axis.title = '电影名称' data = Reference(ws, min_col=2, min_row=1, max_col=2, max_row=20) cats = Reference(ws, min_col=1, min_row=2, max_row=20) chart.add_data(data) chart.set_categories(cats) ws.add_chart(chart, 'E1') # 保存文件 wb.save('douban_top250_movies.xlsx') print('数据已爬取并保存到excel文件中!') ``` 代码解释: 1. 首先,我们定义了请求头和请求链接,以及请求参数,其中 `start` 参数表示从第几个开始爬取,每次增加25个,最多爬取前250名。 2. 然后,我们使用循环来爬取每一页的数据,通过 BeautifulSoup 库解析 HTML 页面,并使用 find_all 方法查找所有的电影信息。然后,我们找到电影的名称、评分以及简评,并将其存储到一个列表中。 3. 接下来,我们使用 openpyxl 库创建一个工作簿,并创建一个名为“豆瓣前250名电影”的工作表。然后,我们在表头中写入电影名称、评分和简评,并将数据写入工作表中。 4. 最后,我们使用 openpyxl.chart 库创建一个柱状图,并将其添加到工作表中。我们使用 Reference 方法来指定柱状图的数据源和分类标签,并设置图表的标题和轴标签。最后,我们将柱状图添加到工作表中,并保存文件。 5. 运行代码后,数据将被爬取并保存到名为“douban_top250_movies.xlsx”的 excel 文件中,同时也会显示“数据已爬取并保存到excel文件中!”的提示信息。 希望这个回答能够帮到你。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

clever101

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值