高仿知乎日报(Material Design + MVP + RxJava + Retrofit)


高仿知乎日报(Material Design + MVP + RxJava + Retrofit)


转载地址 :http://www.qingpingshan.com/rjbc/az/203718.html

准备转行Android,做了一个 高仿的知乎日报客户端 练手,目前完成了大部分基本功能,记录一下开发过程中学习的资料(文中大部分资料链接均来自简友 G军仔 同学的这篇好文)及踩过的坑,拿出来跟大家分享一下,要是能给大家带来一些帮助,我深感荣幸。Android开发的路程遥远又艰辛,希望寻到有理想有毅力的同学组个队,一起学习,一起进步。

源码链接

https://github.com/yiyibb/Zhihu

截图

参考的项目

  • Elephant

    这是一个非常优秀的项目,同样是使用了如今的安卓开发三剑客的开源项目,参考了许多,特此感谢。

  • MVP

    这是一个可以快速实现快捷开发的开源库,支持直接引用实现快速 Material Design + MVP + Rxjava + Retrofit + Okhttp + Glide 开发,其中核心库封装的非常好,同样了参考了许多,特此感谢。

  • baseAdapter

    这是鸿洋大神封装的一个万能adapter,我项目中对于多个类型item的recyclerView的实现便是使用的该库,学习了很多,鸿洋大神的demo比较简单,如果感觉理解困难的话可以看下 AdapterDelelgates 这个开源库,鸿洋大神也有提到。

Rxjava 相关资料

这部分内容实在是一言难以概括,网上流传的相关文章数不胜数,这里极力推荐一篇我认为最适合像我一样的初学者刷上几十遍的文章:

Retrofit2 相关资料

Retrofit是一个非常优秀的网络请求库(废话谁不知道/(ㄒoㄒ)/~~),使用起来非常简单,这里放上Retrofit的官网以及 Jake Wharton 大神的视频介绍。

MVP

关于MVP相关的学习看下面这篇文章就够了,实战可以参考谷歌官方放出的demo,在上文放出的两个项目中也有很好的实现。

踩坑日记

资料放的差不多了,现在来说下踩过的坑,希望能够帮助同样遇到这些问题的人比我更快的解决问题。

Activity 切换 Fragment 时 toolbar 上的 item 显示混乱

解决方法: 不要调用 setSupportActionBar() 方法,toolbar 可以作为一个插件使用,通过 findViewById() 方法获取后设置相应的item的visible属性即可实现切换 Fragment 设置不同的 item 项。

toolbar menu 上自定义 item 的实现

解决方法:说到自定义肯定第一时间想到自己写个menu布局文件,调用toolbar的 inflateMenu() 方法来加载,其实不用这么麻烦,MenuItem 有一个 app:actionProviderClass 属性,可以加载自定义的view。(但是写下来好像也差不多麻烦 :-D)

日夜模式的切换

源码中该功能只开了个头,一开始参考的是简友 D_clock爱吃葱花 的 知乎和简书的夜间模式实现套路 这篇文章,但是后来放弃了,因为当内容较多时需要修改太多的xml文件,个人感觉有些麻烦,当然还是很佩服这样的奇淫巧技。在此推荐另一位简友_SOLID 的文章 Android主题换肤 无缝切换 文中介绍了一种换肤框架的实现思路,个人认为写的极为友好,文中的方法个人认为是一劳永逸的。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是Python爬取知乎数据的代码实现,其中使用了八爪鱼爬虫工具和数据预处理库pandas: ```python import requests import json import pandas as pd from octopus import Octopus # 设置请求头信息 headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 Edge/16.16299' } # 构造请求url def get_url(keyword, offset): url = 'https://www.zhihu.com/api/v4/search_v3?t=general&q={}&correction=1&offset={}&limit=20&lc_idx=0&show_all_topics=0&search_hash_id='.format(keyword, offset) return url # 爬取知乎数据并保存为json文件 def crawl_data(keyword): otto = Octopus( concurrency=8, auto_start=True, expiration_in_seconds=120, raise_all_exceptions=True, worker_lifespan_in_seconds=120 ) result = [] for i in range(0, 100, 20): url = get_url(keyword, i) otto.enqueue(get_data, url) otto.wait() for res in otto.results(): result += res with open('zhihu.json', 'w', encoding='utf-8') as f: json.dump(result, f, ensure_ascii=False) # 解析json文件并使用pandas进行数据预处理 def process_data(): with open('zhihu.json', 'r', encoding='utf-8') as f: data = json.load(f) results = [] for item in data: result = {} result['问题'] = item['highlight']['title'] result['链接'] = 'https://www.zhihu.com/question/{}'.format(item['object']['question']['id']) result['答案'] = item['highlight']['description'] results.append(result) df = pd.DataFrame(results) df.to_excel('zhihu.xlsx', index=False) # 获取数据 def get_data(url): response = requests.get(url, headers=headers) data = response.json()['data'] result = [] for item in data: if item['object']['type'] == 'answer': result.append(item) return result if __name__ == '__main__': crawl_data('Python') process_data() ``` 此代码实现了爬取知乎关于“Python”的数据,并将数据保存成json文件,再使用pandas进行数据预处理,最终将结果保存成Excel文件。你可以根据自己的需求修改关键词以及保存的文件格式。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值