推特Twitter数据采集(内容,粉丝,关键字等)

(有需求可以私信我,24小时在线蟹蟹)

最近因为工作需要爬虫了一段时间推特。

Twitter网站是用AJAX异步加载的,用request请求到json文件的数据url也是拒绝的

所以只能慢慢模拟浏览器下滑慢慢加载json文件咯(当然我没有用类似于selenium一类的库,效率太低)

举个例子:

我们需要爬trump的1000条推特,输入以下命令就行了

 
 

GetOldTweets3 --usename "realDonaldTrump" --toptweets --maxtweets 100

爬虫结果如下(因为用windows系统需要fanqiang,所以直接在linux下使用了)

用python代码读一下csv文档(穷苦民众只能买没有图形界面的服务器):

 
 

import csv import pandas as pd df=pd.read_csv("/opt/test/output_got.csv") print(df)

 

 


 

 

再比如,我们想检索在推特上搜索 “changsha”的新闻

 
 

GetOldTweets3 --qsearch " changsha " --maxtweets 10

没什么问题,如果在windows系统下不能使用可以私信我或者应该是被墙住了吧。

优秀的程序员我觉得就是要一键和兼容 ,具体怎么使用看看我写的readme就行了

具体github地址如下:

Solin1998/SearchTT​github.com图标

https://github.com/Solin1998/SearchTT

 

希望各位有需要的老哥可以fork我一下,谢谢!!!!对我蛮重要的,感恩!


 

当然,情感分析,事件抽取一类的事情我也做不来,只是做了一部分原始数据的来源爬虫,

有时间应该会更新看有没有办法绕过twitter开发者账号比如爬取关注的人,多级关注等


有个老哥私信我好几次了,你先用这个代码爬一下关注者和评论信息吧,json格式的

import ssl import json import urllib.request from bs4

import BeautifulSoup from urllib.request

import urlopen

ssl._create_default_https_context = ssl._create_unverified_context

import tweepy

#这个账号自己去申请,不好意思哦

consumer_key = 'lr7GQ6kTaSBkjQV'

consumer_secret = 'oxrXDT8TxsYRqIfk0k7vsX6zHyHSZ7fwZR'

access_token = '3388759955-FOU7cDJApQLDRjIbvICPCJtT5'

access_token_secret = 'qEvay5uQUxt0sTlHclSeI1KrblHJR8X'

auth = tweepy.OAuthHandler (consumer_key, consumer_secret) auth.set_access_token (access_token, access_token_secret)

api = tweepy.API (auth)

api = tweepy.API(auth, wait_on_rate_limit=True) results=api.friends(id="markturnery2k") #id就是你要查的user_id print(results)

最后,本人还整理了一推特粉丝排名,如中文用户排名,热点事件参与等等..

有需求可以私信本人邮箱:darkfantastic@163.com

chat:374572744

  • 8
    点赞
  • 37
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用Python爬取Twitter数据可以通过以下步骤进行: 1. 安装Tweepy库:Tweepy是一个用于对Twitter API进行身份验证和访问的库。可以使用pip命令进行安装。 2. 创建Twitter开发者账户:在https://developer.twitter.com/ 上创建一个开发者账户并创建一个应用程序。 3. 获取API密钥和访问令牌:在Twitter开发者账户中创建的应用程序中,获取API密钥、API密钥密钥、访问令牌和访问令牌密钥。 4. 身份验证:使用Tweepy库中的OAuthHandler类实现身份验证,并使用上一步获得的API密钥和访问令牌进行授权。 5. 创建API对象:通过使用Tweepy库提供的API类创建一个API对象,该对象可以用于与Twitter API进行交互。 6. 设置搜索条件:使用Tweepy库提供的方法设置搜索条件。例如,可以使用api.search方法来搜索特定话题或特定用户的推文。 7. 获取推文:使用api.search方法获取符合搜索条件的推文。可以指定返回的推文数量和其他参数。 8. 处理推文数据:可以使用Python的各种文本处理库来处理推文数据。例如,可以使用正则表达式来提取URL、标记和其他有用的信息。 9. 存储数据:可以将处理后的推文数据保存到文件或数据库中,以供后续使用或分析。 10. 控制爬取速度:为了避免对Twitter的负面影响,可以在爬取时间的间隔中使用适当的延迟,以减少对API的请求次数。 11. 异常处理:考虑到网络连接和API限制等问题,应该对可能出现的异常进行适当的处理,以确保爬取的顺利进行。 总结,使用Python爬取Twitter数据需要安装Tweepy库、进行身份验证和创建API对象、设置搜索条件、获取推文、处理数据、存储数据、控制爬取速度和处理异常。这些步骤可以帮助我们有效地获取和分析Twitter数据。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值