python 流写入文件_PythonAPI流式处理,在特定大小后写入新文件

我有一个python脚本,它维护与Twitter流式API的开放连接,并将数据写入json文件。在当前正在写入的文件达到一定大小后,是否可以在不中断连接的情况下写入新文件?例如,我只是流式传输了一个多星期的数据,但是所有的数据都包含在一个文件中(~2gb),这使得它很难解析。如果我可以在之后写入一个新文件,比如500mb,那么我将有4个较小的文件(例如dump1.json、dump2.json等)来解析,而不是一个大文件。在import tweepy

from tweepy import OAuthHandler

from tweepy import Stream

from tweepy.streaming import StreamListener

# Add consumer/access tokens for Twitter API

consumer_key = '-----'

consumer_secret = '-----'

access_token = '-----'

access_secret = '-----'

auth = OAuthHandler(consumer_key, consumer_secret)

auth.set_access_token(access_token, access_secret)

api = tweepy.API(auth)

# Define streamlistener class to open a connection to Twitter and begin consuming data

class MyListener(StreamListener):

def on_data(self, data):

try:

with open('G:\xxxx\Raw_tweets.json', 'a') as f:

f.write(data)

return True

except BaseException as e:

print("Error on_data: %s" % str(e))

return True

def on_error(self, status):

print(status)

return True

bounding_box = [-77.2157,38.2036,-76.5215,39.3365]#filtering by location

keyword_list = ['']#filtering by keyword

twitter_stream = Stream(auth, MyListener())

twitter_stream.filter(locations=bounding_box) # Filter Tweets in stream by location bounding box

#twitter_stream.filter(track=keyword_list) # Filter Tweets in stream by keyword

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值