python存储大量数据_存储大量数据的最聪明方法

我想用REST请求访问flickrapi并下载大约100万张照片的元数据(可能更多)。

我想将它们存储在一个.csv文件中,然后导入到MySQL数据库中进行进一步处理

我想知道处理如此大的数据最聪明的方法是什么。我不确定的是,在用Python访问网站后,如何存储它们,将它们传递到.csv文件,然后从那里传递到数据库。这是一个很大的问号。在

现在发生的事情(对于我的理解,请参阅下面的代码)是为每个photo创建一个dictionary(每个调用的URL有250个)。这样的话,我最终得到的词典和照片一样多(100万或更多)。有可能吗?

所有这些dictionaries都将被追加到一个列表中。我能把那么多字典加到一个单子上吗?我想将字典追加到列表中的唯一原因是,从列表(每行)保存到.csv文件似乎更容易。在

你应该知道的是,我是一个完全的编程初学者,python等等。我的职业完全不同,我刚刚开始学习。如果你需要进一步的解释,请告诉我!在#accessing website

list = []

url = "https://api.flickr.com/services/rest/?method=flickr.photos.search&api_key=5...1b&per_page=250&accuracy=1&has_geo=1&extras=geo,tags,views,description"

soup = BeautifulSoup(urlopen(url)) #soup it up

for data in soup.find_all('photo'):

dict = {

"id": data.get('id'),

"title": data.get('title'),

"tags": data.get('tags'),

"latitude": data.get('latitude'),

"longitude": data.get('longitude'),

}

print (dict)

list.append(dict)

我正在使用python3.3。我之所以不直接将数据传递到数据库,是因为我无法在OSX10.6上运行PythonConnecterforMySQL数据库。在

非常感谢任何帮助。

谢谢大家!在

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
NOI2006是指2006年的全国信息学奥林匹克竞赛。"聪明的导游"是一道在比赛中出现的题目,需要我们编写程序进行求解和数据分析。 首先,我们需要从官方网站或相关渠道下载与“聪明的导游”题目相关的数据。这些数据可能包括景点的名称、编号、导游线路的长度、舒适度,以及可能的限制条件和特殊要求等。 接下来,我们可以使用编程语言(如C++、Python等)来编写一个程序,对这些数据进行处理和分析。这个问题可以被抽象为一个图论问题,其中景点可以表示为图中的节点,导游线路可以表示为图中的边。 我们可以使用图的遍历算法(如深度优先搜索或广度优先搜索)来寻找最佳的导游线路。我们可以用一个数组和一个矩阵来表示该导游线路,其中数组存储已经访问过的景点,矩阵表示两个不同景点之间的距离。 在程序中,我们可以使用适当的数据结构来存储和处理这些数据,例如数组、图、队列等。我们可以使用动态规划等算法来优化计算效率,从而找到最优的导游线路。 最后,我们可以根据程序的运行结果分析和展示最佳导游线路的路径和特点。我们可以输出导游线路的长度、各个景点的编号和名称,以及其舒适度等信息。 总之,要下载NOI2006比赛中的“聪明的导游”题目数据,我们需要从官方渠道获取相关数据,编写一个程序来处理和分析这些数据,最终找到最佳导游线路的解决方案。通过合理的算法设计和数据结构选择,我们可以有效地解决这个问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值