Facebook爬虫:facebook-graphql-scraper

希望可以獲得回饋, 任何意見都是我學習的動力

Github連結

GitHub link

簡介

搜集Facebook用戶指定天數內的貼文, 用戶不限於: 粉絲專頁, 一般使用者, 社團等,

可以選擇登入帳號去搜集貼文或是不登入,必須設定driver.

安裝

pip install facebook-graphql-scraper

參數

1. facebook_username, facebook_user_id: 設定爬取目標帳號的username或userID

2. driver_path: chrome driver路徑

3. days_limit: 取得幾日內的貼文

4. display_progress: 是否顯示爬蟲進度

5. fb_account: 您的facebook帳號

6. fb_pwd: 您的facebook密碼

Demo.1 - 免登入帳號

# -*- coding: utf-8 -*-
from fb_graphql_scraper.facebook_graphql_scraper import FacebookGraphqlScraper as fb_graphql_scraper


# Example.1 - without logging in

facebook_user_name = "love.yuweishao"
facebook_user_id = "100044253168423"
days_limit = 30 # Number of days within which to scrape posts

driver_path = "/Users/renren/Desktop/FB_graphql_scraper拷貝/fb_graphql_scraper/resources/chromedriver-mac-arm64/chromedriver" 

fb_spider = fb_graphql_scraper(driver_path=driver_path)
res = fb_spider.get_user_posts(fb_username_or_userid=facebook_user_name, days_limit=days_limit,display_progress=True)
print(res)

Demo.2 - 登入帳號

# -*- coding: utf-8 -*-
from fb_graphql_scraper.facebook_graphql_scraper import FacebookGraphqlScraper as fb_graphql_scraper


# Example.1 - without logging in

facebook_user_name = "love.yuweishao"
facebook_user_id = "100044253168423"
fb_account = "facebook_account"
fb_pwd = "facebook_password"
days_limit = 30 # Number of days within which to scrape posts

driver_path = "/Users/renren/Desktop/FB_graphql_scraper拷貝/fb_graphql_scraper/resources/chromedriver-mac-arm64/chromedriver" 

fb_spider = fb_graphql_scraper(fb_account=fb_account,fb_pwd=fb_pwd,driver_path=driver_path)
res = fb_spider.get_user_posts(fb_username_or_userid=facebook_user_name, days_limit=days_limit,display_progress=True)
print(res)

Result

{'fb_username_or_userid': 'love.yuweishao',
 'profile': ['任何工作事宜請洽 高先生',
  '聯絡信箱:hawa00328@gmail.com',
  '聯絡電話:0975-386-266',
  '粉絲專頁',
  ' · 演員',
  'hawa00328@gmail.com',
  '1,497,248 位追蹤者'],
 'data': [{'post_id': '993720562113040',
   'post_url': 'https://www.facebook.com/993720562113040',
   'username_or_userid': 'love.yuweishao',
   'owing_profile': {'__typename': 'User',
    'name': '邵雨薇',
    'short_name': '邵雨薇',
    'id': '100044253168423'},
   'published_date': Timestamp('2024-04-24 17:42:14'),
   'published_date2': '2024-04-24',
   'time': 1713980534,
   'reaction_count.count': 3884,
   'comment_rendering_instance.comments.total_count': 34,
   'share_count.count': 10,
   'sub_reactions': {'讚': 3652, '大心': 226, '加油': 5, '哈': 1},
   'context': 'breathe and life',
   'video_view_count': nan},
  {'post_id': '993371658814597',
   'post_url': 'https://www.facebook.com/993371658814597',
   'username_or_userid': 'love.yuweishao',
   'owing_profile': {'__typename': 'User',
    'name': '邵雨薇',
    'short_name': '邵雨薇',
    'id': '100044253168423'},
   'published_date': Timestamp('2024-04-24 03:55:34'),
   'published_date2': '2024-04-24',
   'time': 1713930934,
   'reaction_count.count': 5043,
   'comment_rendering_instance.comments.total_count': 41,
   'share_count.count': 29,
   'sub_reactions': {'讚': 4632, '大心': 397, '加油': 8, '哇': 4, '哈': 2},
   'context': '夏季的雨天總讓人難以預期\n每日帶不帶傘的莫非定律 \n空間裡的黏膩和潮濕點滴\n通通都被D-26匯集在一起\n陰晴不定的天氣就交給最懂你的HYD❤️\n\nhttps://reurl.cc/Gjd9nv\nHYD 品宅趣\n#HYD #雙效清淨 #輕量設計 #除濕機',
   'video_view_count': nan},
  {'post_id': '992770662208030',
   'post_url': 'https://www.facebook.com/992770662208030',
   'username_or_userid': 'love.yuweishao',
   'owing_profile': {'__typename': 'User',
    'name': '邵雨薇',
    'short_name': '邵雨薇',
    'id': '100044253168423'},
   'published_date': Timestamp('2024-04-23 04:33:52'),
   'published_date2': '2024-04-23',
   'time': 1713846832,
   'reaction_count.count': 3286,
   'comment_rendering_instance.comments.total_count': 32,
   'share_count.count': 5,
   'sub_reactions': {'讚': 3150, '大心': 61, '加油': 59, '嗚': 13, '哇': 2, '哈': 1},
   'context': None,
   'video_view_count': nan},
  {'post_id': '992336592251437',
   'post_url': 'https://www.facebook.com/992336592251437',
   'username_or_userid': 'love.yuweishao',
   'owing_profile': {'__typename': 'User',
    'name': '邵雨薇',
    'short_name': '邵雨薇',
    'id': '100044253168423'},
   'published_date': Timestamp('2024-04-22 09:57:32'),
   'published_date2': '2024-04-22',
   'time': 1713779852,
   'reaction_count.count': 11892,
   'comment_rendering_instance.comments.total_count': 102,
   'share_count.count': 31,
   'sub_reactions': {'讚': 11164, '大心': 701, '加油': 15, '哈': 6, '哇': 5, '嗚': 1},
   'context': '母が撮った写真はとてもきれいです.🌸',
   'video_view_count': nan},
  {'post_id': '991854065633023',
   'post_url': 'https://www.facebook.com/991854065633023',
   'username_or_userid': 'love.yuweishao',
   'owing_profile': {'__typename': 'User',
    'name': '邵雨薇',
    'short_name': '邵雨薇',
    'id': '100044253168423'},
   'published_date': Timestamp('2024-04-21 12:34:39'),
   'published_date2': '2024-04-21',
   'time': 1713702879,
   'reaction_count.count': 5250,
   'comment_rendering_instance.comments.total_count': 43,
   'share_count.count': 13,
   'sub_reactions': {'讚': 4873, '大心': 364, '加油': 6, '哈': 4, '哇': 3},
   'context': '愛生活也愛工作🖤\n\n@michaelkors \n#MichaelKors',
   'video_view_count': nan}]
}

  • 5
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Python Facebook Scraper是一个用Python编写的工具,用于从Facebook上获取数据。它利用Facebook的公共API,通过网络请求获取用户、页面、帖子等信息。 使用Python Facebook Scraper可以实现以下功能: 1. 用户信息获取:可以获取用户的个人资料、朋友列表、相册照片等信息,并可以进行分析和处理。 2. 页面信息获取:可以获取Facebook页面的基本信息、粉丝数量、发布的帖子等。这对于企业、组织或品牌来说,可以帮助他们分析页面活跃度以及吸引力。 3. 帖子信息获取:可以获取用户或页面发布的帖子的详细信息,包括内容、评论、点赞数等。这对于市场推广、舆情监测等方面有很大的价值。 Python Facebook Scraper的使用方法相对简单,只需要安装相关的Python库,并编写相应的代码即可。它提供了丰富的API接口,可以根据需求灵活选择获取的数据类型和条件。 不过需要注意的是,在使用Python Facebook Scraper进行数据获取时,需要遵守Facebook的使用政策,并尊重用户的隐私和数据安全。同时,由于Facebook的API接口经常更新,所以在使用Python Facebook Scraper时,需要持续关注相关的更新和变化,确保代码的稳定性和兼容性。 总之,Python Facebook Scraper是一个功能强大的工具,可以帮助用户从Facebook上获取数据,并进行进一步的处理和分析。它在社交媒体营销、舆情分析等方面有着广泛的应用前景。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值