成都商业贷款买新房,取公积金流程

官网是这么说的http://www.cdzfgjj.gov.cn/bwzn/ywzn/cqyw/zfxblcq/1008.htm

一、提取证明材料:
(一)房屋地址在成都市行政区域内提供:
1.房管部门备案登记的《商品房买卖合同》;
2.购房款发票或收据。

房子是成都市的

必备资料: 1、购房发票(找开发商要) 或是 首付收据(收据就是你交首付时开的,收据必须鲜章,红红的鲜章)
                    2、公证书(这个就是你跟银行签订的贷款合同那个,要贷款下来后银行寄给你的,到付哈,你打电话问公积金中心,他会说不需要,但到时就呵呵了)
                    3、房管部门备案登记的《商品房买卖合同》(这个是你贷款下来后去找开发商要的,一张纸,我拿到的是3张一样的)
                    4、和开发商签订的购房预售合同,还有一个购房合同,都带上
                    5、身份证
                    6、住房公积金银行卡

    不想麻烦的话,资料一个不能少!开发商有的开发票,有的收据,有的回执单,每种情况需要的资料都不一样。我叫公积金中心把这些不同情况都整个说明,他们说情况太多不好整,莫法,我自己总结个,带上所有资料,什么情况都搞定,这是血的总结啊,哈哈。

    如果公积金账户里有几个账户,比如一个封存账户,一个正常现在在缴费的账户,都是可以取的,封存的没有离职证明只能取到百位,也就是少于100的钱取不出来。现在的账户只能取这个月以前的,我是以给首付名义取的。

    去取公积金最好早点,人多且处理慢,上午3个小时,估计只能处理80个人左右,我第一次去排到215号,下午4点多才等到我,结果差资料,第二次我9点就去了,35号,等到11点多,号分ABC,处理不同业务吧,反正处理确实慢,但是工作人员服务态度确实好,我因为资料的问题很生气,他们都是很有耐心的在解释,但服务确实慢,慢的原因就是资料不齐,万科也是坑爹的,首付收据的章居然不是鲜章。

    万科的人要注意:成都万科的房没有收据,只有回执单,回执单上的章绝对不是鲜章,所以取首付公积金只能要临时发票,临时发票又是全部房款的发票,所以你必须带上公证书。要发票找你的销售,必须他发了邮件,万科财务才会跟你准备发票,周期一周,成都万科财务电话02884096444转63330。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,我可以为您提供一些关于使用Scrapy爬贝壳新房信息的指导。 首先,您需要安装Scrapy。在命令行中运行以下命令: ```python pip install scrapy ``` 接下来,您需要创建一个新的Scrapy项目。在命令行中,进入您想要存储项目的目录,然后运行以下命令: ```python scrapy startproject beike ``` 这将创建一个名为“beike”的新Scrapy项目。然后,您需要创建一个新的Spider来爬贝壳新房信息。在命令行中,进入您的项目目录,然后运行以下命令: ```python scrapy genspider beike_spider beike.com ``` 这将创建一个名为“beike_spider”的新Spider,并将其链接到“beike.com”网站。 接下来,在您的Spider中,您需要定义如何爬贝壳新房页面。以下是一个示例实现: ```python import scrapy class BeikeSpider(scrapy.Spider): name = 'beike_spider' start_urls = ['https://newhouse.fang.com/house/s/'] def parse(self, response): for house in response.css('div.nhouse_list ul li'): yield { 'name': house.css('div.house_title a::text').get(), 'price': house.css('div.nhouse_price span::text').get(), } next_page = response.css('div.housetype_page a.next::attr(href)').get() if next_page is not None: yield response.follow(next_page, self.parse) ``` 这个Spider将从“https://newhouse.fang.com/house/s/”页面开始,然后找到页面中的每个新房,并提名称和价格信息。然后,它将翻页并继续提信息,直到没有更多页面可用。 最后,您可以在命令行中运行以下命令来运行您的Spider并将结果保存到CSV文件中: ```python scrapy crawl beike_spider -o beike.csv ``` 这将运行您的Spider,并将提的信息保存到名为“beike.csv”的文件中。 希望这些指导能够帮助您开始使用Scrapy爬贝壳新房信息!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值