链家笔试题小记

链家笔试题小记

前言:2017年8月19号晚参加了链家的笔试,在这里把编程题记录一下。由于时间关系,具体题目已经记不太清了,只依稀地记得两道题。

题目1

题目描述

小组编号问题。输入一组数【2,7,3,4,9】,表示第一组有2个人,编号为【1、2】,第二组有7个人编号为【3~9】,第三组有3个人编号为【10~12】,第四组有4个人编号为【13~16】,第五组有9个人编号为【17~25】。

现在求,编号为1、25、11的人分别在哪个组里。

示例:
输入
5
2 7 3 4 9
3
1 25 11

输出
1 5 3

思路:

第一个想法就是计数问题,依次累加小组成员数,如果组员数刚好大于等于编号,则输出当前组。比如现在求编号为11的人在哪个组。第一组有2个人,第二组有7个人,第三组有3个人,2 + 7 + 3 > 11 所以11在第三组里。感觉比不是很好的思路,每次都需要从头开始累加,计算量较大。反正先AC再说。

import java.util.Scanner;

public class Main{

    public static int[] solution(int[] arr, int[] query) {
        int[] result = new int[query.length];
        for(int i = 0; i < query.length; i++) {
            int sum = 0;
            for(int j = 0; j < arr.length; j++) {
                sum += arr[j];
                if(sum >= query[i]) {
                    result[i] = j+1;
                    break;
                }
            }
        }
        return result;
    }

    public static void main(String[] args){
        Scanner sc = new Scanner(System.in);
        while (sc.hasNext()) {
            int n = sc.nextInt();
            int[] arr = new int[n];            
            for(int i = 0; i < n; i++) {
                arr[i] = sc.nextInt();
            }
            int m = sc.nextInt();
            int[] query = new int[m];
            for(int i = 0; i < m; i++) {
                query[i] = sc.nextInt();
            }
            int[] result = solution(arr, query);
            for(int i = 0; i < m; i++) {
                System.out.println(result[i]);    
            }
        }
        sc.close();
    }
}

题目2

题目描述

有一些数字,相互之间可能有重复,现在要对这些数进行去重,去重后还要排序。数字个数最多为1000个。
输出去重后的数字个数,并且输出排序后的数字

示例:
输入
10
20 30 40 50 60 70 80 20 30 40

输出
7
20 30 40 50 60 70 80

思路1:

用HashSet先去重,然后再对HashSet进行排序。

思路2:

桶排序的思想,由于最多1000个数,那就设置1000个bin。

import java.util.LinkedList;
import java.util.Scanner;

public class Main{

    // 方法1.使用HashSet解决去重的问题,然后排序
    // 方法2.可以使用类似桶排序的思想,这里采用方法2
    public static LinkedList<Integer> solution(int[] arr) {
        final int NUM = 1000;
        int[] bucket = new int[NUM];
        for(int i = 0; i < arr.length; i++) {
            int index = arr[i]-1;
            if(bucket[index] == 0) {
                bucket[index]++;
            }
        }

        // 遍历bucket,构造返回结果
        LinkedList<Integer> list = new LinkedList<>();
        for(int i = 0; i < NUM; i++) {
            if(bucket[i] == 1) {
                list.add(i + 1);
            }        
        }

        return list;
    }

    public static void main(String[] args){
        Scanner sc = new Scanner(System.in);
        while (sc.hasNext()) {
            int n = sc.nextInt();
            int[] arr = new int[n];            
            for(int i = 0; i < n; i++) {
                arr[i] = sc.nextInt();
            }            
            LinkedList<Integer> result = solution(arr);         
            int len = result.size();
            System.out.println(len);   
            for(int i = 0; i < len - 1; i++) {
                System.out.print(result.removeFirst() + " ");    
            }
            System.out.println(result.removeFirst());
        }
        sc.close();
    }
}

注:学渣心里苦,不要学楼主,平时不努力,考试二百五,哭~

这里写图片描述

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
在利用Python进行爬虫并进行链家网数据分析时,可以按以下步骤进行操作: 1. 爬虫部分: 首先,我们需要设置爬虫的目标网址为链家网二手房页面的URL,比如[https://sh.lianjia.com/ershoufang/pg](https://sh.lianjia.com/ershoufang/pg)。通过使用Python的request库发送HTTP请求获取网页内容,可以使用以下代码示例进行网页爬取: ``` import urllib.request def askURL(url): head = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/96.0.4664.45 Safari/537.36" } request = urllib.request.Request(url, headers=head) html = "" try: response = urllib.request.urlopen(request) html = response.read().decode("utf-8") except urllib.error.URLError as e: if hasattr(e, "code"): print(e.code) if hasattr(e, "reason"): print(e.reason) return html ``` 以上代码中的`askURL`函数可以用于向链家服务器发送HTTP请求并获取网页内容。注意,我们在请求头中加入了"User-Agent"字段来模拟浏览器,以避免被网站禁止访问。 2. 数据解析与存储: 接下来,我们需要对爬取到的网页内容进行解析并提取所需的信息。这可以使用Python的解析库(如BeautifulSoup、XPath等)来实现。具体的解析方法和步骤需要根据链家网二手房页面的HTML结构进行调整,以提取出所需的房源信息。 最后,可以将提取到的房源信息存储到本地文件(如CSV、Excel等格式)或数据库中,以便后续的数据分析使用。 3. 爬虫伪装: 由于我们是爬虫,为了避免被网站禁止访问,我们需要给爬虫添加一些伪装措施。其中一个常见的方法是设置合适的请求头,模拟浏览器的请求。在上述代码示例中,我们已经给请求头中的"User-Agent"字段设置了一个合适的值。这样,我们就能够让链家服务器认为我们是来自浏览器的访问,减少被封禁的风险。 总结: 通过Python爬虫技术,结合链家网的二手房页面URL,我们可以编写代码实现爬取链家网上的房源信息并进行数据分析。首先,使用`askURL`函数发送HTTP请求获取网页内容;然后,使用解析库对网页内容进行解析,提取所需信息;最后,将提取的信息进行存储,方便后续的数据分析使用。同时,为了避免被封禁,我们可以使用伪装措施,如设置合适的请求头信息。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值