Array_NC95

描述

给定无序数组arr,返回其中最长的连续序列的长度(要求值连续,位置可以不连续,例如 3,4,5,6为连续的自然数)

解题

Solution1

/**
 *求数组中最长的连续子序列
 * 集合方法求解
 */
​
import java.util.HashSet;
import java.util.Set;
​
public class Solution {
    public int MLS(int[] arr){
        if (arr.length==0) return 0;
        int max=1;
        Set<Integer> set = new HashSet<>(); //定义集合
        for (int num:arr){
            set.add(num);//将数据加载进集合
        }
        for (int num:arr){
            if (set.contains(num-1)) continue;//查找连续子序列的头
            int start = num;
            while (set.contains(start+1)){
                start++;//计算连续子序列的长度
            }
            max=Math.max(max,start-num+1);
        }
        return max;
    }
}

Solution2

/**
 *求数组中最长的连续子序列
 * 数组排序方法求解
 */
​
import java.util.Arrays;
​
public class Solution2 {
    public int MLS(int[] arr){
        if (arr.length==0) return 0;
        Arrays.sort(arr);//调用数组排序函数
        int count=1;
        int result=1;
        for (int i = 0; i < arr.length-1; i++) {
            if(arr[i+1]-arr[i]==1){
                count++;//连续子序列的长度
            }else if (arr[i+1]-arr[i]==0){
                continue;
            }else {
                count=1;//更新连续子序列
            }
            result=Math.max(result,count);
        }
        return result;
    }
}

Solution3

/**
 *求数组中最长的连续子序列
 * 哈希表方法求解
 * 表的键即元素值,表键值即自身所在连续子序列的长度
 */
​
import java.util.HashMap;
​
public class Solution3 {
    public int MLS(int[] arr){
        if (arr.length==0) return 0;
        HashMap<Integer,Integer> map=new HashMap<>();//哈希表
        int max=0;
        for(int num:arr){
            if(!map.containsKey(num)){//存入表
                int prelen=map.get(num-1)==null? 0:map.get(num-1);//若左边连续则返回左边连续子序列的长度
                int nexlen=map.get(num+1)==null? 0:map.get(num+1);//若右边连续则返回右边连续子序列的长度
                int curlen=prelen+1+nexlen;//当前连续子序列的长度
                map.put(num,curlen);
                max=Math.max(max,curlen);//求最长子序列
                map.put(num-prelen,curlen);//更新序列头
                map.put(num+nexlen,curlen);//更新序列尾
            }
        }
        return max;
    }
}

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
class NLayerDiscriminator(nn.Module): def init(self, input_nc=3, ndf=64, n_layers=3, norm_layer=nn.BatchNorm2d, use_sigmoid=False, use_parallel=True): super(NLayerDiscriminator, self).init() self.use_parallel = use_parallel if type(norm_layer) == functools.partial: use_bias = norm_layer.func == nn.InstanceNorm2d else: use_bias = norm_layer == nn.InstanceNorm2d self.conv1 = nn.Conv2d(input_nc, ndf, kernel_size=3, padding=1) self.conv_offset1 = nn.Conv2d(input_nc, 18, kernel_size=3, stride=1, padding=1) init_offset1 = torch.Tensor(np.zeros([18, input_nc, 3, 3])) self.conv_offset1.weight = torch.nn.Parameter(init_offset1) # 初始化为0 self.conv_mask1 = nn.Conv2d(input_nc, 9, kernel_size=3, stride=1, padding=1) init_mask1 = torch.Tensor(np.zeros([9, input_nc, 3, 3]) + np.array([0.5])) self.conv_mask1.weight = torch.nn.Parameter(init_mask1) # 初始化为0.5 kw = 4 padw = int(np.ceil((kw-1)/2)) nf_mult = 1 for n in range(1, n_layers): nf_mult_prev = nf_mult nf_mult = min(2n, 8) self.sequence = [ nn.Conv2d(ndf * nf_mult_prev, ndf * nf_mult, kernel_size=kw, stride=2, padding=padw, bias=use_bias), norm_layer(ndf * nf_mult), nn.LeakyReLU(0.2, True) ] nf_mult_prev = nf_mult nf_mult = min(2n_layers, 8) self.sequence += [ nn.Conv2d(ndf * nf_mult_prev, ndf * nf_mult, kernel_size=kw, stride=1, padding=padw, bias=use_bias), norm_layer(ndf * nf_mult), nn.LeakyReLU(0.2, True) ] self.sequence += [nn.Conv2d(ndf * nf_mult, 1, kernel_size=kw, stride=1, padding=padw)] if use_sigmoid: self.sequence += [nn.Sigmoid()] def forward(self, input): offset1 = self.conv_offset1(input) mask1 = torch.sigmoid(self.conv_mask1(input)) sequence1 = [ torchvision.ops.deform_conv2d(input=input, offset=offset1, weight=self.conv1.weight, mask=mask1, padding=(1, 1)) ] sequence = sequence1 + self.sequence self.model = nn.Sequential(*sequence) return self.model(input),上述代码出现问题:TypeError: torch.cuda.FloatTensor is not a Module subclass,如何修改
最新发布
05-30

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值