滑动窗口法 求解最优子序列

通常动态规划解决的最优只能是数值最优,如满足条件的子序列的最小长度,最大和等等。
但要求满足条件的最小长度子序列,最大和的子序列就没法做了,可以用“记录变量+滑动窗口”的方法:使用滑动窗口[l,r]在序列上移动,记录变量记录符合条件时窗口内的最优解。

  1. 和大于目标值的最小子序列
    209.Minimum Size Subarray Sum找到和大于等于target的最小尺寸子数组,返回尺寸大小。如果按照dp做,复杂度为O(n^2),有O(n)的算法,定义左右指针类似于“毛毛虫”移动,先右指针移动到sum>=target,然后缩短左指针,记录下子数组长度。循环的让有指针向右移动,找到最小长度。
Example: 

Input: s = 7, nums = [2,3,1,2,4,3]
Output: 2
Explanation: the subarray [4,3] has the minimal length under the problem constraint.
class Solution {
public:
	int minSubArrayLen(int s, vector<int>& nums) {
		if (nums.empty()) return 0;
		int left = 0, right = 0, len = nums.size(), res = len + 1, sum = 0;
		while (right < len)
		{
			while (right < len && sum < s)
				sum += nums[right++];
			while (sum >= s)
			{
				res = min(res, right - left);
				sum -= nums[left++];
			}
		}
		return res == len + 1 ? 0 : res;
	}
};
  1. 最长的非重复子串

先用map表示每个元素出现的位置,由于是字符串,每个元素是ascll 0~128之间,所以map直接用数组表示。
保持一个滑动窗口 [l,r) 表示以r-1位置元素结尾的子序列,一旦当前元素出现在这个区间,就把左边界更新为当前元素出现位置+1,如dabca,到最后一个元素时就把左边界更新为b位置。实际上数组中存储的是当前位置+1.

3. Longest Substring Without Repeating Characters
Given a string, find the length of the longest substring without repeating characters.

Example 1:

Input: "abcabcbb"
Output: 3 
Explanation: The answer is "abc", with the length of 3. 
class Solution {
public:
    int lengthOfLongestSubstring(string s) {
        vector<int> pos(128, -1);
        int mlen = 0, l = 0;
        for(int r = 0; r < s.length(); r++){
            char ch = s[r];
            if(pos[ch] >= l)
                l = pos[ch] + 1;
            pos[ch] = r;

            if(r - l + 1 > mlen)
                mlen = r-l+1;
        }
        return mlen;
    }
};
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
(Best Subset Method)是一种常用于特征选择(Feature Selection)的统计方,用于确定在给定的特征集合中,哪些特征对于建立最佳模型是最重要的。 在Python中,有多种方可以实现最。以下是一种常见的实现方式,使用了`itertools.combinations`来生成所有可能的特征集: ```python import itertools from sklearn.linear_model import LinearRegression from sklearn.metrics import mean_squared_error def best_subset_selection(X, y): # 获取特征数量 num_features = X.shape[1] best_subset = None best_mse = float('inf') # 初始化最小均方误差为无穷大 # 遍历所有可能的特征集 for k in range(1, num_features + 1): # 生成所有包含 k 个特征的集 subsets = itertools.combinations(range(num_features), k) # 对于每个集,训练模型并计算均方误差 for subset in subsets: X_subset = X[:, subset] model = LinearRegression() model.fit(X_subset, y) y_pred = model.predict(X_subset) mse = mean_squared_error(y, y_pred) # 若当前集的均方误差更小,则更新最集和最小均方误差 if mse < best_mse: best_mse = mse best_subset = subset return best_subset ``` 这个函数接受输入的特征矩阵 `X` 和目标变量 `y`,然后通过遍历所有可能的集来找到最佳特征集。在每个集上,使用线性回归模型进行训练,并计算预测结果与实际值之间的均方误差。最终返回的是具有最小均方误差的最集。 注意,这只是最的一种实现方式,实际上还有其他方和算可以进行特征选择,具体选择哪种方取决于问题的性质和要求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值