【蓝桥杯每日一题】3.7 棋盘

原题链接:5396. 棋盘 - AcWing题库

二维差分思想:

可以学习这位佬的博客:

二维差分(差分矩阵)

思考:

记录棋盘中的棋子的被操作数,被操作数为奇数则为黑子,偶数则为白子

方法一:暴力求解

结果:测试点6/10,最后TLE

#include <bits/stdc++.h>
using namespace std;

int m,n;
int b[2010][2010];


void convert(int x1, int y1, int x2, int y2)
{
	for(int i=x1;i<=x2;i++)
		for(int j=y1;j<=y2;j++)
			b[i][j]++;
}

int main()
{
	cin>>n>>m;
	int x1,x2,y1,y2;
	for(int i=0;i<m;i++)
	{
		cin>>x1>>y1>>x2>>y2;
		convert(x1,y1,x2,y2);
	}
	for(int i=1;i<=n;i++)
	{
		for(int j=1;j<=n;j++)
		{
			if(b[i][j]%2==0) cout<<0;
			else cout<<1;
			//cout<<b[i][j]%2;
		}
		cout<<endl;
	}
}
方法二:二维差分

AC代码:

//二维差分维护
#include <bits/stdc++.h>
using namespace std;
const int N = 2010;
int b[N][N];
int n, m;

void convert(int x1, int y1, int x2, int y2)
{
    b[x1][y1] ++;
    b[x1][y2 + 1] --;
    b[x2 + 1][y1] --;
    b[x2 + 1][y2 + 1] ++;
}

int main()
{
    cin>>n>>m;

    while(m --)
    {
        int x1, y1, x2, y2;
        cin>>x1>>y1>>x2>>y2;
        convert(x1, y1, x2, y2);
    }

    for(int i = 1; i <= n; i ++)
        for(int j = 1; j <= n; j ++)
            b[i][j] += b[i - 1][j] + b[i][j - 1] - b[i - 1][j - 1];

    for(int i = 1; i <= n; i ++)
    {
        for(int j = 1; j <= n; j ++)
        {
            if(b[i][j] % 2 == 0) cout<<0;
            else cout<<1;
            //cout<<b[i][j]%2;
        }
        cout<<endl;
    }

    return 0;
}
  • 6
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用次梯度下降算法实现鲁棒回归算法的代码,应用于习3.7的数据(假设数据已经读入变量 x 和 y 中): ```python import numpy as np # 定义 Huber 损失函数和其导数 def huber_loss(y_true, y_pred, delta=1.0): error = y_true - y_pred abs_error = np.abs(error) quadratic = np.minimum(abs_error, delta) linear = abs_error - quadratic return np.mean(0.5 * quadratic**2 + delta * linear) def huber_loss_derivative(y_true, y_pred, delta=1.0): error = y_true - y_pred abs_error = np.abs(error) quadratic = np.minimum(abs_error, delta) linear = abs_error - quadratic sign = np.sign(error) return -(quadratic * sign + delta * sign * (linear != 0)) # 定义次梯度下降算法 def subgradient_descent(x, y, alpha=0.01, max_iter=1000, delta=1.0): # 初始化权重和偏置 w = np.random.rand(x.shape[1]) b = np.random.rand() # 迭代更新权重和偏置 for i in range(max_iter): # 计算当前预测值和损失函数值 y_pred = np.dot(x, w) + b loss = huber_loss(y, y_pred, delta) # 计算损失函数对权重和偏置的导数 dW = np.dot(x.T, huber_loss_derivative(y, y_pred, delta)) / len(y) db = np.mean(huber_loss_derivative(y, y_pred, delta)) # 更新权重和偏置 w -= alpha * dW b -= alpha * db return w, b # 对习3.7的数据进行鲁棒回归 x = np.array([[1.0, 6.1101], [1.0, 5.5277], [1.0, 8.5186], [1.0, 7.0032], [1.0, 5.8598]]) y = np.array([17.592, 9.1302, 13.662, 11.854, 6.8233]) w, b = subgradient_descent(x, y, alpha=0.01, max_iter=1000, delta=1.0) print('Weight vector:', w) print('Bias:', b) ``` 说明: - 在此代码中,我们首先定义了 Huber 损失函数和其导数,以及次梯度下降算法。 - 接着,我们利用定义好的函数对习3.7的数据进行鲁棒回归。在这个例子中,我们使用了 delta=1.0 的 Huber 损失函数,并设定了学习率 alpha=0.01 和最大迭代次数 max_iter=1000。 - 最后,我们输出训练得到的权重和偏置。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值