kyy的Static 静态关键字

// 学生类: 名字 年龄。
// private ,getter(在对象中赋值要getter.) setter ,
构造方法(构造器) public + 类名

在main函数中 在对象没有输出 要在main函数中输出值 要System.out.println(one.getName()+one.getAuthor()+one.getPublisher()+one.getPrice());

public class Student {
    private String name;//姓名
    private int age;    //年龄
    static String room; // static
Student one = new Student("kyy",19);
    one.room = "301教室";
    System.out.println(one.getAge()+ one.getName()+
            one.room);//19kyy301教室

    Student two = new Student("kyy01",195);

    System.out.println(two.getAge()+ two.getName()+
            two.room);//195kyy01301教室
            //room 301教室 公共变量

}

room 被 static修饰 多个对象共享同一个数据

典型用法————学号(自动生成学号)


private int id; //学号
private static int idCounter = 0;//学号计数器 每当new了一个新对象的时候,计数器++


public Student() {
    this.id = ++idCounter; //从0变成1 赋值给id
}//id也要有getter setter 

静态方法


public static void method(){ } //静态方法
public void method{ }          //成员方法

静态可以通过类名称来调用
静态可以静态 不可以访问非静态 原因:在内存中现有的静态 再有的非静态!。

接下来是老师讲的static 内存图:
在这里插入图片描述

静态代码块

第一次使用本类的时候 静态代码块的内容只执行一次
而且 静态优先于非静态
用途:用来一次性对静态成员变量赋值

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
翻译这段代码class GPR: def __init__(self, optimize=True): self.is_fit = False self.train_X, self.train_y = None, None self.params = {"l": 2, "sigma_f": 1} self.optimize = optimize def fit(self, X, y): # store train data self.train_X = np.asarray(X) self.train_y = np.asarray(y) # hyper parameters optimization def negative_log_likelihood_loss(params): self.params["l"], self.params["sigma_f"] = params[0], params[1] Kyy = self.kernel(self.train_X, self.train_X) + 1e-8 * np.eye(len(self.train_X)) loss = 0.5 * self.train_y.T.dot(np.linalg.inv(Kyy)).dot(self.train_y) + 0.5 * np.linalg.slogdet(Kyy)[ 1] + 0.5 * len(self.train_X) * np.log(2 * np.pi) return loss.ravel() if self.optimize: res = minimize(negative_log_likelihood_loss, [self.params["l"], self.params["sigma_f"]],bounds=((1e-4, 1e4), (1e-4, 1e4)),method='L-BFGS-B') self.params["l"], self.params["sigma_f"] = res.x[0], res.x[1] self.is_fit = True def predict(self, X): if not self.is_fit: print("GPR Model not fit yet.") return X = np.asarray(X) Kff = self.kernel(self.train_X, self.train_X) # (N, N) Kyy = self.kernel(X, X) # (k, k) Kfy = self.kernel(self.train_X, X) # (N, k) Kff_inv = np.linalg.inv(Kff + 0.5e-3 * np.eye(len(self.train_X))) # (N, N) mu = Kfy.T.dot(Kff_inv).dot(self.train_y) cov = Kyy - Kfy.T.dot(Kff_inv).dot(Kfy) return mu, cov def kernel(self, x1, x2): dist_matrix = np.sum(x1 ** 2, 1).reshape(-1, 1) + np.sum(x2 ** 2, 1) - 2 * np.dot(x1, x2.T) return self.params["sigma_f"] ** 2 * np.exp(-0.5 / self.params["l"] ** 2 * dist_matrix)
03-25

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值