kyy的继承(Extends)

本文探讨了Java中的继承特性,包括子类继承父类的属性和方法,以及子类自身的特有内容。讲解了继承关系中的"is-a"概念,并介绍了定义父类和子类的语法。在成员变量重名的情况下,提出了访问规则的"就近原则",同时阐述了重写(override)和重载(overload)的区别。强调Java单继承但支持多级继承的特性,以及Object类作为所有类的父类的角色。
摘要由CSDN通过智能技术生成

继承主要的解决的问题就是:共性抽取
继承关系的特点:
1.子类可以拥有父类的 “内容”
2.子类还可以拥有自己专有的内容
在这里插入图片描述
在继承的关系中,“子类就是一个父类”。也就是说,子类可以被当做父类看待。
例如父类是员工,子类是讲师,那么“讲师就是一个员工”。关系:is-a。

定义父类的格式:(一个普通的类定义)
public class 父类名称 {
// …
}

定义子类的格式:
public class 子类名称 extends 父类名称 {
// …
}

main主方法

public class Demo01Extends {
   

    public static void main(String[] args) {
   
        Employee one = new Employee();
        one.method();
        Teacher two =<
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
翻译这段代码class GPR: def __init__(self, optimize=True): self.is_fit = False self.train_X, self.train_y = None, None self.params = {"l": 2, "sigma_f": 1} self.optimize = optimize def fit(self, X, y): # store train data self.train_X = np.asarray(X) self.train_y = np.asarray(y) # hyper parameters optimization def negative_log_likelihood_loss(params): self.params["l"], self.params["sigma_f"] = params[0], params[1] Kyy = self.kernel(self.train_X, self.train_X) + 1e-8 * np.eye(len(self.train_X)) loss = 0.5 * self.train_y.T.dot(np.linalg.inv(Kyy)).dot(self.train_y) + 0.5 * np.linalg.slogdet(Kyy)[ 1] + 0.5 * len(self.train_X) * np.log(2 * np.pi) return loss.ravel() if self.optimize: res = minimize(negative_log_likelihood_loss, [self.params["l"], self.params["sigma_f"]],bounds=((1e-4, 1e4), (1e-4, 1e4)),method='L-BFGS-B') self.params["l"], self.params["sigma_f"] = res.x[0], res.x[1] self.is_fit = True def predict(self, X): if not self.is_fit: print("GPR Model not fit yet.") return X = np.asarray(X) Kff = self.kernel(self.train_X, self.train_X) # (N, N) Kyy = self.kernel(X, X) # (k, k) Kfy = self.kernel(self.train_X, X) # (N, k) Kff_inv = np.linalg.inv(Kff + 0.5e-3 * np.eye(len(self.train_X))) # (N, N) mu = Kfy.T.dot(Kff_inv).dot(self.train_y) cov = Kyy - Kfy.T.dot(Kff_inv).dot(Kfy) return mu, cov def kernel(self, x1, x2): dist_matrix = np.sum(x1 ** 2, 1).reshape(-1, 1) + np.sum(x2 ** 2, 1) - 2 * np.dot(x1, x2.T) return self.params["sigma_f"] ** 2 * np.exp(-0.5 / self.params["l"] ** 2 * dist_matrix)
最新发布
03-25

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值