JavaScript学习-对象

对象:
    ECMA-262 把对象(object)定义为“属性的无序集合,每个属性存放一个原始值、对象或函数”。
    严格来说,这意味着对象是无特定顺序的值的数组。
类:
    是对象的配方,设计图
实例:
    实例就是对象自身
面向对象语言的要求
    一种面向对象语言需要向开发者提供四种基本能力:
        封装 - 把相关的信息(无论数据或方法)存储在对象中的能力
        聚集 - 把一个对象存储在另一个对象内的能力
        继承 - 由另一个类(或多个类)得来类的属性和方法的能力
        多态 - 编写能以多种方法运行的函数或方法的能力
对象的构成
    在 ECMAScript 中,对象由特性(attribute)构成,特性可以是原始值,也可以是引用值。
    如果特性存放的是函数,它将被看作对象的方法(method),否则该特性被看作对象的属性(property)。


ECMAScript中,都是采用晚绑定;

对象有三种:
    本地对象:
        Object
        Function
        Array
        String
        Boolean
        Number
        Date
        RegExp
        Error
        EvalError
        RangeError
        ReferenceError
        SyntaxError
        TypeError
        URIError
    内置对象:
        Global 和 Math
    宿主对象:
        所有非本地对象都是宿主对象(host object);所有 BOM 和 DOM 对象都是宿主对象。
作用域指的是变量的适用范围。
    ECMAScript 只有公用作用域;
关键字 this 总是指向调用该方法的对象;
继承机制:
    对象冒充:
        构造函数使用 this 关键字给所有属性和方法赋值(即采用类声明的构造函数方式)。
        因为构造函数只是一个函数,所以可使 ClassA 构造函数成为 ClassB 的方法,然后调用它。
        ClassB 就会收到 ClassA 的构造函数中定义的属性和方法。
        还可以多重继承多个父类,真叼
    原型链
        一个原型对象是另一个类型的实例,层层递进;
        prototype 对象的任何属性和方法都被传递给那个类的所有实例。
    混合使用:
        对象冒充的主要问题是必须使用构造函数方式,如果使用原型链,就无法使用带参数的构造函数了
        最好方式是用构造函数定义属性,用原型定义方法。

        用对象冒充继承构造函数的属性,用原型链继承 prototype 对象的方法。

混合模式示例:

<script>
        function ClassA(sColor) {
            this.color = sColor;
        }
        ClassA.prototype.sayColor = function () {
            alert(this.color);
        };
        function ClassB(sColor, sName) {
            ClassA.call(this, sColor);
            this.name = sName;
        }
        ClassB.prototype = new ClassA();

        ClassB.prototype.sayName = function () {
            alert(this.name);
        };
        var objA = new ClassA("blue");
        var objB = new ClassB("red", "John");
        objA.sayColor();
        objB.sayColor();
        objB.sayName();
    </script>








深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值