java IO篇


1.IO流分类:

(1)输入流和输出流

基类:InputStream,OutputStream

输入流和输出流相对于内存设备而言.将外设中的数据读取到内存中:输入将内存的数写入到外设中:输出。

(2)字节流和字符流

基类:Reader,Writer字符流的由来:其实就是:字节流读取文字字节数据后,不直接操作而是先查指定的编码表。获取对应的文字。在对这个文字进行操作。简单说:字节流+编码表字节流和字符流字节流:按字节读取字符流:为了处理文字数据方便而出现的对象。其实这些对象的内部使用的还是字节流(因为文字最终也是字节数据)只不过,通过字节流读取了相对应的字节数,没有对这些字节直接操作。而是去查了指定的(本机默认的)编码表,获取到了对应的文字。简单说:字符流就是 : 字节流+编码表。

2.IO流与装饰模式

装饰模式是在不必改变原类文件和使用继承的情况下,动态的扩展一个对象的功能。它是通过创建一个包装对象,

也就是装饰来包裹真实的对象。

装饰模式特点:

(1) 装饰对象和真实对象有相同的接口。这样客户端对象就可以和真实对象相同的方式和装饰对象交互。
(2) 装饰对象包含一个真实对象的引用(reference)
(3) 装饰对象接受所有来自客户端的请求。它把这些请求转发给真实的对象。
(4) 装饰对象可以在转发这些请求以前或以后增加一些附加功能。这样就确保了在运行时,不用修改给定对象的结构就可以在外部增加附加的功能。在面向对象的设计中,通常是通过继承来实现对给定类的功能扩展。

下面举例说明装饰模式在IO流方面的应用。

例如:

Writer

|--TextWriter

|--MediaWriter

现在要对该体系中的对象进行功能的增强。增强的最常见手段就是缓冲区。先将数据写到缓冲区中,再将缓冲区中的数据一次性写到目的地。按照之前学习过的基本的思想,那就是对对象中的写方法进行覆盖。产生已有的对象子类,复写write方法。不往目的地写,而是往缓冲区写。所以这个体系会变成这样。

Writer

|--TextWriter write:往目的地

|--BufferTextWriter write:往缓冲区写

|--MediaWriter

|--BufferMediaWriter

想要写一些其他数据。就会生产子类。DataWriter,为了提高其效率,还要创建该类的子BufferDataWriterWriter

|--TextWriter write:往目的地

|--BufferTextWriter write:往缓冲区写

|--MediaWriter

|--BufferMediaWriter

|--DataWriter

|--BufferDataWriter

发现这个体系相当的麻烦。每产生一个子类都要有一个高效的子类。而且这写高效的子类使用的功能原理都一样,都是缓冲区原理。无论数据是什么。都是通过缓冲区临时存储提高效率的。那么,对于这个体系就可以进行优化,因为没有必要让每一个对象都具备相同功能的子类。哪个对象想要进行效率的提高,只要让缓冲区对其操作即可。也就说,单独将缓冲区进行封装变成对象。

//它的出现为了提高对象的效率。所以必须在创建它的时候先有需要被提高效率的对象

class BufferWriter

{ [];

BufferedWriter(Writer w)

{ } /*

BufferWriter(TextWriter w)

{ }

BufferedWriter(MediaWriter w)

{ }

*/}

BufferWriter的出现增强了Writer中的write方法。但是增强过后,BufferWriter对外提供的还是write方法。只不过是高效的。所以写的实质没有变,那么BufferWriter也是Writer中的一员。所以体系就会变成这样。

Writer

|--TextWriter

|--MediaWriter

|--BufferWriter

|--DataWriterBufferWriter

避免了继承体系关系的臃肿,比继承更为灵活。如果是为了增强功能,这样方式解决起来更为方便。

IO流的体系

字符流:

Reader

   |--BufferedReader:

      |--LineNumberReader

   |--CharArrayReader

   |--StringReader

   |--InputStreamReaer

      |--FileReader

Writer

   |--BufferedWriter

   |--CharArrayWriter

   |--StringWriter

   |--OutputStreamWriter

       |--FileWriter

   |--PrintWriter

 

字节流:

InputStream

   |--FileInputStream:

   |--FilterInputStream

      |--BufferedInputStream

      |--DataInputStream

   |--ByteArrayInputStream

   |--ObjectInputStream

   |--SequenceInputStream

   |--PipedInputStream

OutputStream

   |--FileOutputStream

       |--FilterOutputStream

       |--BufferedOutputStream

   |--DataOutputStream

   |--ByteArrayOutputStream

   |--ObjectOutputStream

   |--PipedOutputStream

   |--PrintStream

4.程序示例:(文件复制)

package com.itheima;
 
import java.io.BufferedOutputStream;
 
import java.io.File;
import java.io.FileNotFoundException;
import java.io.FileOutputStream;
import java.io.FileInputStream;
 
import java.io.IOException;
 
public class Test
{
 
    public static void main(String[] args) throws IOException
    {
        // 文件路径,定义输入流变量
        String repath="src/com/itheima/pig.txt";
        FileInputStream fr = null;
         
        //文件输出路径,如果存在删除,并重新创建
        String topath="src/com/itheima/newpig.txt";
        File file=new File(topath);
        if(file.exists())
        {
            file.delete();
        }
        file.createNewFile();
         
        //第一输出流和带缓存的输出流
        FileOutputStream fw=null;
        BufferedOutputStream bw=null;
        try
        {
            fr=new FileInputStream(repath);
             
            fw=new FileOutputStream(file);
            bw=new BufferedOutputStream(fw);
             
            //读取数据过程
            int i=0;
            byte[] buffer=new byte[100];
            int len=0;
            while((len=fr.read(buffer))!=-1)
            {
                bw.write(buffer, 0, len);
                i++;
                if(i%10==0)
                    bw.flush();//刷新缓存
            }
            bw.flush();//刷新缓存
        }
        catch (FileNotFoundException e)
        {
            // TODO Auto-generated catch block
            e.printStackTrace();
            System.out.println("文件不存在");
            return;
        }
        catch (IOException e)
        {
            // TODO Auto-generated catch block
            e.printStackTrace();
            System.out.println("IO错误");
            return;
        }
        finally
        {     //关闭输入输出流
            if(fr!=null)
            {
                try
                {
                    fr.close();
                }
                catch(IOException e)
                {
                    e.printStackTrace();
                }
            }   
            if(fw!=null)
            {
                try
                {
                    fw.close();
                }
                catch(IOException e)
                {
                    e.printStackTrace();
                }
            }   
            if(bw!=null)
            {
                try
                {
                    bw.close();
                }
                catch(IOException e)
                {
                    e.printStackTrace();
                }
            }   
           
             
        }
    }
 
}

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值