1.3。将资源与事务同步

1.3。将资源与事务同步

现在应该清楚如何创建不同的事务管理器,以及如何将它们链接到需要同步到事务的相关资源(例如,将DataSourceTransactionManager耦合到JDBC DataSource,将HibernateTransactionManager耦合到Hibernate SessionFactory,等等)。 本节描述应用程序代码(通过使用诸如JDBC,Hibernate或JPA之类的持久性API直接或间接)确保如何正确创建,重用和清理这些资源。 本节还讨论如何通过相关的TransactionManager触发事务同步(可选)。

1.3.1。高级同步方法

首选方法是使用Spring的基于模板的最高级别的持久性集成API,或者将本机ORM API与具有事务感知功能的工厂bean或代理一起使用,以管理本机资源工厂。 这些支持事务的解决方案在内部处理资源的创建和重用,清理,资源的可选事务同步以及异常映射。 因此,用户数据访问代码不必解决这些任务,而可以完全专注于非样板持久性逻辑。 通常,您使用本机ORM API或通过JdbcTemplate采用模板方法进行JDBC访问。 这些解决方案将在本参考文档的后续部分中详细介绍。

1.3.2。低级同步方法

诸如DataSourceUtils(对于JDBC),EntityManagerFactoryUtils(对于JPA),SessionFactoryUtils(对于Hibernate)等类在较低级别存在。 当您希望应用程序代码直接处理本机持久性API的资源类型时,可以使用这些类来确保获得正确的Spring Framework管理的实例,事务(可选)同步,并且流程中发生的异常是 正确映射到一致的API。

例如,对于JDBC,您可以使用Spring的org.springframework.jdbc.datasource.DataSourceUtils类,而不是在DataSource上调用getConnection()方法的传统JDBC方法,如下所示:

Connection conn = DataSourceUtils.getConnection(dataSource);

如果现有事务已经有与其同步(链接)的connection,则返回该实例。 否则,方法调用将触发创建新的connection,该连接(可选)同步到任何现有事务,并可供该同一事务中的后续重用使用。 如前所述,任何SQLException都包装在Spring框架CannotGetJdbcConnectionException中,该框架是Spring框架未经检查的DataAccessException类型的层次结构之一。 与从SQLException可以轻松获得的信息相比,这种方法为您提供的信息更多,并确保了跨数据库甚至跨不同持久性技术的可移植性。

这种方法在没有Spring事务管理的情况下也可以使用(事务同步是可选的),因此无论是否使用Spring进行事务管理,都可以使用它。

当然,一旦使用了Spring的JDBC支持,JPA支持或Hibernate支持,您通常就不愿使用DataSourceUtils或其他帮助程序类,因为与直接使用相关的API相比,通过Spring抽象进行工作要快乐得多。例如,如果您使用Spring JdbcTemplate或 jdbc.object软件包来简化JDBC的使用,则正确的连接检索将在后台进行,并且您无需编写任何特殊代码。

1.3.3。 TransactionAwareDataSourceProxy

在最底层存在TransactionAwareDataSourceProxy类。这是目标数据源的代理,它包装目标数据源以增加对spring管理事务的感知。在这方面,它类似于由Java EE服务器提供的事务性JNDI数据源。

除了必须调用现有代码并传递标准JDBC DataSource接口实现时,您几乎不应该需要或希望使用这个类。在这种情况下,这段代码可能是可用的,但参与了spring管理的事务。您可以使用前面提到的高级抽象来编写新代码。

深度学习是机器学习的一个子领域,它基于人工神经网络的研究,特别是利用多层次的神经网络来进行学习和模式识别。深度学习模型能够学习数据的高层次特征,这些特征对于图像和语音识别、自然语言处理、医学图像分析等应用至关重要。以下是深度学习的一些关键概念和组成部分: 1. **神经网络(Neural Networks)**:深度学习的基础是人工神经网络,它是由多个层组成的网络结构,包括输入层、隐藏层和输出层。每个层由多个神经元组成,神经元之间通过权重连接。 2. **前馈神经网络(Feedforward Neural Networks)**:这是最常见的神经网络类型,信息从输入层流向隐藏层,最终到达输出层。 3. **卷积神经网络(Convolutional Neural Networks, CNNs)**:这种网络特别适合处理具有网格结构的数据,如图像。它们使用卷积层来提取图像的特征。 4. **循环神经网络(Recurrent Neural Networks, RNNs)**:这种网络能够处理序列数据,如时间序列或自然语言,因为它们具有记忆功能,能够捕捉数据中的时间依赖性。 5. **长短期记忆网络(Long Short-Term Memory, LSTM)**:LSTM 是一种特殊的 RNN,它能够学习长期依赖关系,非常适合复杂的序列预测任务。 6. **生成对抗网络(Generative Adversarial Networks, GANs)**:由两个网络组成,一个生成器和一个判别器,它们相互竞争,生成器生成数据,判别器评估数据的真实性。 7. **深度学习框架**:如 TensorFlow、Keras、PyTorch 等,这些框架提供了构建、训练和部署深度学习模型的工具和库。 8. **激活函数(Activation Functions)**:如 ReLU、Sigmoid、Tanh 等,它们在神经网络中用于添加非线性,使得网络能够学习复杂的函数。 9. **损失函数(Loss Functions)**:用于评估模型的预测与真实值之间的差异,常见的损失函数包括均方误差(MSE)、交叉熵(Cross-Entropy)等。 10. **优化算法(Optimization Algorithms)**:如梯度下降(Gradient Descent)、随机梯度下降(SGD)、Adam 等,用于更新网络权重,以最小化损失函数。 11. **正则化(Regularization)**:技术如 Dropout、L1/L2 正则化等,用于防止模型过拟合。 12. **迁移学习(Transfer Learning)**:利用在一个任务上训练好的模型来提高另一个相关任务的性能。 深度学习在许多领域都取得了显著的成就,但它也面临着一些挑战,如对大量数据的依赖、模型的解释性差、计算资源消耗大等。研究人员正在不断探索新的方法来解决这些问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值