- 博客(72)
- 资源 (1)
- 收藏
- 关注
原创 QT5和QT6使用qmake时创建QML项目的区别
QT5和QT6创建使用qmake编译的QML项目时默认创建的项目并不相同,主要在于资源管理的方式不同,QT5默认使用.qrc文件管理资源,QT6默认使用resources变量管理资源。本文通过实际的项目进行对比,理清Qmake的两种资源管理方式。
2023-12-18 23:28:59 1304
原创 PyTorch 基础操作总结
torch 张量的一些基本操作,torch 张量乘法,pytorch 数据集类 Dataset,DataLoader,torchvision 中的 transforms、datasets,torch 中 SVD 分解,特征值分解,QR 分解,利用 torch 进行深度学习的基本框架
2021-07-27 23:05:13 2161 2
原创 利用 Lanczos 方法实现张量的 HOSVD 分解
1. 特征值分解(EVD)如果 AAA 是一个 m×mm\times mm×m 的 实对称矩阵(A=ATA=A^TA=AT) ,如果存在 mmm 维列向量 qqq 和实数 λ\lambdaλ 满足 Aq=λqAq=\lambda qAq=λq,则称 qqq 为 AAA 的 特征向量、λ\lambdaλ 为 AAA 的 特征值。如果我们求出 AAA 的 mmm 个特征值与特征向量,并将所有特征向量标准化,则可以得到标准正交矩阵 Q=[q1,q2,⋯ ,qm],Q∈Rm×mQ=[q_1, q_2, \c
2021-03-14 21:57:12 1197
原创 二、量子状态的表示和单量子比特门
1. 量子状态的表示1.1 使用 Qiskit 初始化量子态 我们知道,一个量子的状态可以表示为基态的线性叠加,如果我们使用∣0⟩=[10] ∣1⟩=[01].|0\rangle = \begin{bmatrix} 1 \\ 0 \end{bmatrix} \, \, \, \, |1\rangle =\begin{bmatrix} 0 \\ 1 \end{bmatrix}.∣0⟩=[10]∣1⟩=[01].
2020-11-29 20:52:25 5308 3
原创 一、Qiskit 基础和简单线路
1. 安装 Qiskit1.1 安装命令可以直接使用 pip 命令安装 qiskit 包:pip install qiskit若要使用其中的一些可视化功能,可以安装可视化包pip install qiskit[visualization]1.2 检查安装 Qiskit 包含一系列不同的元素,运行 qiskit.__version__ 返回 qiskit-terra 包的版本,因为 qiskit 是来自
2020-11-29 20:23:50 10426 9
原创 四、神经网络
1. 神经元模型 神经网络机器学习中最基本的成分是 “M-P 神经元模型”,如下所示,在这个模型中,神经元接收到来自 nnn 个其他神经元传递过来的输入信号,这些输入信号通过带权重的链接(connection)进行传递,神经元接收到的总输入将与神经元的阈值进行比较,然后通过 “激活函数” (activation function)处理以产生神经元的输出。 &nb
2020-11-29 16:55:01 383
原创 三、决策树
1. 基本流程 决策树(decision tree)是一种常见的机器学习算法,以二分类为例,我们希望从给定的数据集学得一个模型用于对新实例进行分类,我们把对样本的分类看成 “这个样本是否为正例?” 这个问题的决策过程,从而,我们可以的到一个基于树结构的判别过程,这和人类再面临决策问题时的处理机制非常相似。下图展示了对于西瓜判定问题的树结构: &nbs
2020-11-22 21:49:17 198
原创 二、线性模型
1. 基本形式 给定由 ddd 个属性描述的示例 x=(x1;x2;⋯ ;xd)\pmb{x}=(x_1;x_2;\cdots ;x_d)xxx=(x1;x2;⋯;xd) ,其中 xix_ixi 是 x\pmb{x}xxx 在第 iii 个属性上的取值,线性模型(linear model)试图学得一个 通过属性的线性组合来进行预测的函数,即f(x)=w1x1+w2x2+⋯+wdxd+bf(\pmb{x})=w_1
2020-11-15 21:47:58 254 1
原创 十三、张量网络机器学习(二)
十三、1. 等概率假设下的量子懒惰学习 通过之前的讨论我们可知,如果我们知道了用来描述联合概率的多体态 ∣ψ⟩|\psi\rangle∣ψ⟩ ,我们就可以通过联合概率密度计算每张图片出现的概率。概率型机器学习的核心也就是求得概率密度,联合概率密度是由 ∣ψ⟩|\psi\rangle∣ψ⟩ 构成的,所以我们的主要任务就是构造 ∣ψ⟩|\psi\rangle∣ψ⟩ ,一种最简单的方法定义 ∣ψ⟩|\psi\rangle∣ψ
2020-09-06 19:20:32 440
原创 十二、张量网络机器学习(一)
十二、张量网络机器学习1. 机器学习基本思想 简单来说,机器学习可以看成是一个接受输入信息后,输出想要得到的目标信息的一种模型。我们进行机器学习的目的就是找到这种模型,让这种模型能够进行这种信息的转换。 机器学习的几个常见的例子如下:图形识别中,输入图片信息,输出图像分类语言翻译中,输入源语言文字,输出翻译后语言文字自动驾驶
2020-08-30 19:40:16 973
原创 十、张量网络收缩算法
十、张量网络收缩算法1. 张量网络的基本定义 通过前面的学习,我们对张量网络有了简单的了解,这里我们给出张量网络的一般定义:由多个张量按照一定的收缩规则构成的模型,被称为张量网络。 其中,收缩规则由张量网络形成的图确定,网络中的一个节点代表一个张量,与该节点连接的边代表该张量的指标,连接不同节点的边代表对应张量的共有指标,我们需要把这些
2020-08-23 19:18:07 2239
原创 八、TEBD 与 DMRG 算法
八、TEBD 与 DMRG 算法1. TEBD 算法 我们给定一个大小为 W×HW\times HW×H 个张量组成的网络(设 H 为偶数),其图形表示如下:该张量网络由三种不同的张量构成,在四个角上的为二阶张量,边上的为三阶张量,内部的为四阶张量,边上的数字表示第几个指标。很多物理问题可最终等价为类似的张量网络收缩计算问题,即将该张量网络收缩为一个数。如,经典模型热力学配分函数的计算,量子格点模型基态的计算等。严
2020-08-09 19:29:09 2482
原创 七、矩阵乘积态
六、矩阵乘积态1. 矩阵乘积态的定义 由于基态的参数复杂度随量子个数 NNN 的增加呈指数上升,所以我们无法在经典计算机上进行严格对角化求解基态,但是对于 NNN 个量子组成的整体 ∣φ⟩|\varphi\rangle∣φ⟩ 的在基态上的系数组成的张量,如果我们可以将其写为 NNN 个二阶或三阶张量构成的 TT 形式,那么我们可以通过优化这 NNN 个张量,求解基态对应的最优化问题:Eg=min⟨g∣g⟩=1⟨g∣
2020-08-02 19:47:53 1766
原创 五、Tensor-train分解
五、Tensor-train分解1. 量子态与量子算符 我们知道,量子的状态用态矢 ∣φ⟩|\varphi\rangle∣φ⟩ 来表示,可以表示为基态的线性组合的系数构成的列向量,算符表示对态矢的操作,可以通过矩阵来表示。 给定基矢,确定量子态与算子的矩阵表示后,相关的计算变为向量与矩阵的运算。对量子态做的某种操作可以转换为矩阵表示的算子
2020-08-02 16:50:44 3594 6
原创 四、张量表示
张量表示1. 张量的另一种表示方法 前面我们学习了张量的基本概念,我们知道,一个标量我们定义为零阶张量,一个矢量我们称为一阶张量,矩阵称为二阶张量。。。 为了更加便捷的表示张量,我们用一个新的方式表示张量:用一个有 NNN 个腿的圆形形表示 NNN 阶张量,如下所示:...
2020-07-26 17:55:22 4851 2
原创 三、Tucker 分解
Tucker 分解Tucker 分解 Tucker 分解法可以被视作一种高阶 PCA. 它将张量分解为核心张量在每个mode上与矩阵的乘积. 因此, 对三阶张量 X∈RI×J×K\mathcal{X}\in\mathbb{R}^{I \times J \times K}X∈RI×J×K ,我们有如下分解:X≈G×1A×2B×3C=∑p=1P∑q=1Q∑r=1Rgpqr ap∘bq∘cr=[ [G ;A,B,C]
2020-07-19 17:36:30 3201 2
原创 二、张量 CP 分解
张量二1. 张量的几个概念张量的内积 相同大小的两个张量 X,Y∈RI1×I2×⋯×IN\mathcal{X},\mathcal{Y} \in \mathbb{R}^{I_1 \times I_2 \times \dots \times I_N}X,Y∈RI1×I2×⋯×IN ,其内积为对应位置的元素相乘后,将所有位置的乘积累加,可以用公式表示为:⟨X,Y⟩=∑i1=1I1∑i2=1I2⋯∑iN=1INx
2020-07-19 17:34:03 1492
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人