2015-10-15

看了不少东西,本来应该看论文的,结果一拖再拖,明天不能拖下去了。明天下午把论文看完,然后给Ristin回一封邮件。人家这么及时也不容易,我也不能放下人家论文就不愿意看了。

今日总结:

1.      拓扑数据分析与机器学习的相互促进

http://www.csdn.net/article/2015-10-09/2825872

虽然对于TDA并不是非常清楚,但是为后面做视觉提供了一个非常好的思路,以后也许可以结合起来做这个东西。

2.      Topological data analysis以下来自维基百科,我自己翻译理解的

a)      定义:

TDA是一个新的研究领域,用于数据挖掘和计算机视觉方面。主要解决的问题是:

a)      如何从低维数据表示得到高维结构

b)      如何将离散的点聚集到全局的结构中来

这个可以用人类大脑来进行类比,例如:通过眼睛,我们可以从一张2D的图片中推断出3D的环境。当将离散数据转换成连续数据时,这种全局结构的判断同样在发生,例如:点阵式打印机。

b)      TDA主要使用的方法是:

1)      将数据集用一种拓扑结构表示,通过近似变量进行索引

2)      通过代数拓扑结构分析拓扑复杂性,通过persistent homology(主要是通过计算空间的拓扑特征)进行表示

3)      编码数据集persistent homology,用条形码或者persistence diagram

3.      Ristin问题:

a)      Programming language到底要不要用java还是C++,这个做并行的话到底有什么关系,他们有没有在准备做并行

b)      Online learning和IncrementalLearning之间的区别

c)      论文中存在的问题,尤其是那个增量学习到底是怎么增量的



 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一个简单的基于Transformer算法的代码示例,可以用来预测SNumber。 ```python import pandas as pd import numpy as np import matplotlib.pyplot as plt from sklearn.preprocessing import StandardScaler from sklearn.model_selection import train_test_split from tensorflow.keras.models import Model from tensorflow.keras.layers import Input, Dense, Dropout, LayerNormalization, MultiHeadAttention, TimeDistributed, concatenate # 加载数据 data = pd.read_csv('data.csv') X = data.drop(['SNumber'], axis='columns') y = data['SNumber'] # 标准化输入特征 scaler = StandardScaler() X = scaler.fit_transform(X) # 划分训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, shuffle=False) # 构建Transformer模型 def transformer_model(input_shape): inputs = Input(shape=input_shape) x = Dense(64, activation='relu')(inputs) x = LayerNormalization()(x) x = Dropout(0.2)(x) x = Dense(32, activation='relu')(x) x = LayerNormalization()(x) x = Dropout(0.2)(x) x = Dense(1)(x) model = Model(inputs=inputs, outputs=x) return model # 训练模型 model = transformer_model((X_train.shape[1],)) model.compile(optimizer='adam', loss='mean_squared_error') model.fit(X_train, y_train, epochs=100, batch_size=16, validation_data=(X_test, y_test)) # 预测结果 y_pred = model.predict(X_test) # 可视化预测结果 plt.plot(y_test.values, label='True') plt.plot(y_pred, label='Predicted') plt.legend() plt.show() ``` 需要注意的是,这只是一个简单的示例,实际上可能需要进行更多的特征工程和调整模型参数来获得更好的预测结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值