我正在阅读一些文本文件,并将该文本文件的所有单词拆分并存储在列表中。 然后我正在做onehot编码。 当文本文件大小超过1MB时,我面临MemoryError问题。 这是我的代码
from numpy import array
import os
from sklearn.preprocessing import LabelEncoder
from sklearn.preprocessing import OneHotEncoder
path="D://DATA//"
data=[]
for file in os.listdir(path):
print(file)
if file.endswith(".txt"):
with open(os.path.join(path, file), 'r',encoding="utf8") as f:
d1=f.read()
data+=d1.split()
print(data)
values = data
# integer encode
label_encoder = LabelEncoder()
integer_encoded = label_encoder.fit_transform(values)
onehot_encoder = OneHotEncoder(sparse=False)
integer_encoded = integer_encoded.reshape(len(integer_encoded), 1)
onehot_encoded = onehot_encoder.fit_transf