(一)深度学习入门之单个神经元

单个神经元的基本结构如下:

单个神经元即单层感知机,拥有一组输入和一个输出。输入为x1-x3与1,经过加权Wx后进行一个输出h(Wx)。b为阈值,可以看做w的扩展,b对应的x为定值。f和h是同一个概念,是激活函数。x是特征向量,x作为输入可以表示事物的特征。
在这里插入图片描述
已知输入向量为x,权重向量为W,则输出的计算如下图所示。
在这里插入图片描述
单个神经元可以用于进行简单的逻辑运算,以与运算为例,取权值w=(0.5,0.5,-0.7),x=(x1,x2,1),激活函数取f(t)=t>0?1:0.则与运算的单层感知机python代码如下。

import numpy as np


def m_and(x, y):
    w = np.array([0.5, 0.5, -0.7])
    x = np.array([x, y, 1])
    if np.sum(w*x) > 0:
        return 1
    else:
        return 0


print(m_and(0, 0))
print(m_and(0, 1))
print(m_and(1, 0))
print(m_and(1, 1))

输出如下

0
0
0
1

  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
逻辑回归是一种常用的机器学习算法,可以用于文本分类任务。在使用逻辑回归进行文本分类时,我们首先需要将文本数据转换为数值特征表示,常用的方法是使用词袋模型或者TF-IDF向量化。然后,我们可以使用逻辑回归模型来训练和预测。 下面是一个使用逻辑回归单个神经元进行文本分类的示例: ```python from sklearn.feature_extraction.text import CountVectorizer from sklearn.linear_model import LogisticRegression # 假设我们有一些文本数据和对应的标签 texts = ["This is a positive review", "This is a negative review", "I like this product", "I dislike this product"] labels = [1, 0, 1, 0] # 将文本数据转换为词袋模型表示 vectorizer = CountVectorizer() X = vectorizer.fit_transform(texts) # 使用逻辑回归模型进行训练和预测 model = LogisticRegression() model.fit(X, labels) # 预测新的文本数据 new_texts = ["I love this product", "I hate this product"] new_X = vectorizer.transform(new_texts) predictions = model.predict(new_X) # 输出预测结果 for text, prediction in zip(new_texts, predictions): if prediction == 1: print(f"{text}: positive") else: print(f"{text}: negative") ``` 这个示例中,我们首先使用`CountVectorizer`将文本数据转换为词袋模型表示。然后,我们使用`LogisticRegression`模型进行训练和预测。最后,我们使用训练好的模型对新的文本数据进行预测,并输出预测结果。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值