实验四

1.(1)

(2)

 

(3)

显示所有非空数组元素

显示所有非空数组元素

显示数组所有元素个数

显示数组所有元素个数

显示数组长度

显示第一个元素的字符个数

(4)

hello赋值给name

(5)

${name%%.*}去掉name中结尾与%%后相匹配的最多部分

${name%.*}去掉name中结尾与%后相匹配的最少部分

(6)

${name#*/}去掉name开头部分与#后相匹配的最少部分

${name##*/}去掉name开头部分与##后相匹配的最多部分

(7)

2.(1)

功能:将文件后的参数倒序输出

8行:将echo $count赋值给cmd

9行:将count值减去1

11行:执行cmd的命令

分别执行0次,2次,3

cmd = echo $3

(2)

6行:判断输入用户是否在系统中

8~10行:将第一个元素重定向到Limitstring中,并发送hello qqqq

(3)

功能:将当前所在目录中类型为.sh的文件都复制一份并命名为原文件名.BACHUP--当前日期-当前时间...

(4)

功能:将输入的字符串加行号再次输出

功能:读取文件中的每一行作为参数加行号再次输出

功能:两个文件的每一行作为参数加行号再次输出

4~10行:将用户输入的参数加行号再次输出

14行:若满足条件执行NL功能

17~21行:将屏幕输入的参数传至NL中,最左边的参数丢弃

3.(1)

(2)

 

(3)

 

(4)

(5)

实验小结:

    在本次实验中能够简单的了解shell命令的使用技巧,以及在课堂上练习的题目,对shell命令有了更进一步的熟悉,个别的命令方法还是只能通过网络查找才能明白该命令的使用技巧,加强了对课本基础知识的学习与了解。

转载于:https://www.cnblogs.com/guluquestion/p/9113115.html

逻辑斯蒂回归是一种二分类算法,可以用于预测一个二分类目标变量的概率。我们可以使用梯度下降法来训练逻辑斯蒂回归模型,以预测“房屋单价”属性是否高于或低于平均值。 首先,我们需要将数据集拆分为训练集和测试集,并进行特征缩放。接下来,我们需要定义逻辑斯蒂回归模型,并使用梯度下降法来训练模型。最后,我们可以使用测试集来评估模型的性能。 以下是一个基本的逻辑斯蒂回归模型的示例代码: ```python import numpy as np import pandas as pd from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler # 读取数据集 data = pd.read_excel('data.xlsx') # 特征缩放 scaler = StandardScaler() data[['面积', '房间数']] = scaler.fit_transform(data[['面积', '房间数']]) # 拆分数据集 X = data[['面积', '房间数']] y = data['房屋单价'] > np.mean(data['房屋单价']) X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42) # 定义模型 def sigmoid(z): return 1 / (1 + np.exp(-z)) def predict(X, theta): z = np.dot(X, theta) return sigmoid(z) def cost_function(X, y, theta): m = len(y) h = predict(X, theta) J = (-1/m) * np.sum(y*np.log(h) + (1-y)*np.log(1-h)) return J def gradient_descent(X, y, theta, alpha, iterations): m = len(y) J_history = np.zeros((iterations, 1)) for i in range(iterations): h = predict(X, theta) theta = theta - (alpha/m) * np.dot(X.T, h-y) J_history[i] = cost_function(X, y, theta) return (theta, J_history) # 训练模型 theta = np.zeros((X_train.shape[1], 1)) alpha = 0.01 iterations = 1000 theta, J_history = gradient_descent(X_train, y_train, theta, alpha, iterations) # 评估模型 y_pred = predict(X_test, theta) y_pred = (y_pred > 0.5) accuracy = np.mean(y_pred == y_test) print('准确率:', accuracy) ``` 在上述代码中,我们首先读取数据集,然后对“面积”和“房间数”特征进行特征缩放。接下来,我们拆分数据集,并定义逻辑斯蒂回归模型的关键函数:sigmoid函数(用于计算预测值的概率)、predict函数(用于预测目标变量)、cost_function函数(用于计算损失函数)、gradient_descent函数(用于通过梯度下降法训练模型)。 最后,我们使用训练集来训练模型,并使用测试集来评估模型的性能。在本例中,我们使用准确率作为评估指标。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值