“80后”的28个特征(巨准)

1.永远找不到自己的笔(都是用键盘写字吧);
2.永远对自己的发型不满意(来个光头算了);
3.所有的电器都不看说明书(聪明);
4.尽量使用自助办理业务(方便);
5.使用最多的称呼是同学(嗯);
6.喜欢玩小孩但不喜欢生小孩(-______-``);
7.拥有一种奇怪的固执(是地!);
8.熟人面前话多,生人面前一言不发;
9.认为幽默感是做人的根本;
10.为了不熬夜,不如就通宵(都是夜猫子);
11.五一、十一决不出游(哪儿都是人山人海的);
12.业余爱好中必有一项是睡觉;
13.经常觉得自己老了;
14.两分钟经常这样安排:前一分钟是崇拜,后一分钟变成蔑视或者相反;
15.永远觉得别人不可能了解自己;
16.MSN名字一天至少一换(是签名吧);
17.不问问题,只查百度(有问题?百度一下!);
18.每个人都是电影迷(废话,没事就看电影!);
19.会画画,喜欢画画或者想学画画;
20.有一款自己喜欢的卡通形象(旋涡鸣人!);
21.热衷于研究星座运势(占卜!);
22.R&B,R&R,Hip-Hip,至少喜欢一个(陶吉吉!);
23.熟知每家K房的歌曲;
24.可以穿短裤上班(+拖鞋);
25.任何工作都和电脑有关(哈哈!);
26.电脑里一定有聊天工具(必须品);
27.我高兴,你管得着吗(人家乐意~~~);
28.尽管不屑仍然看完以上内容(确实)。

我只有16 17不符合其他都符合……
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
如果有10个特征,我们可以按照以下步骤进行支持向量机模型的训练和预测: 1. 数据预处理:对原始数据进行缺失值填充、异常值处理、特征归一化等预处理操作,以提高模型训练和预测的性能。 2. 数据划分:将预处理后的数据集按照一定比例(如 7:3)划分为训练集和测试集,以便评估模型的性能。 3. 特征选择:根据业务需求和特征相关性等因素,选择合适的特征进行模型训练,以避免过拟合和提高模型泛化能力。 4. 模型训练:使用 fitrsvm 函数训练支持向量机模型,同时指定合适的核函数、正则化参数、容错参数等超参数,以提高模型的训练和预测性能。 5. 模型预测:使用 predict 函数对测试集进行预测,得到预测结果。 6. 模型评估:计算模型的评价指标,如均方误差、平均绝对误差等,以评估模型的性能,并根据需要对模型进行调整和优化。 下面是一个简单的示例代码,假设我们有一个包含10个特征的数据集,我们使用线性核函数训练一个支持向量机模型: ```matlab % 生成数据集 n = 100; % 样本数量 X = randn(n, 10); % 10个特征 y = 2*X(:,1) - 3*X(:,2) + randn(n,1); % 目标值 y % 划分训练集和测试集 idx = randperm(n); num_train = 80; X_train = X(idx(1:num_train), :); y_train = y(idx(1:num_train)); X_test = X(idx(num_train+1:end), :); y_test = y(idx(num_train+1:end)); % 训练支持向量机模型 svmModel = fitrsvm(X_train, y_train, 'KernelFunction', 'linear'); % 预测测试集目标值 y_pred = predict(svmModel, X_test); % 计算模型均方误差 mse = mean((y_pred - y_test).^2); disp(['模型均方误差:' num2str(mse)]); ``` 需要注意的是,在具体应用中,我们可能需要对模型进行调参,如调整核函数类型、正则化参数、容错参数等超参数,以进一步提高模型的性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值