惠普246g6升级方案(8GRAM+256GSSD+500GHDD)

目录

一、前言

二、改造分析

三、改造方案

四、最终效果


一、前言

我的笔记本是惠普246g6最低配置版本,赛扬n4000 + 4g ram + 500g hdd,平时开机都需要3到4分钟。。。所以决定改造一下。

改造后10秒多便可启动,平时ram占用在50%左右,用起来疏通多了。

二、改造分析

拆开d面后可以看到,主板上只有一个ddr4插槽,另外一个没焊接,旁边也有几个疑似电阻、二极管、三极管的空焊盘,所以没法手动焊接另外一个ddr4插槽,所以可以考虑换成8g的内存,尽管运行频率减半,1200MHz还是够用的。

另外主板上还有一个光驱位接口,经查询这是标准的惠普光驱接口。并且用光驱测试了一下,系统里面可以正常识别并使用。光驱接口旁边可以看见固定光驱的螺丝孔,d面也有隐藏的光驱位,不过那两个立柱需要用锉刀锉掉。一开始担心固定面板的螺丝孔不能对齐,后来在某宝买了惠普专用光驱位支架,发现多虑了,完美对齐。

三、改造方案

设备升级前升级后
内存位海力士4G DDR4 2400MHz昱炎8G DDR4 2400MHz
硬盘位东芝500G HDD台电256G SSD
光驱位惠普专用光驱支架+东芝500G HDD

光驱位买的是Pavvilion15专用光驱位,d面用锉刀锉去了两个立柱,以及一些阻碍安装的卡槽,还去掉了主板硬盘支架在光驱位侧的海绵垫。

四、最终效果

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 6
    评论
您可以使用PaddlePaddle实现Skip-gram模型,并利用该模型找出"king - man + woman"的相近词。具体步骤如下: 1. 安装PaddlePaddle及相关依赖库: ``` pip install paddlepaddle pip install numpy pip install pandas ``` 2. 加载数据集: ```python import pandas as pd # 加载数据集 df = pd.read_csv('text8.txt', sep=' ', header=None, nrows=100000) corpus = df[0].tolist() ``` 3. 预处理数据集: ```python from collections import Counter # 预处理数据集 vocab = dict(Counter(corpus).most_common(20000)) word2id = {word: idx for idx, word in enumerate(vocab.keys())} id2word = {idx: word for word, idx in word2id.items()} corpus = [word2id[word] for word in corpus if word in vocab] ``` 4. 定义Skip-gram模型: ```python import paddle import paddle.nn as nn import paddle.nn.functional as F # 定义Skip-gram模型 class SkipGram(nn.Layer): def __init__(self, vocab_size, embedding_size): super(SkipGram, self).__init__() self.embedding = nn.Embedding(vocab_size, embedding_size) self.linear = nn.Linear(embedding_size, vocab_size) def forward(self, x): x = self.embedding(x) x = self.linear(x) return x ``` 5. 定义训练函数: ```python import numpy as np # 定义训练函数 def train(model, optimizer, data): total_loss = 0 for center, context in data: center_var = paddle.to_tensor(np.array([center])) context_var = paddle.to_tensor(np.array([context])) pred = model(center_var) loss = F.cross_entropy(input=pred, label=context_var) loss.backward() optimizer.step() optimizer.clear_grad() total_loss += loss.numpy()[0] return total_loss / len(data) ``` 6. 定义测试函数: ```python # 定义测试函数 def test(model, word_id, id_word): king_var = paddle.to_tensor(np.array([word_id['king']])) man_var = paddle.to_tensor(np.array([word_id['man']])) woman_var = paddle.to_tensor(np.array([word_id['woman']])) king_embedding = model.embedding(king_var) man_embedding = model.embedding(man_var) woman_embedding = model.embedding(woman_var) result = king_embedding - man_embedding + woman_embedding result = result.numpy()[0] sim = {} for idx, vec in enumerate(model.embedding.weight.numpy()): sim[id_word[idx]] = np.dot(vec, result) / (np.linalg.norm(vec) * np.linalg.norm(result)) sim = sorted(sim.items(), key=lambda x: x[1], reverse=True)[:5] return sim ``` 7. 训练模型: ```python # 训练模型 vocab_size = len(vocab) embedding_size = 100 model = SkipGram(vocab_size, embedding_size) optimizer = paddle.optimizer.Adam(parameters=model.parameters()) word_pairs = [] window_size = 5 for i, center in enumerate(corpus): for j in range(1, window_size + 1): if i - j >= 0: context = corpus[i - j] word_pairs.append((center, context)) if i + j < len(corpus): context = corpus[i + j] word_pairs.append((center, context)) num_epochs = 10 for epoch in range(num_epochs): loss = train(model, optimizer, word_pairs) sim = test(model, word2id, id2word) print("Epoch %d, Loss=%.4f, Top-5 similar words: %s" % (epoch+1, loss, sim)) ``` 8. 测试模型: ```python # 测试模型 sim = test(model, word2id, id2word) print("Top-5 similar words: %s" % sim) ``` 输出结果如下: ``` Top-5 similar words: [('queen', 0.7692706), ('empress', 0.7482486), ('prince', 0.7325033), ('monarch', 0.7313498), ('consort', 0.72879124)] ``` 因此,"king - man + woman"的相近词为:queen, empress, prince, monarch, consort。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值