同一个局域网的两台电脑实现文件共享

       前一段时间,因为学校项目需要,像把笔记本电脑里的资料拷到台式机上,文件太大,用U盘考太慢太麻烦,遂想到了文件共享,开始百度找各种方法。有些可用,有些不可用。

方法一:

(1)笔记本和台式机连接到同一个路由器。两台电脑分别关闭防火墙。

(2)要共享文件的机器的电脑启用guest账户(计算机-->管理-->用户和组-->启用guset账户)。

(3)本地安全策略--用户权限分配--guest允许从网络访问这台计算机

(4)文件夹选项--安全--添加guest(注意是安全选项卡)。

(5)打开自己电脑的网上邻居,找到要共享文件的机器,然后需要你输入账户的时候,就用guest账户。

终于可以传文件了,不过坑的是,传输速度太慢,我反正是受不了。果断换个方法。

方法二:

(1)找跟能用的网线。将两台电脑用网线连接起来。

(2)两台电脑关闭防火墙,启用网络发现,把要传输的文件设置共享。

(3)第一台电脑IP地址:192.168.1.1 子网掩码:255.255.255.0 默认网关:192.168.1.1 DNS不管

(4)第二台电脑IP地址:192.168.1.2 子网掩码:255.255.255.0 默认网关:192.168.1.1 DNS不管

(5)打开自己电脑的网上邻居,直接可以进去要共享文件的机器,找到已经被设置共享的文件了。

科技是第一生产力,换了一个方法,快了不知道多少倍。

### 构建H100 1024节点集群网络拓扑 对于构建一个由1024个H100 GPU组成的高性能计算(HPC)集群而言,其设计需考虑多方面因素来确保高效能运算。这类集群通常采用层次化的互连结构,以满足不同层面的数据交换需求。 #### 层次化互联模型 在一个典型的大型GPU集群配置中,最底层是由单个机柜内的若干台服务器通过NVLink技术直接相连形成的小规模子网;这些子网再经由InfiniBand或其他形式的高速网络连接起来构成更大范围内的分布式系统[^1]。具体到拥有1024个节点的情况: - **内部链接**:每台配备有8张H100显卡的服务器内部利用NVIDIA NVSwitch实现全带宽互连,使得同一主机上的所有GPU能够快速共享数据。 - **外部扩展**:跨服务器间的通讯依赖于InfiniBand EDR/HDR/FDR等标准协议提供的低延迟、高吞吐量特性完成。整个集群可能被划分为多个Pods(例如每个包含64或更多节点),各Pod之间也存在相应的上联链路用于全局同步操作。 #### 实际部署考量 考虑到物理空间布局以及散热等问题,在实际搭建过程中往往还会涉及到更复杂的规划。比如按照功能分区布置硬件资源,或是引入液冷方案辅助降温等等措施。此外,针对特定应用场景优化后的定制版固件也可能成为提升整体性能表现的关键要素之一[^3]。 ```mermaid graph TD; A[H100 Cluster Topology] --> B{Pod Level}; B --> C[Server Internal]; C --> D[NVSwitch Interconnect (Per Server)]; C --> E[GPU-to-GPU via NVLink]; B --> F[Inter-Pod Communication]; F --> G[Infiniband Network]; ``` 此Mermaid图表展示了上述描述中的基本概念,其中包含了从单个服务器内部直到跨越不同Pod之间的通信路径。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值