golang并发下载多个文件

背景说明

假设有一个分布式文件系统,现需要从该系统中并发下载一部分文件到本地机器。
已知该文件系统的部分节点ip, 以及需要下载的文件fileID列表,并能通过这些信息来拼接下载地址。
其中节点ip列表保存在xx_node.txt, 要下载的fileID保存在xx_fileID.txt中。

代码示例
package main

import (
    "bufio"
    "flag"
    "fmt"
    "io"
    "math/rand"
    "net/http"
    "os"
    "time"
)

var (
    clustername = flag.String("clustername", "c1", "download clustername")
)

// 逐行读取文件内容
func ReadLines(fpath string) []string {
    fd, err := os.Open(fpath)
    if err != nil {
        panic(err)
    }
    defer fd.Close()

    var lines []string
    scanner := bufio.NewScanner(fd)
    for scanner.Scan() {
        lines = append(lines, scanner.Text())
    }
    if err := scanner.Err(); err != nil {
        fmt.Fprintln(os.Stderr, err)
    }

    return lines
}

// 实现单个文件的下载
func Download(clustername string, node string, fileID string) string {
    nt := time.Now().Format("2006-01-02 15:04:05")
    fmt.Printf("[%s]To download %s\n", nt, fileID)

    url := fmt.Sprintf("http://%s/file/%s", node, fileID)
    fpath := fmt.Sprintf("/yourpath/download/%s_%s", clustername, fileID)
    newFile, err := os.Create(fpath)
    if err != nil {
        fmt.Println(err.Error())
        return "process failed for " + fileID
    }
    defer newFile.Close()

    client := http.Client{Timeout: 900 * time.Second}
    resp, err := client.Get(url)
    defer resp.Body.Close()

    _, err = io.Copy(newFile, resp.Body)
    if err != nil {
        fmt.Println(err.Error())
    }
    return fileID
}

func main() {
    flag.Parse()

    // 从文件中读取节点ip列表
    nodelist := ReadLines(fmt.Sprintf("%s_node.txt", *clustername))
    if len(nodelist) == 0 {
        return
    }

    // 从文件中读取待下载的文件ID列表
    fileIDlist := ReadLines(fmt.Sprintf("%s_fileID.txt", *clustername))
    if len(fileIDlist) == 0 {
        return
    }

    ch := make(chan string)

    // 每个goroutine处理一个文件的下载
    r := rand.New(rand.NewSource(time.Now().UnixNano()))
    for _, fileID := range fileIDlist {
        node := nodelist[r.Intn(len(nodelist))]
        go func(node, fileID string) {
            ch <- Download(*clustername, node, fileID)
        }(node, fileID)
    }

    // 等待每个文件下载的完成,并检查超时
    timeout := time.After(900 * time.Second)
    for idx := 0; idx < len(fileIDlist); idx++ {
        select {
        case res := <-ch:
            nt := time.Now().Format("2006-01-02 15:04:05")
            fmt.Printf("[%s]Finish download %s\n", nt, res)
        case <-timeout:
            fmt.Println("Timeout...")
            break
        }
    }
}
小结

下载时没有用到默认的http Client, 并指定了超时时间;
下载文件时调用了系统调用, goroutine会被挂起;
下载文件完成后会唤醒被挂起的goroutine, 该goroutine执行完后面的代码后便退出;
全局超时控制,超时后主线程退出。

  • 4
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要实现高并发分块接收文件服务器,可以使用 Golang 的标准库 `net/http` 实现 HTTP 服务端,同时使用 `multipart/form-data` 实现文件上传功能。 以下是一个简单的示例代码: ```go package main import ( "fmt" "io/ioutil" "net/http" "os" ) func main() { http.HandleFunc("/upload", uploadHandler) http.ListenAndServe(":8080", nil) } func uploadHandler(w http.ResponseWriter, r *http.Request) { // 获取上传的文件 file, handler, err := r.FormFile("file") if err != nil { fmt.Println("Error Retrieving the File") fmt.Println(err) return } defer file.Close() // 读取上传的文件内容 fileBytes, err := ioutil.ReadAll(file) if err != nil { fmt.Println(err) } // 将文件内容写入本地文件 err = ioutil.WriteFile(handler.Filename, fileBytes, 0644) if err != nil { fmt.Println(err) } fmt.Fprintf(w, "File Uploaded Successfully") } ``` 以上代码实现了一个简单的文件上传功能,但是并没有实现分块上传和高并发处理。 要实现分块上传,可以使用 `multipart/form-data` 的 `Content-Range` 头部,将上传的文件切分成多个块,分别上传,最后合并成一个完整的文件。 要实现高并发处理,可以使用 Golang 的协程(goroutine)和通道(channel)机制。可以在接收到上传请求后,启动一个新的协程进行处理,将上传的文件块放入通道中,再启动多个协程进行文件块的处理和合并。 由于实现高并发分块接收文件服务器需要考虑的因素比较多,建议您参考一些已有的成熟的开源项目,例如:https://github.com/minio/minio 或 https://github.com/tus/tusd 等。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值