Golang - 使用 bufio 提升高频写文件操作的效率

背景

最近在写一个通过ftp客户端lib下载ftp-server文件的功能,以前是直接用 wget 命令下载的,然后用ftp客户端下载的时候就发现,速度慢了很多,如果server没有变动,那肯定是client出问题了,于是研究了一下下载的逻辑,其中有一个循环从conn read data的操作,最后定位是高频写操作过慢导致的问题,于是自己测试并修改之后,性能确实恢复了!

具体示例

未使用bufio的写操作

package main

import (
	"fmt"
	"log"
	"os"
	"strconv"
	"testing"
	"time"
)

func Test_FileWrite(t *testing.T) {
	dstFile, err := os.OpenFile("/tmp/test.txt", os.O_CREATE|os.O_WRONLY, os.ModePerm)
	if err != nil {
		log.Fatalf("open file failed, err:%v", err)
	}
	st := time.Now()
	defer func() {
		dstFile.Close()
		fmt.Println("文件写入耗时:", time.Now().Sub(st).Seconds(), "s")
	}()

	for i := 0; i < 100000; i++ {
		dstFile.WriteString(strconv.Itoa(i) + "\n")
	}
}

执行结果:

=== RUN   Test_FileWrite
文件写入耗时: 0.626794301 s
--- PASS: Test_FileWrite (0.63s)
PASS

使用bufio之后的写操作

package main

import (
	"bufio"
	"fmt"
	"log"
	"os"
	"strconv"
	"testing"
	"time"
)

func Test_FileWrite(t *testing.T) {
	dstFile, err := os.OpenFile("/tmp/test.txt", os.O_CREATE|os.O_WRONLY, os.ModePerm)
	if err != nil {
		log.Fatalf("open file failed, err:%v", err)
	}
	bufWriter := bufio.NewWriter(dstFile)
	st := time.Now()
	defer func() {
		bufWriter.Flush()
		dstFile.Close()
		fmt.Println("文件写入耗时:", time.Now().Sub(st).Seconds(), "s")
	}()

	for i := 0; i < 100000; i++ {
		bufWriter.WriteString(strconv.Itoa(i) + "\n")
	}
}

执行结果:

=== RUN   Test_FileWrite
文件写入耗时: 0.022134496 s
--- PASS: Test_FileWrite (0.02s)
PASS

效率对比

0.62s vs 0.02s 优化还是很明显的

注意

1. 关闭文件之前先进行 flush 操作

bufio 通过 flush 操作将缓冲写入真实的文件的,所以一定要在关闭文件之前先flush,否则会造成数据丢失的情况。下面是一个忘记flush的实例:

package main

import (
	"bufio"
	"fmt"
	"log"
	"os"
	"strconv"
	"testing"
	"time"
)

func Test_FileWrite(t *testing.T) {
	dstFile, err := os.OpenFile("/tmp/test.txt", os.O_CREATE|os.O_WRONLY|os.O_TRUNC, os.ModePerm)
	if err != nil {
		log.Fatalf("open file failed, err:%v", err)
	}
	bufWriter := bufio.NewWriter(dstFile)
	st := time.Now()
	defer func() {
		//bufWriter.Flush()   //不进行flush会丢失数据
		dstFile.Close()
		fmt.Println("文件写入耗时:", time.Now().Sub(st).Seconds(), "s")
	}()

	for i := 0; i < 100000; i++ {
		bufWriter.WriteString(strconv.Itoa(i) + "\n")
	}
}

查看写入行数,明显缺少了!

➜  tmp wc -l /tmp/test.txt
   99473 /tmp/test.txt

2. 注意seek操作

想要移动文件指针调用 Seek() 函数需要特别注意,因为这个时候,文件的写入是带缓冲的,一定要避免seek操作的同时,缓冲区和文件没有同步的情况。

异常的例子
package main

import (
	"bufio"
	"fmt"
	"log"
	"os"
	"strconv"
	"testing"
	"time"
)

func Test_FileWrite(t *testing.T) {
	dstFile, err := os.OpenFile("/tmp/test.txt", os.O_CREATE|os.O_WRONLY|os.O_TRUNC, os.ModePerm)
	if err != nil {
		log.Fatalf("open file failed, err:%v", err)
	}
	bufWriter := bufio.NewWriter(dstFile)
	st := time.Now()
	defer func() {
		bufWriter.Flush()
		dstFile.Close()
		fmt.Println("文件写入耗时:", time.Now().Sub(st).Seconds(), "s")
	}()

	for i := 0; i < 100000; i++ {
		dstFile.Seek(0, os.SEEK_SET)
		bufWriter.WriteString(strconv.Itoa(i) + "\n")
	}
}

先说下我们的预期,实际上是每次写一行,然后再移动到第一行,最后覆盖掉第一行,依次往复,文件中应该只有一行,但是因为缓冲的存在,实际上每次写入了一大块,就会造成不符合预期的情况:

➜  tmp wc -l /tmp/test.txt
     683 /tmp/test.txt
正常的例子
package main

import (
	"bufio"
	"fmt"
	"log"
	"os"
	"strconv"
	"testing"
	"time"
)

func Test_FileWrite(t *testing.T) {
	dstFile, err := os.OpenFile("/tmp/test.txt", os.O_CREATE|os.O_WRONLY|os.O_TRUNC, os.ModePerm)
	if err != nil {
		log.Fatalf("open file failed, err:%v", err)
	}
	bufWriter := bufio.NewWriter(dstFile)
	st := time.Now()
	defer func() {
		bufWriter.Flush()
		dstFile.Close()
		fmt.Println("文件写入耗时:", time.Now().Sub(st).Seconds(), "s")
	}()

	for i := 0; i < 100000; i++ {
		dstFile.Seek(0, os.SEEK_SET)
		dstFile.WriteString(strconv.Itoa(i) + "\n")

		//直接使用文件指针进行文件写操作,或者使用 bufio + 每次写操作之后flush 也能达到相同的目的(不过就没有bufio的效果了)
		//bufWriter.WriteString(strconv.Itoa(i) + "\n")
		//bufWriter.Flush()
	}
}

正常的结果,写入只有一行

➜  tmp wc -l /tmp/test.txt
       1 /tmp/test.txt

结论

bufio 在一定场景下还是很能提升效率的,不过还是需要注意与直接写入文件的异同,防止数据未同步的状况发生。

番外

除了bufio 之外,实际上操作系统也自带buf,这个是内存和磁盘之间的buf,不同进程对同一个文件的不同位置进行操作时,就有可能因为还没有写入磁盘,导致读取异常,如果想实时同步,也有对应的方法:

// Sync commits the current contents of the file to stable storage.
// Typically, this means flushing the file system's in-memory copy
// of recently written data to disk.
func (f *File) Sync() error {
	if err := f.checkValid("sync"); err != nil {
		return err
	}
	if e := f.pfd.Fsync(); e != nil {
		return f.wrapErr("sync", e)
	}
	return nil
}

hello world~

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
golang-lru 是一个 Golang 语言实现的 LRU 缓存库,它提供了一个简单易用的 API 用于创建和使用 LRU 缓存。 下面是一个简单的使用示例: ```go package main import ( "fmt" "github.com/hashicorp/golang-lru" ) func main() { // 创建一个 LRU 缓存,容量为 2 cache, _ := lru.New(2) // 添加两个元素到缓存中 cache.Add("key1", "value1") cache.Add("key2", "value2") // 从缓存中获取一个元素 if v, ok := cache.Get("key1"); ok { fmt.Println(v.(string)) } // 添加一个新元素到缓存中,此时缓存容量已满,会自动淘汰最久未使用的元素 "key2" cache.Add("key3", "value3") // 遍历缓存中的所有元素 for _, k := range cache.Keys() { if v, ok := cache.Get(k); ok { fmt.Println(k, v.(string)) } } } ``` 运行上述代码,将会输出: ``` value1 key1 value1 key3 value3 ``` 在这个示例中,我们首先使用 `lru.New()` 函数创建了一个容量为 2 的 LRU 缓存。然后我们添加了两个元素到缓存中,并从缓存中获取了一个元素。接着我们添加了一个新元素,此时缓存已满,会自动淘汰最久未使用的元素 "key2"。最后我们遍历了缓存中的所有元素,输出了它们的键和值。 除了 `Add()` 和 `Get()` 方法外,golang-lru 还提供了 `Remove()` 和 `Contains()` 方法来删除和判断缓存中是否存在某个元素,以及 `Len()` 和 `Clear()` 方法来获取缓存中元素的数量和清空缓存。 golang-lru 还支持并发安全,你可以通过 `NewWithOptions()` 函数创建一个并发安全的 LRU 缓存,具体用法请参考官方文档:https://pkg.go.dev/github.com/hashicorp/golang-lru。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值