Go爬虫(读写)

想实现的结果:网页爬虫 =》输入链接=》编辑器输出访问的源代码(不包含样式)=》代码保存到本地文本=》通过浏览器访问



ioutil.ReadAll =====> 读取所有数据 如果读取成功,则 err 返回 nil,而不是 EOF func ReadAll(r io.Reader) ([]byte, error)

ioutil.ReadFile ====>读取文件中的所有数据 如果读取成功,则 err 返回 nil,而不是 EOF func ReadAll(r io.Reader) ([]byte, error)

ioutil.WriteFile =====>向文件中写入数据,写入前会清空文件。如果文件不存在,则会以指定的权限创建该文件。

HandleFunc注册一个处理器函数 第一个参数为请求地址 第二个参数为函数类型 表示这个请求需要处理的事情。没有处理复杂的逻辑,而是直接给DefaultServeMux处理



package main

import (
	"fmt"
	"io/ioutil"
	"log"
	"net/http"
)

func main()  {

	//设置路由
	http.HandleFunc("/index",index)

	//绑定监听
	jian:=":8001"
	fmt.Println("启动成功:127.0.0.1",jian)
	http.ListenAndServe(jian,nil)


}

func index(w http.ResponseWriter,r * http.Request)  {
	//获取内容
	v,err :=http.Get("http://4399.com")	//此处的url可以随意换
	if err!=nil{
		fmt.Println(err)	//错误信息
	}

	//关闭
	defer v.Body.Close()

	//读取  ReadAll读取全部内容
	v1,err1 :=ioutil.ReadAll(v.Body)
	if err1!=nil{
		//log.Fatal 退出程序 defer不执行
		log.Fatal(err1)		//错误信息
	}

	result:=string(v1)
	fmt.Println(result)			//输出到编辑器

	//写入文件							//写入到的地址可随机更改
	err2:=ioutil.WriteFile("D:/1804A/爬小虫/源码.txt",[]byte (result),0777)
	if err2!=nil{
		log.Fatal(err2)		//错误信息
	}


	fmt.Println("写入成功")
	w.Write([]byte(result))		//输出到浏览器
}

浏览器输入 127.0.0.1:800/index 进行访问

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值