Chapter3:1. 蛇形方阵

P5731 【深基5.习6】蛇形方阵

洛谷
** 题目思路 **

  1. 设定两个变量X,Y,记录“笔”的坐标。
  2. 设定一个变量Count记录编号
  3. 对于这个填数规则就是,从起点开始,一直向右遇到“墙”再向下、同样遇到“墙”再向左….如此循环,右、下、左、上等等等
    1. 对于本题思路就是按照上面那个规则,向右填数到头、向下填数到头、向左填数
    2. 通过 x+1 < size && matrix[y][x+1] == 0 判定边界
    3. 其中:x+1<size 为了判定越界,注意,每一行(列)的最后一个放到下一个while里填
    4. 其中matrix[y][x+1] == 0判定已经填过的数的区域
    5. 内部的四个while循环用来完成一圈的填数
  4. 依据上述的变量循环,完成填数即可
#include<stdio.h>
int matrix[11][11];
void print_matrix(int size);
int main(){
	int size;
	int x = 0, y = 0;
	int count = 1;
	scanf("%d",&size);
	while(count < size * size){
		while( x+1 < size && matrix[y][x+1] == 0) {
			matrix[y][x] = count;
			x++;count++;
		}
		while( y+1 < size && matrix[y+1][x] == 0){
			matrix[y][x] = count;
			y++;count++;	
		}
		
		while( x-1 >= 0 && matrix[y][x-1] == 0) {
			matrix[y][x] = count;
			x--;count++;
		}
		while( y-1 > 0 && matrix[y-1][x] == 0) {
			matrix[y][x] = count;
			y--;count++;
		}
	}
	matrix[y][x] = count;
	print_matrix(size);
	return 0;
}

void print_matrix(int size){
	int x,y; 
	for(y=0;y<size;y++){
		for(x=0;x<size;x++)
			printf("%3d",matrix[y][x]);
		printf("\n");
	}
}
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
import requests import os from bs4 import BeautifulSoup class book_spider(): def __init__(self,root_url): self.root_url=root_url self.book_list=[] #一级页面中获取的数据(二级页面地址)存放于此列表 self.chapter_list=[] #二级页面中获取的数据(三级页面地址和章节名)存放于此列表 def get_url(url): while True: try: res=requests.get(url) if res.status_code==200: res.encoding =res.apparent_encoding print("页面获取成功") return res.text else: print("页面返回异常",res.status_code) except: print("页面获取错误") def get_book_list(self.url): res = self.get_url(url) html = BeautifulSoup(res,"html.parser") a_list = html.find_all("a",{"class":"name"}) for a in a_list: self.book_list.append(a["href"]) self.book_list = [self.root_url+i for i in self.bbok_list] self.book_list.remove('http://10.1.88.252:7000/庆余年') print(book_list) def get_chapter_list(self,url): res = self.get_url(url) html = BeautifulSoup(res,"html.parser") a_list = html.find_all("a",{"class":"chapter"}) for a in a_list: self.chapter_list.append((a["href"],a.text.replace("\n",""))) def get_content(self.chapter): url = self.root_url + chapter[0] print(url) book_name = chapter[0].split("/")[1] print(book_name) if not os.path.exists(book_name): os.mkdir(book_name) res = self.get_url(url) html = BeautifulSoup(res,"html.parser") content = html.find("div",{"id":"content"}).text print(content) path = os.path.join(book_name,chapter[1]) with open(path,"w",encoding="utf8") as f: f.write(content) def main(): self.get_book_list(self.root_url) for book in self.book_list: self.get_chapter_liat(book) for chapter in chapter_list: self.get_content(chapter) book_s = book_spider("http://10.1.88.252:7000") book_s.main()这是一段爬虫代码,找出里面的错误并改正
06-02
有以下几个错误: 1. 在 `get_url` 方法中,需要在 `self` 参数之前添加 `@staticmethod` 装饰器,使其成为静态方法。 2. 在 `get_book_list` 方法中,`print(book_list)` 应该改为 `print(self.book_list)`,因为 `book_list` 是类成员变量。 3. 在 `get_book_list` 方法中,将 `self.bbok_list` 改为 `self.book_list`。 4. 在 `get_chapter_list` 方法中,将 `self.chapter_list.append((a["href"],a.text.replace("\n","")))` 改为 `self.chapter_list.append((self.root_url+a["href"],a.text.replace("\n","")))`,因为需要获取完整的章节链接。 5. 在 `get_content` 方法中,将 `print(url)` 和 `print(book_name)` 改为注释,因为这些是调试信息。 改正后的代码如下: ``` import requests import os from bs4 import BeautifulSoup class book_spider(): def __init__(self,root_url): self.root_url=root_url self.book_list=[] self.chapter_list=[] @staticmethod def get_url(url): while True: try: res=requests.get(url) if res.status_code==200: res.encoding =res.apparent_encoding print("页面获取成功") return res.text else: print("页面返回异常",res.status_code) except: print("页面获取错误") def get_book_list(self,url): res = self.get_url(url) html = BeautifulSoup(res,"html.parser") a_list = html.find_all("a",{"class":"name"}) for a in a_list: self.book_list.append(self.root_url + a["href"]) self.book_list.remove('http://10.1.88.252:7000/庆余年') print(self.book_list) def get_chapter_list(self,url): res = self.get_url(url) html = BeautifulSoup(res,"html.parser") a_list = html.find_all("a",{"class":"chapter"}) for a in a_list: self.chapter_list.append((self.root_url+a["href"],a.text.replace("\n",""))) def get_content(self,chapter): url = chapter[0] book_name = chapter[0].split("/")[1] if not os.path.exists(book_name): os.mkdir(book_name) res = self.get_url(url) html = BeautifulSoup(res,"html.parser") content = html.find("div",{"id":"content"}).text path = os.path.join(book_name,chapter[1]) with open(path,"w",encoding="utf8") as f: f.write(content) def main(self): self.get_book_list(self.root_url) for book in self.book_list: self.get_chapter_list(book) for chapter in self.chapter_list: self.get_content(chapter) book_s = book_spider("http://10.1.88.252:7000") book_s.main() ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值