python
辛勤的搬砖者
这个作者很懒,什么都没留下…
展开
-
【数据结构连载一栈】【四则运算--后缀表达式】python
class Node(object): def __init__(self, data=None): self.data = data self.next = None def __str__(self): return "数据:{data},地址:{next}".format(data=self.data, next=id(self.next)) class LinkedStack(object): def __init__(.原创 2021-05-14 16:43:45 · 255 阅读 · 0 评论 -
【数据结构连载一栈】【斐波那契数列】python
# 循环 def fibonacci_for(num): a, b = 0, 1 l = [] for i in range(num): l.append(a) a, b = b, a + b return l # 递归 def fibonacci_recursive(num): l = [] def fibonacci(num): if num == 0: return 0 .原创 2021-05-14 16:38:48 · 105 阅读 · 0 评论 -
【数据结构连载一栈】【链式存储栈】python
class Node(object): def __init__(self, data=None): self.data = data self.next = None def __str__(self): return "数据:{data},地址:{next}".format(data=self.data, next=id(self.next)) class LinkedStack(object): def __init__(s原创 2021-05-14 16:35:39 · 71 阅读 · 0 评论 -
【数据结构连载一栈】【顺序存储栈】python
# -*- coding: UTF-8 -*- class ListStack(object): def __init__(self, max_size): self._max_size = max_size self._stack = [None] * self._max_size self._top = -1 self._length = 0 def clear(self): self._stack =原创 2021-05-08 16:43:02 · 60 阅读 · 0 评论 -
【数据结构连载一线性表】【单向循环链表】python
# -*- coding: UTF-8 -*- """ 线性表之链式存储结构 循环链表 基本操作: 初始化 __init__ 线性表空判断 empty 清空线性表 clear 获取元素 get 是否存在数据 exist 插入操作 insert 删除操作 delete 线性表的长度 length 扩展操作 遍历链表 sh原创 2021-05-07 16:55:03 · 68 阅读 · 0 评论 -
【数据结构连载一线性表】【单链表】python
# -*- coding: UTF-8 -*- """ 线性表之链式存储结构 基本操作: 初始化 __init__ 线性表空判断 empty 清空线性表 clear 获取元素 get 是否存在数据 exist 插入操作 insert 删除操作 delete 线性表的长度 length 扩展操作 遍历链表 show原创 2021-05-07 16:50:58 · 214 阅读 · 0 评论 -
【数据结构连载一线性表】【顺序表】python
# -*- coding: UTF-8 -*- """ 线性表之顺序存储结构 python 使用list模拟顺序表 基本操作: 初始化 __init__ 线性表空判断 empty 清空线性表 clear 获取元素 get 是否存在数据 exist 插入操作 insert 删除操作 delete 线性表的长度 length 扩展操作原创 2021-05-07 16:45:12 · 89 阅读 · 0 评论 -
【scrapy系列】自定义命令
scrapy有很多内置命令, 例如: scrapy list:列出当前所有爬虫 scrapy version:查看scrapy版本 那么有没有遇到没有适合的命令呢,比如说你想查看所有爬虫以及对应的中文名称(毕竟都是中国人,英文不好的话就很难受),我也是在项目上遇到这个问题,所以就研究了下,做出了这个命令 我起名为names 执行命令: scrapy names:列出所有的爬虫中英文名称 像这样的结果: common_detail:通用详情爬虫 news_paper:新闻爬虫 那么这是怎么实现的呢?原创 2021-02-20 16:19:45 · 103 阅读 · 0 评论