爬虫框架Scrapy安装

import os
import time
from functools import wraps
from typing import Any

import requests

file_name = ‘demo01.py’

cert_dir = “/home/share/Robot/auto-test/Robot/testcase_ft/7.daisy/calla_certificate/certfile”

cert_file = os.path.join(cert_dir, file_name)

print(cert_file)

def funb(s):

n = int(s)

if n == 0:

raise ValueError(‘invalid value: %s’ %s)

return 10 / n

def funa():

try:

funb(‘0’)

except ValueError as e:

print(‘ValueError’)

# 按照原错误抛出

raise

funa()

response = requests.get(‘https://www.baidu.com’)

print(response.status_code)

print(response.text)

response = requests.get(‘https://www.baidu.com/s’, params={‘wd’: ‘python’})

print(response.url)

x = {0: 6, 1: 6}

print(type(eval(‘x’)))

payload 请求头

calla 网络

装饰器原型

def baidu():

print(‘我是工程师’)

def blog(name):

print(‘进入blog函数’)

name()

print(‘我的博客’)

func = baidu

func()

blog(baidu)

装饰器

def count_time(func):

def wrapper():

t1 = time.time()

func()

print(‘执行时间’, time.time() - t1)

return wrapper

@count_time

def baiyu():

print(‘打击好’)

time.sleep(2)

baiyu()

被装饰的函数带参

def baidu():

print(‘我是工程师’)

def count_time(func):

def wrapper(*args, **kwargs):

t1 = time.time()

func(*args, **kwargs)

print(‘执行时间’, time.time() - t1)

return wrapper

@count_time

def blog(name):

print(‘进入blog函数’)

name()

print(‘我的博客’)

blog(baidu)

带参数的装饰器

def count_time_args(msg=None):

def count_time(func):

def wrapper(*args, **kwargs):

t1 = time.time()

func(*args, **kwargs)

print(f"{msg}执行时间", time.time() - t1)

return wrapper

return count_time

@count_time_args(msg=‘baiyu’) # count_time(func)

# 将msg='baiyu’传递给count_time_args函数,返回了count_time函数,即@count_time

# 然后再将fun_one函数传给count_time函数,fun_one = count_time(fun_one)

def fun_one():

time.sleep(1)

fun_one()

class BaiyuDecoration:

def init(self, func):

self.func = func

print(‘init’)

def call(self, *args, **kwds):

print(‘call’)

t1 = time.time()

self.func(*args, **kwds)

print(‘执行时间’, time.time() - t1)

@BaiyuDecoration

def baidu():

print(‘工程师’)

time.sleep(2)

def python_blog_list():

print(‘yiqunshabi’)

@BaiyuDecoration

def blog(name):

print(‘进入blog’)

name()

time.sleep(2)

# 类装饰器

baidu()

# 被装饰的函数带参

blog(python_blog_list)

# 类装饰器

class BaiyuDecoration:

def call(self, func):

def baiyu(*arg):

print(‘call’)

t1 = time.time()

print(‘执行时间’, time.time() - t1)

func(*arg)

return baiyu

@BaiyuDecoration() # baidu = BaiyuDecoration().call(baidu)

def baidu():

print(‘工程师’)

time.sleep(2)

def python_blog_list():

print(‘yiqunshabi’)

@BaiyuDecoration()

def blog(name):

print(‘进入blog’)

name()

time.sleep(2)

# 类装饰器

baidu()

# 被装饰的函数带参

blog(python_blog_list)

# 带参数的类装饰器

class BaiyuDecorator:

# 装饰器参数

def init(self, arg1, arg2):

self.arg1 = arg1

self.arg2 = arg2

def call(self, func):

def baidu(*agrs):

print(‘nh’)

func(*agrs)

print(f’{self.arg1}')

print(f’{agrs}')

return baidu

@BaiyuDecorator(‘hello’, ‘baidu’)

def blog(name):

print(‘进入blog’)

name()

time.sleep(2)

def python_blog_list():

print(‘yiqunshabi’)

blog(python_blog_list)

AA(f)

def AA(func):

print(‘AA 1’)

def func_a(*args):

print(‘aa 2’)

return func(*args)

return func_a

@AA # 装饰器函数在被装饰函数定义好后立即执行

def f(x):

print(‘f’)

return x * 10

BB(func_a)

def BB(func):

print(‘BB 1’)

def func_b(*args):

print(‘bb 2’)

return func(*args) # func相当于func_a

return func_b

@BB

@AA #AA(f)装饰器函数在被装饰函数定义好后立即执行,所以打印出AA 1

def f(x):

print(‘f’)

return x * 10

print(f(1))

对比

def my_decorator(func):

def wrapper():

print(‘before function execution’)

func()

print(‘after function execution’)

return wrapper

def say_hello():

print(‘hello’)

say_hello = my_decorator(say_hello)

say_hello()

def my_decorator(func):

def wrapper():

print(“before function execution”)

func()

print(“after function execution”)

return wrapper

@my_decorator

def say_hello():

print(‘hello’)

say_hello()

类装饰器

def add_method(cls):

def print_name(self):

print(f"the class name is {self.class}") # 查看对象所在的类

cls.print_name = print_name

return cls

# 装饰器 add_method 直接修改了传入的类 cls,给它添加了一个新的方法 print_name,然后返回修改后的类

@add_method

class MyClass:

pass

obj = MyClass()

obj.print_name()

类装饰类

class ShowClassName:

def init(self, cls):

self._cls = cls

def call(self, a):

print(‘class name:’, self._cls.name)

return self._cls(a)

@ShowClassName

class Foobar:

def init(self, a):

self.value = a

def fun(self):

print(self.value)

a = Foobar(‘xiemanR’)

a.fun()

类作为装饰器装饰类

class animal:

def init(self, func):

self.func = func

def call(self, *args, **kwargs):

print(‘working here’)

res = self.func(*args, **kwargs)

return res

@animal

class dogs:

def test2(*args):

print(‘look here’)

wonwon = dogs()

# dogs = animal().call(dogs)

# dogs() = animal().call(dogs)

wonwon.test2()

class A:

def call(self, *args):

print(‘nh’)

a = A()

print(a())

cert_info = [‘a’]

certs = ‘,’.join(cert_info)
print(certs)

external 外部

modify修改

  • 8
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
水资源是人类社会的宝贵财富,在生活、工农业生产中是不可缺少的。随着世界人口的增长及工农业生产的发展,需水量也在日益增长,水已经变得比以往任何时候都要珍贵。但是,由于人类的生产和生活,导致水体的污染,水质恶化,使有限的水资源更加紧张。长期以来,油类物质(石油类物质和动植物油)一直是水和土壤中的重要污染源。它不仅对人的身体健康带来极大危害,而且使水质恶化,严重破坏水体生态平衡。因此各国都加强了油类物质对水体和土壤的污染的治理。对于水中油含量的检测,我国处于落后阶段,与国际先进水平存在差距,所以难以满足当今技术水平的要求。为了取得具有代表性的正确数据,使分析数据具有与现代测试技术水平相应的准确性和先进性,不断提高分析成果的可比性和应用效果,检测的方法和仪器是非常重要的。只有保证了这两方面才能保证快速和准确地测量出水中油类污染物含量,以达到保护和治理水污染的目的。开展水中油污染检测方法、技术和检测设备的研究,是提高水污染检测的一条重要措施。通过本课题的研究,探索出一套适合我国国情的水质污染现场检测技术和检测设备,具有广泛的应用前景和科学研究价值。 本课题针对我国水体的油污染,探索一套检测油污染的可行方案和方法,利用非分散红外光度法技术,开发研制具有自主知识产权的适合国情的适于野外便携式的测油仪。利用此仪器,可以检测出被测水样中亚甲基、甲基物质和动植物油脂的污染物含量,为我国众多的环境检测站点监测水体的油污染状况提供依据。
### 内容概要 《计算机试卷1》是一份综合性的计算机基础和应用测试卷,涵盖了计算机硬件、软件、操作系统、网络、多媒体技术等多个领域的知识点。试卷包括单选题和操作应用两大类,单选题部分测试学生对计算机基础知识的掌握,操作应用部分则评估学生对计算机应用软件的实际操作能力。 ### 适用人群 本试卷适用于: - 计算机专业或信息技术相关专业的学生,用于课程学习或考试复习。 - 准备计算机等级考试或职业资格认证的人士,作为实战演练材料。 - 对计算机操作有兴趣的自学者,用于提升个人计算机应用技能。 - 计算机基础教育工作者,作为教学资源或出题参考。 ### 使用场景及目标 1. **学习评估**:作为学校或教育机构对学生计算机基础知识和应用技能的评估工具。 2. **自学测试**:供个人自学者检验自己对计算机知识的掌握程度和操作熟练度。 3. **职业发展**:帮助职场人士通过实际操作练习,提升计算机应用能力,增强工作竞争力。 4. **教学资源**:教师可以用于课堂教学,作为教学内容的补充或学生的课后练习。 5. **竞赛准备**:适合准备计算机相关竞赛的学生,作为强化训练和技能检测的材料。 试卷的目标是通过系统性的题目设计,帮助学生全面复习和巩固计算机基础知识,同时通过实际操作题目,提高学生解决实际问题的能力。通过本试卷的学习与练习,学生将能够更加深入地理解计算机的工作原理,掌握常用软件的使用方法,为未来的学术或职业生涯打下坚实的基础。
Scrapy是一个适用于Python的快速、高层次的屏幕抓取和web抓取框架。它可以用于抓取web站点并从页面中提取结构化的数据。Scrapy的用途广泛,可以用于数据挖掘、监测和自动化测试。Scrapy是一个框架,可以根据需求进行定制,并提供了多种类型爬虫的基类,如BaseSpider和sitemap爬虫等。最新版本还提供了对web2.0爬虫的支持。 网络爬虫框架Scrapy还有一些基本模块,包括spiders、items、pipelines和middlewares等。其中,spiders下的jingding.py是Scrapy自动生成的爬虫文件,它继承了scrapy.Spider类,这是Scrapy中最基本的类,所有编写的爬虫都必须继承这个类。在jingding.py文件中,可以定义需要爬取的网站的URL和解析响应的方法等。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* *3* [爬虫框架 Scrapy 详解](https://blog.csdn.net/m0_67403076/article/details/126081516)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] - *2* [开源python网络爬虫框架Scrapy.pdf](https://download.csdn.net/download/weixin_72426331/85854755)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 50%"] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值