PyTorch源码浅析(5):Python扩展

这篇是本系列最后一篇博客了,介绍一下前面的C++代码怎么与Python交互,或者说Python里怎么调用C++代码进行高效的计算。首先简单介绍一下预备知识,既Python的C扩展通常怎么写;然后以比较核心的数据结构 Tensor 和 Storage 为例看一下它们怎么转换为Python类型的;最后稍带点儿Python自微分函数的实现。

Python的C/C++扩展

扩展模块

对于简单的C代码,构建一个自定义扩展模块是很容易的。C/C++部分基本上只需要做以下几件事:
在这里插入图片描述
举个例子,下面的代码构建了一个只有一个函数的Python模块,该函数的功能是求最大公约数(py_gcd):

#include "Python.h"
#include "sample.h"

/* 把普通C语言实现的gcd()封装成Python可以调用的函数 */
static PyObject *py_gcd(PyObject *self, PyObject *args) {
  int x, y, result;

  /* 从 args 里解析实际参数 */
  if (!PyArg_ParseTuple(args,"ii", &x, &y)) {
    return NULL;
  }
  /* 调用普通C语言实现的gcd() */
  result = gcd(x,y);
  /* 把 int 转化为 PyObject* */
  return Py_BuildValue("i", result);
}

/* 定义模块的 method table */
static PyMethodDef SampleMethods[] = {
  {"gcd",  py_gcd, METH_VARARGS, "Greatest common divisor"},
  { NULL, NULL, 0, NULL}
};

/* 定义模块结构 */
static struct PyModuleDef samplemodule = {
  PyModuleDef_HEAD_INIT,
  "sample",           /* name of module */
  "A sample module",  /* Doc string (may be NULL) */
  -1,                 /* Size of per-interpreter state or -1 */
  SampleMethods       /* Method table */
};

/* 模块初始化函数 */
PyMODINIT_FUNC PyInit_sample(void) {
  return PyModule_Create(&samplemodule);
}

要绑定这个扩展模块,像下面这样创建一个setup.py文件:

# setup.py
from distutils.core import setup, Extension

setup(name='sample',
      ext_modules=[
        Extension('sample',
                  ['pysample.c'],
                  include_dirs = ['/some/dir'],
                  define_macros = [('FOO','1')],
                  undef_macros = ['BAR'],
                  library_dirs = ['/usr/local/lib'],
                  libraries = ['sample']
                  )
        ]
)

为了构建最终的函数库,只需简单的使用python3 buildlib.py build_ext --inplace命令即可。它会创建一个名字叫sample.so的共享库,当被编译后,你就能将它作为一个模块导入进来了:

>>> import sample
>>> sample.gcd(35, 42)
7

自定义Python类型

在Python代码中如果要创建一个自定义类使用class关键字即可,但是在C代码中就没那么方便了。首先简单介绍下Python中的类型。在Python中一切皆对象,Python中有两种对象:

  • 一种是类型对象(class对象):表示Python定义的类型,例如int, str, object等;

  • 另一种是实例对象(instance对象):表示由class对象创建的实例。

Python中的所有对象都是直接或者间接继承object,然后object又是type类型。Python对象的C语言实现也是分为两部分,一部分表示实例对象,存储对象实际的数据;另一部分是类型对象,存储对象的元数据。也就是说,自定义类型也要实现这两部分,举个例子:

/* 实例对象 */
typedef struct {
    PyObject_HEAD
    /* 类型实际的数据在这里定义 */
    int value;
} noddy_NoddyObject;

/* 类型对象 */
static PyTypeObject noddy_NoddyType = {
    PyVarObject_HEAD_INIT(NULL, 0)
    "noddy.Noddy",             /*tp_name*/
    sizeof(noddy_NoddyObject), /*tp_basicsize*/
    0,                         /*tp_itemsize*/
    0,                         /*tp_dealloc*/
    0,                         /*tp_print*/
    0,                         /*tp_getattr*/
    0,                         /*tp_setattr*/
    0,                         /*tp_compare*/
    0,                         /*tp_repr*/
    0,                         /*tp_as_number*/
    0,                         /*tp_as_sequence*/
    0,                         /*tp_as_mapping*/
    0,                         /*tp_hash */
    0,                         /*tp_call*/
    0,                         /*tp_str*/
    0,                         /*tp_getattro*/
    0,                         /*tp_setattro*/
    0,                         /*tp_as_buffer*/
    Py_TPFLAGS_DEFAULT,        /*tp_flags*/
    "Noddy objects",           /*tp_doc*/
};

然后创建一个新扩展模块,并完成初始化:

/* 定义模块的 method table */
static PyMethodDef noddy_methods[] = {
    {NULL}
};

/* 模块初始化函数 */
PyMODINIT_FUNC initnoddy(void) 
{
    PyObject* m;
    /* tp_new 相当于Python里的 __new__ */
    noddy_NoddyType.tp_new = PyType_GenericNew;
  
    if (PyType_Ready(&noddy_NoddyType) < 0)
        return;

    m = Py_InitModule3("noddy", noddy_methods,
                       "Example module");

    Py_INCREF(&noddy_NoddyType);
    /* 向模块添加类型 */
    PyModule_AddObject(m, "Noddy", (PyObject*)&noddy_NoddyType);
}

torch._C

有了上面的预备知识之后,我们就能看ATen还有autograd等模块的代码是怎么导入Python了。构建Python扩展模块的代码在torch/csrc/Module.cpp里,主要部分如下:

/* method table */
static std::vector<PyMethodDef> methods;

/* 初始化模块 */
PyObject* initModule() {
  HANDLE_TH_ERRORS
  THInferNumThreads();

  /* 向 method table 添加函数 */
  THPUtils_addPyMethodDefs(methods, TorchMethods);
  THPUtils_addPyMethodDefs(methods, DataLoaderMethods);
  THPUtils_addPyMethodDefs(methods, 
                           torch::autograd::python_functions());
  THPUtils_addPyMethodDefs(methods, 
                       torch::multiprocessing::python_functions());
	...

  /* 构建 torch._C 模块 */
#if PY_MAJOR_VERSION == 2
  ASSERT_TRUE(module = Py_InitModule("torch._C", methods.data()));
#else
  static struct PyModuleDef torchmodule = {
      PyModuleDef_HEAD_INIT, "torch._C", nullptr, -1, 
      methods.data()
  };
  ASSERT_TRUE(module = PyModule_Create(&torchmodule));
#endif
  
  /* 各种初始化 */
  ASSERT_TRUE(THPWrapper_init(module));
  ...
  torch::autograd::initNNFunctions(module);     // 初始化自微分相关API
  torch::autograd::init_legacy_variable(module);// 初始化Tensor类型
  torch::python::init_bindings(module);         // 初始化NN相关函数
#ifdef USE_CUDA
  torch::cuda::initModule(module);              // 初始化CUDA模块
#endif
  /* 初始化各种Storage类型 */
  ASSERT_TRUE(THPDoubleStorage_init(module));
  ASSERT_TRUE(THPFloatStorage_init(module));
  ASSERT_TRUE(THPHalfStorage_init(module));
  ASSERT_TRUE(THPLongStorage_init(module));
  ASSERT_TRUE(THPIntStorage_init(module));
  ASSERT_TRUE(THPShortStorage_init(module));
  ASSERT_TRUE(THPCharStorage_init(module));
  ASSERT_TRUE(THPByteStorage_init(module));
  ASSERT_TRUE(THPBoolStorage_init(module));
 
  ...
    
  return module;
  END_HANDLE_TH_ERRORS
}

基本上所有C/C++实现的API都被绑定在torch._C扩展模块中,下面以Storage和Tensor为例,看一下torch.Storage和torch.Tensor类型的绑定方法,比较有意思的是它们两个的绑定方式区别还挺大的。

Storage

从上面的initModule()函数中可以看到,里面有许多初始化各种Storage类型的代码,它们的目的就是创建各种Storage类型,如torch._C._FloatStorageBase,torch._C._LongStorageBase等,而torch.FloatStorage等类型是从Python端创建的,继承自torch._C._FloatStorageBase等类型,这部分代码可以在torch/init.py中找到。

回到绑定过程,THPDoubleStorage_init()等函数其实是用C范式生成的,和第一篇里的TH库中用的方法一样。它实际调用的函数是bool THPStorage_(init)(PyObject *module),实现torch/csrc/generic/Storage.cpp里,这个函数会根据不同类型展开:

bool THPStorage_(init)(PyObject *module)
{
  static std::vector<PyMethodDef> methods;
  THPUtils_addPyMethodDefs(methods, THPStorage_(methods));
#ifndef THD_GENERIC_FILE
  THPUtils_addPyMethodDefs(methods, THPStorage_(sharingMethods));
#endif

  /* 绑定类方法 */
  THPStorageType.tp_methods = methods.data();
  /* 绑定类成员 */
  THPStorageType.tp_members = THPStorage_(members);
  if (PyType_Ready(&THPStorageType) < 0)
    return false;
  Py_INCREF(&THPStorageType);
  /* 向模块添加 THPStorage 类型 */
  PyModule_AddObject(module, THPStorageBaseStr, 
                     (PyObject*)&THPStorageType);
  THPStorage_(initCopyMethods)();
  return true;
}

这个函数初始化了THPStorageType类型并添加到torch._C模块中,该类型的定义如下:

/* 实例对象 */
struct THPStorage {
  PyObject_HEAD
  /* THWStorage 为宏定义,会转换为 THxxxStorage */
  THWStorage *cdata;
};

/* 类型对象 */
PyTypeObject THPStorageType = {
  PyVarObject_HEAD_INIT(nullptr, 0)
  "torch._C." THPStorageBaseStr,         /* tp_name */
  sizeof(THPStorage),                    /* tp_basicsize */
  0,                                     /* tp_itemsize */
  (destructor)THPStorage_(dealloc),      /* tp_dealloc */
  ...
  THPStorage_(pynew),                    /* tp_new */
};

Python里类型的名字由tp_name域确定,也就是"torch._C." THPStorageBaseStr,后者一看就是宏定义,它展开后会变成 _xxxStorageBase,其中xxx为各种类型,所以最后就变成了 torch._C._FloatStorageBase等类型。

Tensor

torch.Tensor的实现就与torch.Storage不一样了,因为ATen的存在,绑定的话也是绑定ATen里的Tensor,不会绑定THTensor。还有一点,就是Python里的Tensor和Variable合并了,所以torch.Tensor直接和 autograd::Variable绑定在一起了。不过准确来说是 torch._C._TensorBase和 autograd::Variable绑定在一起了,而 torch.Tensor继承自 torch._C._TensorBase。

绑定的代码在 torch/csrc/autograd/python_variable.cpp中:

// python_variable.h
/* 实例对象 */
struct THPVariable {
    PyObject_HEAD
    // Payload
    torch::autograd::Variable cdata;
    PyObject* backward_hooks = nullptr;
};

// python_variable.cpp
...
/* 类型对象 */
PyTypeObject THPVariableType = {
  PyVarObject_HEAD_INIT(nullptr, 0)
  "torch._C._TensorBase",                /* tp_name */
  sizeof(THPVariable),                   /* tp_basicsize */
  0,                                     /* tp_itemsize */
  (destructor)THPVariable_dealloc,       /* tp_dealloc */
  ...
  THPVariable_pynew                      /* tp_new */
};

/* 初始化类型 */
bool THPVariable_initModule(PyObject *module)
{
  /* 获取 method table */
  static std::vector<PyMethodDef> methods;
  THPUtils_addPyMethodDefs(methods, 
                           torch::autograd::variable_methods);
  THPUtils_addPyMethodDefs(methods, extra_methods);
  /* 绑定类方法 */
  THPVariableType.tp_methods = methods.data();
  if (PyType_Ready(&THPVariableType) < 0)
    return false;
  Py_INCREF(&THPVariableType);
  /* 向模块中添加类型 */
  PyModule_AddObject(module, "_TensorBase", 
                     (PyObject *)&THPVariableType);
  torch::autograd::initTorchFunctions(module);
  return true;
}

注意到,这里只绑定了 _TensorBase一种类型,而不像Storage那样利用宏把各种类型的StorageBase都定义了。

其他类型的Tensor,如 torch.FloatTensor等在 torch/tensor/python_tensor.cpp中的 initialize_python_bindings()函数里动态绑定:

void initialize_python_bindings() {
  /* 把ATen里的Tensor类型转化为Python里的PyTypeObject */
  initialize_aten_types(tensor_types);

  /* 初始化上面转化来的PyTypeObject */
  py_initialize_metaclass(metaclass);

  /* 获取 torch.Tensor 的所有方法 */
  auto tensor_dict = get_tensor_dict();

  /* 把torch.Tensor的方法复制给每个类型,如torch.FloatTensor等 */
  for (auto& tensor_type : tensor_types) {
    py_initialize_tensor_type(tensor_type.py_type, 
                              tensor_type.name, tensor_dict.get());
  }

  /* 向torch模块绑定这些各种类型的Tensor */
  py_bind_tensor_types(tensor_types);

  /* 设置 torch.Tensor 的默认类型为 torch.FloatTensor */
  set_default_tensor_type(at::globalContext().getVariableType(
    at::Backend::CPU, at::kFloat));
}

这个函数由Python调用,调用的代码在 torch/init.py中(_C._initExtension())。调用时 torch.Tensor已经定义,这个函数要做的就是定义其他Tensor类型,然后把Tensor类型的方法直接拷贝给它们,最后在设置一下默认类型的Tensor。为什么数据类型不同却可以直接拷贝?因为 at::Tensor可以针对不同数据类型调用不同的方法,类型多态已经在ATen内部实现了。

在上面的代码中,Tensor 绑定的方法来自 torch::autograd::variable_methods,这个列表在 csrc/autograd/generated/python_variable_methods.cpp中:

PyMethodDef variable_methods[] = {
  {"__add__", (PyCFunction)THPVariable_add, METH_VARARGS | METH_KEYWORDS, NULL},
  {"__radd__", (PyCFunction)THPVariable_add, METH_VARARGS | METH_KEYWORDS, NULL},
  {"__iadd__", (PyCFunction)THPVariable_add_, METH_VARARGS | METH_KEYWORDS, NULL},
  {"__rmul__", (PyCFunction)THPVariable_mul, METH_VARARGS | METH_KEYWORDS, NULL},
  {"__mul__", (PyCFunction)THPVariable_mul, METH_VARARGS | METH_KEYWORDS, NULL},
  {"__imul__", (PyCFunction)THPVariable_mul_, METH_VARARGS | METH_KEYWORDS, NULL},
  {"__sub__", (PyCFunction)THPVariable_sub, METH_VARARGS | METH_KEYWORDS, NULL},
  {"addcmul", (PyCFunction)THPVariable_addcmul, METH_VARARGS | METH_KEYWORDS, NULL}
  ...
}

从文件路径可以看出这也是根据 derivatives.yaml自动生成的代码,拿 addcmul举个例子看看这些函数的实现方法:

static PyObject * THPVariable_addcmul(PyObject* self_, PyObject* args, PyObject* kwargs)
{
  HANDLE_TH_ERRORS
  static PythonArgParser parser({
    "addcmul(Scalar value, Tensor tensor1, Tensor tensor2)|deprecated",
    "addcmul(Tensor tensor1, Tensor tensor2, *, Scalar value=1)",
  }, /*traceable=*/true);
  /* 获取autograd::Variable实例 */
  auto& self = reinterpret_cast<THPVariable*>(self_)->cdata;
  /* 解析函数参数 */
  ParsedArgs<4> parsed_args;
  auto r = parser.parse(args, kwargs, parsed_args);

  /* 调用 dispatch */
  if (r.idx == 0) {
    return wrap(dispatch_addcmul(self, r.scalar(0), r.tensor(1), r.tensor(2)));
  } else if (r.idx == 1) {
    return wrap(dispatch_addcmul(self, r.tensor(0), r.tensor(1), r.scalar(2)));
  }
  Py_RETURN_NONE;
  END_HANDLE_TH_ERRORS
}

最终函数调用了 dispatch_addcmul()进行下一步计算,该函数在同文件夹的 python_variable_methods_dispatch.h,可见这个文件也是自动生成的,函数声明如下:

inline Tensor dispatch_addcmul(Tensor & self, Scalar value, const Tensor & tensor1, const Tensor & tensor2) {
  /* 释放GIL锁 */
  AutoNoGIL no_gil;
  /* 调用 autograd::Variable.addcmul */
  return self.addcmul(tensor1, tensor2, value);
}

这个函数首先获取了GIL锁,然后调用C++前端 Variable.addcmul()进行计算,由于后者实现了自动微分,所以Python调用也具有自动微分功能。为什么要释放GIL锁?因为这样才能使其与Python解释器中的其他进程一起正确的执行。

也就是说,Python Tensor的方法的封装思路是:

  • 生成dispatch系列函数,该函数用于释放GIL锁,然后调用Variable的对应实现
  • 生成可被Python调用的API,该函数解析Python参数,并调用dispatch系列函数进行实际计算

NN

神经网络的部分函数也有部分函数是直接从 ATen 绑定而来,绑定到 torch._C._nn模块中,代码在 csrc/autograd/generate/python_nn_functions.cpp中:

static PyMethodDef nn_functions[] = {
  {"_parse_to", (PyCFunction)THPVariable__parse_to, METH_VARARGS | METH_KEYWORDS, nullptr},
  {"adaptive_avg_pool2d", (PyCFunction)THPVariable_adaptive_avg_pool2d, METH_VARARGS | METH_KEYWORDS, NULL},
  {"adaptive_avg_pool3d", (PyCFunction)THPVariable_adaptive_avg_pool3d, METH_VARARGS | METH_KEYWORDS, NULL},
  {"adaptive_max_pool2d", (PyCFunction)THPVariable_adaptive_max_pool2d, METH_VARARGS | METH_KEYWORDS, NULL},
  {"adaptive_max_pool3d", (PyCFunction)THPVariable_adaptive_max_pool3d, METH_VARARGS | METH_KEYWORDS, NULL},
  {"avg_pool2d", (PyCFunction)THPVariable_avg_pool2d, METH_VARARGS | METH_KEYWORDS, NULL},
  {"avg_pool3d", (PyCFunction)THPVariable_avg_pool3d, METH_VARARGS | METH_KEYWORDS, NULL},
  {"binary_cross_entropy", (PyCFunction)THPVariable_binary_cross_entropy, METH_VARARGS | METH_KEYWORDS, NULL},
  {"elu", (PyCFunction)THPVariable_elu, METH_VARARGS | METH_KEYWORDS, NULL},
  {"elu_", (PyCFunction)THPVariable_elu_, METH_VARARGS | METH_KEYWORDS, NULL},
  ...
}

void initNNFunctions(PyObject* module) {
#if PY_MAJOR_VERSION == 2
  PyObject* nn = Py_InitModule("torch._C._nn", nn_functions);
  Py_XINCREF(nn);
#else
  static struct PyModuleDef def = {
     PyModuleDef_HEAD_INIT,
     "torch._C._nn",
     NULL,
     -1,
     nn_functions
  };
  PyObject* nn = PyModule_Create(&def);
#endif
  if (!nn) {
    throw python_error();
  }
  if (PyModule_AddObject(module, "_nn", nn) != 0) {
    throw python_error();
  }
}

这里面有pooling, loss, conv等相关函数,供Python里的nn.functional调用。

此外,为了方便在Python中自定义的自微分的函数,Python里也实现了上一篇对应的Function:torch.autograd.Function。继承它,重载 forward()和 backward()方法就可以用Python实现自定义的自微分函数,详见文档。

torch.autograd.Function的定义在 torch/autograd/function.py中:

class Function(with_metaclass(FunctionMeta, _C._FunctionBase, _ContextMethodMixin, _HookMixin)):
    # only for backward compatibility
    __call__ = _C._FunctionBase._do_forward

    # for the tracer
    is_traceable = False

    @staticmethod
    def forward(ctx, *args, **kwargs):
        raise NotImplementedError

    @staticmethod
    def backward(ctx, *grad_outputs):
        raise NotImplementedError

它继承自 torch._C.FunctionBase,该类型在 csrc/autograd/python_function.cpp中绑定,实现的逻辑和 autograd::Function一样,也是在前向计算时建立反向计算图,这里就不读赘述了。绑定部分的代码如下:

struct THPFunction {
    PyObject_HEAD

    PyObject *needs_input_grad;
    PyObject *to_save;
    PyObject *non_differentiable;
    PyObject *dirty_tensors;

    std::vector<torch::autograd::VariableInfo> output_info;
    std::vector<torch::autograd::VariableInfo> input_info;
    std::vector<torch::autograd::SavedVariable> saved_variables;
    // For each input, true if the input is a THPVariable
    std::vector<bool> is_variable_input;
    char has_freed_buffers;

    /* PyFunction继承自Function,实际调用最终转发到Function中 */
    torch::autograd::PyFunction cdata;
};

static struct PyGetSetDef THPFunction_properties[] = {
  {"saved_tensors", (getter)THPFunction_saved_tensors, nullptr, nullptr, nullptr},
  {"saved_variables", (getter)THPFunction_saved_variables, nullptr, nullptr, nullptr},
  {"next_functions", (getter)THPFunction_next_functions, nullptr, nullptr, nullptr},
  ...
  {nullptr}
};

static struct PyMethodDef THPFunction_methods[] = {
  {(char*)"apply", (PyCFunction)THPFunction_apply, METH_CLASS | METH_VARARGS, nullptr},
  {(char*)"_do_forward", (PyCFunction)THPFunction_do_forward, METH_VARARGS, nullptr},
  {(char*)"_do_backward", (PyCFunction)THPFunction_do_backward, METH_VARARGS, nullptr},
  {(char*)"_register_hook_dict", (PyCFunction)THPFunction__register_hook_dict, METH_O, nullptr},
  {(char*)"register_hook", (PyCFunction)THPFunction_register_hook, METH_O, nullptr},
  {nullptr}
};

PyTypeObject THPFunctionType = {
  PyVarObject_HEAD_INIT(nullptr, 0)
  "torch._C._FunctionBase",              /* tp_name */
  sizeof(THPFunction),                   /* tp_basicsize */
  0,                                     /* tp_itemsize */
  ...
};

bool THPFunction_initModule(PyObject *module)
{
  if (PyType_Ready(&THPFunctionType) < 0)
    return false;
  Py_INCREF(&THPFunctionType);
  PyModule_AddObject(module, "_FunctionBase", 
                     (PyObject *)&THPFunctionType);
  return true;
}

总结一下:

  • THPFunction= _C._FunctionBase

  • Python的autograd.Function继承自上面实现自动微分

  • 4
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

邵政道

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值