数据库
NoOne-csdn
永远年轻,永远热泪盈眶
展开
-
flask_sqlalchemy 操作数据库
#连接数据库from flask import Flaskfrom flask_sqlalchemy import SQLAlchemyfrom flask_login import UserMixinapp = Flask(__name__)#配置数据库地址app.config['SQLALCHEMY_DATABASE_URI'] ='mysql+mysqldb://root@l...转载 2018-05-07 17:37:15 · 311 阅读 · 0 评论 -
sqlalchemy 基本操作
import randomfrom faker import Factoryfrom sqlalchemy import create_engine, Tablefrom sqlalchemy.ext.declarative import declarative_basefrom sqlalchemy import ForeignKeyfrom sqlalchemy import Co...转载 2018-05-07 17:41:15 · 228 阅读 · 0 评论 -
alembic教程
alembic是sqlalchemy的作者开发的。用来做OMR模型与数据库的迁移与映射。alembic使用方式跟git有点了类似,表现在两个方面,第一个,alembic的所有命令都是以alembic开头;第二,alembic的迁移文件也是通过版本进行控制的。首先,通过pip install alembic进行安装。以下将解释alembic的用法: 初始化alembic仓库:在终端中,cd到你...原创 2018-09-10 16:58:44 · 884 阅读 · 0 评论 -
orm lazy='dynamic' 懒加载
源码:class Action(Base): __tablename__ = 'actions' id = Column(Integer, primary_key=True) name = Column(String(50), unique=True) desc = Column(String(50), default='') ext_index =...原创 2018-09-13 15:52:30 · 1654 阅读 · 0 评论 -
sqlalchemy 查询当天数据
dat=datetime.date.today()workorders=Workorder.query.filter(db.cast(Workorder.create_time, db.DATE) == dat).all()原创 2018-10-15 19:50:43 · 3756 阅读 · 0 评论 -
sqlalchemy 操作枚举类型报错: (builtins.LookupError) "Orderstate.UNSOLVED" is not among the defined
报错原创 2018-10-19 17:58:39 · 1314 阅读 · 4 评论 -
mysql truncate, drop,delete 表的区别
程度从强到弱1、drop table tbdrop将表格直接删除,没有办法找回2、truncate (table) tb删除表中的所有数据,不能与where一起使用添加新的数据时ID从1开始自增3、delete from tb (where)删除表中的数据(可制定某一行)添加新数据时ID从删除之前的最后一个数自增区别:truncate和delete的区别1、事务:trun...原创 2018-11-22 17:28:01 · 186 阅读 · 1 评论 -
继承sqlalchmey 来创建操作数据库(一次添加多个用户)
from datetime import datetimefrom sqlalchemy import create_engine, Table, Column, Integer, String, MetaData, ForeignKey, Text, DateTimeimport pymysql#创建数据库连接from sqlalchemy.ext.declarative impo...原创 2018-11-29 10:12:20 · 316 阅读 · 0 评论 -
pyspark 连接数据库两种方式
from pyspark.sql import SQLContextfrom pyspark import SparkConf,SparkContextmasterurl='spark://master:7077'# conf = SparkConf().setAppName("miniProject").setMaster("local[*]").set("spark.sql.exec...原创 2019-02-21 10:20:45 · 4815 阅读 · 0 评论