工作
文章平均质量分 78
onlyfansnft.art
人生苦短,我用Python
展开
-
工作总结与感悟
1、对完成的结果要进行检验2、对于交代的问题要有反馈原创 2016-05-20 13:09:20 · 1378 阅读 · 0 评论 -
『sklearn学习』sklearn学习的相关资料
1、使用sklearn进行集成学习——理论2、使用sklearn进行集成学习——实践3、sklearn学习笔记之开始4、谁动了我的特征?——sklearn特征转换行为全记录5、使用sklearn优雅地进行数据挖掘备注:作者是个大神原创 2016-11-19 21:53:59 · 1147 阅读 · 0 评论 -
『skleran学习』sklearn库的相关练习
#! usr/bin/env python# coding:utf-8"""__author__ = "LCG22"__date__ = "2016-11-20""""from sklearn import datasetsfrom sklearn.cluster import KMeansiris = datasets.load_iris()digits = datas原创 2016-11-20 21:57:09 · 978 阅读 · 0 评论 -
『工作』风控——无监督聚类和有监督聚类的思考
最近被调到了新的项目里的风控部,主要负责项目的交易行为的风控,也就是对客户的交易行为进行识别并进行反欺诈,使用的方法主要是数据挖掘里的聚类,未来可能还会使用到时间序列或其它方法,而我个人则希望有一天能够使用深度学习的方法。 由于项目尚未上线,所以目前主要是利用部分无标记的数据进行反欺诈模型的探索——模型预构建。而在探索的过程中,则发现了一些问题,主要是两大问题:一、使用无监督聚类原创 2016-11-18 15:04:59 · 6652 阅读 · 1 评论 -
『工作』工作资料相关的网站
1、美国非农数据与 EIA 数据美国非农数据官网_中文原创 2016-11-11 15:51:23 · 341 阅读 · 0 评论 -
『Scrapy』日常工作和学习中所遇到的坑及解决办法——长期更新
1、需要点击之后才能看到的内容 可以使用 selenium 模拟点击后再抓取内容,但这里有一个点需要注意的地方是,我们所要查找的内容是在 selenium 模拟点击之后的网页中,故需要写成如下格式:from selenium import webdriver import time driver = webdriver.Chrome原创 2016-10-08 15:23:53 · 1195 阅读 · 0 评论 -
『python工作』文件搜索器
#! usr/bin/env python# -*- coding:utf-8 -*-"""文件搜索器"""FILE_PATH = r"C:\Scrapy\WJX"global main_file_listmain_file_list = []import osdef find_main(file_path, word="main"): """ 查找原创 2016-09-30 18:22:44 · 471 阅读 · 0 评论 -
『Scrapy』登陆知乎中遇到的各种坑
1、在请求登陆页面时报错: 500 Internal Server Error解决办法:在 Request() 中添加 header 信息如:# 重写爬虫类的方法,实现自定义请求 def start_requests(self): return [Request("https://www.zhihu.com/#signin", headers=settings["H原创 2016-10-12 17:47:31 · 1247 阅读 · 0 评论 -
『python工作』matplotlib 库的一些注意点
1、在画多幅图时,每画一张图后都要使用 plt.close() 将图关闭,否则每张图都会累积画到下一幅图2、画多个图表时可以使用 plt.figure(fig_i) 来创建3、在同一个图中画多个子图时,可以使用 plt.subplot(221) ,221 的意思是,建立两行两列共 4 个图,并且把该图画在第一个图中4、多个数据源画多个图表,且每个图表有多个子图,可使用如下代码:de原创 2016-10-14 10:59:10 · 2605 阅读 · 0 评论 -
『python工作』爬虫相关知识、概念
1、AJAX 是 Asynchronous JavaScript and XML(异步的 JavaScript 和 XML)的缩写。AJAX 通过使用原有的 web 标准组件,实现了在不重新加载整个页面的情况下,与服务器进行数据交互。2、原创 2016-09-07 17:59:03 · 532 阅读 · 0 评论 -
『Python工作』文件检索器
#! /usr/bin/ env python# coding:utf-8"""__author__ = "LCG22"__create_date__ = "2016-10-12""""import osimport loggingimport timeglobal file_listfile_list = []ISOTIMEFORMAT = "%Y-%m-%d %X原创 2016-10-12 16:19:45 · 503 阅读 · 0 评论 -
『python工作』mysql 数据库的一些操作数据库的函数
def connect_mysql(user, passwd, host, db, charset="utf8", port=3306): """ 连接数据库 :return: """ con = MySQLdb.connect(user=user, passwd=passwd, host=host, db=db, charset=charset, por原创 2016-10-10 17:25:25 · 1243 阅读 · 0 评论 -
『python工作』常用知识
1、中文:\x80-\xff, u格式:\u4e00-\u9fa52、原创 2016-08-01 16:26:40 · 425 阅读 · 0 评论 -
『python工作』MySQL 数据库学习
1、MySQL 数据类型http://www.cnblogs.com/zbseoag/archive/2013/03/19/2970004.html以下内容主要来自:http://www.cnblogs.com/mr-wid/archive/2013/05/09/3068229.html#c12、mysql -h 主机名 -u 用户名 -p-h原创 2016-08-24 18:07:16 · 1029 阅读 · 0 评论 -
『python工作』工作中常用 Excel 表公式
VLOOKUP函数假设C1与A列中的值匹配,返回B列对应的值,则在C1输入公式:=VLOOKUP(C1,A:B,2,0)VLOOKUP函数用法如下:(以上述假设为例)C1是要查找的值,A:B中的A列是查找范围,2表示从A列开始的第2列,即B列,0表示进行精确匹配,整个公式的意思是:在A列中查找与C1匹配的值,如果找到,就返回B列中对应的值,未找到就返回错误值。原创 2016-08-22 14:07:17 · 2710 阅读 · 0 评论 -
『机器学习——周志华』第九章聚类
1、聚类试图将数据集中的数据划分为若干个通常是不相交的子集,每个子集称为一个“簇”(cluster)2、聚类过程仅能自动形成簇结构,簇所对应的概念语义需由使用者来把握和命名思考:簇所对应的概念固然是可以任意命名的,但我们一般的规律仍然是通过样本的属性来命名的,这就意味着,有可能根据样本特征给不同的簇命名3、聚类既能作为一个单独的过程,用于找寻数据内在的分布结构,也可作为分类等其他学习任原创 2016-11-20 16:43:46 · 1786 阅读 · 0 评论