分词词云 logistic相关研究 2016.05.16回顾

20 篇文章 0 订阅
1 篇文章 0 订阅
  1. 上午研究了下分词,词频统计,生成词频云,把某几个QQ群的聊天记录导出做了实验,效果还是可以,程序是在别人的程序基础上修改的,主要涉及到jieba模块用于中文分词,wordcloud模块用于生成词云,画图是用到matplotlib,还写了个清洗QQ聊天记录的程序,主要是去掉一些系统生成的关于日期发言人等无用信息,同时也算温习了正则表达式之类的知识,还挺好玩的,我一直尝试想导出微信的数据,特别是朋友圈的文字,好像比较麻烦就作罢,空了进一步研究
  2. 后边好像很困,漫无目的地随便网上看了一会儿,后来验证了下模型结果,对于SQL做了一处修改,修改了views.py
  3. 昨天很多时间用于解决1/(1+exp(x))为什么不能收敛的问题,然后我自己推导了公式,纠正了以前的一个错误观点,取得了重大突破,但是这个体系我还有几个问题未能解决,等解决了,我会集中写一篇博客

总结:昨天总的说来还可以,效率再高点儿就更好了,还有就是睡觉要提前一些!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值