GAE启动错误 GoogleAppEngineLauncher.py", line 42...解决方案


启动GAE,提示一个错误,

打开错误日志GoogleAppEngineLauncher.exe.log,内容如下:

Traceback (most recent call last):
  File "GoogleAppEngineLauncher.py", line 42, in <module>
  File "wx\_core.pyc", line 7913, in __init__
  File "wx\_core.pyc", line 7487, in _BootstrapApp
  File "launcher\app.pyc", line 53, in OnInit
  File "launcher\app.pyc", line 97, in _CreateModels
  File "launcher\maintable.pyc", line 35, in __init__
  File "launcher\maintable.pyc", line 86, in _LoadProjects
  File "launcher\project.pyc", line 63, in ProjectWithConfigParser
  File "launcher\project.pyc", line 260, in _LoadFromConfigParser
  File "ConfigParser.pyc", line 520, in get
ConfigParser.NoOptionError: No option 'name' in section: '0'
Traceback (most recent call last):
  File "GoogleAppEngineLauncher.py", line 35, in <module>
  File "launcher\__init__.pyc", line 38, in <module>
  File "launcher\mainframe.pyc", line 22, in <module>
zipimport.ZipImportError: can't find module 'launcher.project'

我的操作系统是64位win7。

解决方案是:http://code.google.com/p/google-appengine-wx-launcher/issues/detail?id=6

大体流程:

1、备份 C:\Program Files\Google\google_appengine\launcher\library.zip\launcher\project.pyc到任意位置。

2、用project.py [下载]文件替换掉它(就是说,把.pyc从zip文件中删咯,然后把.py压进去)。

3、启动GAE,这个时候,你会看到一个工程 c:\123。

4、很好,把包括工程c:\123在内的工程统统删掉。

5、关闭GAE

6、再把project.pyc还原回去,而把project.py删掉

7、齐活儿!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
中文分词是自然语言处理领域的一个重要问题。以下是几个常用的简易中文分词算法及其实现方式: 1. FMM 算法(正向最大匹配算法) FMM 算法是最早的一种中文分词算法,其基本思想是从前向后扫描文本,按照词典中最长词的长度进行匹配。如果匹配成功,则将该词切分出来,继续扫描后面的文本。如果匹配不成功,则将当前字符作为单字切分出来,继续扫描后面的文本。 以下是 FMM 算法的简单实现方式: ```python def fmm(text, dictionary): result = [] i = 0 while i < len(text): for j in range(len(dictionary), 0, -1): if text[i:i+j] in dictionary: result.append(text[i:i+j]) i += j break else: result.append(text[i]) i += 1 return result ``` 其中,text 表示待分词的文本,dictionary 表示词典。该算法的时间复杂度为 O(n^2),在处理长度较长的文本时速度较慢。 2. pymmseg-cpp pymmseg-cpp 是一个基于 C++ 实现的中文分词库,可以通过 Python 调用其提供的接口进行分词。 以下是使用 pymmseg-cpp 进行中文分词的示例代码: ```python import mmseg def seg(text): algor = mmseg.Algorithm(text) result = [] for tok in algor: result.append(tok.text) return result ``` 3. smallseg smallseg 是一个简单的中文分词库,其实现方式类似于 FMM 算法。 以下是使用 smallseg 进行中文分词的示例代码: ```python from smallseg import SEG def seg(text): seg = SEG() result = [] for word in seg.cut(text): result.append(word) return result ``` 4. judou 句读 judou 句读是一个基于规则和机器学习的中文分词库,可以识别并切分一些特殊结构的短语,如时间、地点、人名、机构名等。 以下是使用 judou 进行中文分词的示例代码: ```python from judou import JudouTokenizer def seg(text): tokenizer = JudouTokenizer() result = tokenizer.tokenize(text, 'list') return result ``` 5. BECer-GAE BECer-GAE 是一个基于神经网络的中文分词库,可以识别出新词和未登录词。 以下是使用 BECer-GAE 进行中文分词的示例代码: ```python import becer def seg(text): model = becer.load_model() result = model.segment(text) return result ``` 以上是几种常用的简易中文分词算法及其实现方式,每种算法都有其优缺点,具体使用时需要根据实际情况进行选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值