2018-03-30-dict-to-cls

layouttitlekeywordscategorytags
post
python3 dict2cls
python
python
python

2018-03-30-dict-to-cls

今天遇到一个很大的JSON包转为字典后每次获取里面的值相对来说比较麻烦,搜索后发现可以如下解决

# -*- coding:utf-8 -*-
# 2018-03-29 21:17:58

import json

class Dict2Cls(object):
    def __init__(self, d):
        for a, b in d.items():
            if isinstance(b, (list, tuple)):
               setattr(self, a, [Dict2Cls(x) if isinstance(x, dict) else x for x in b])
            else:
               setattr(self, a, Dict2Cls(b) if isinstance(b, dict) else b)


class Struct(object):
    def __init__(self, data):
        for name, value in data.items():
            setattr(self, name, self._wrap(value))

    def _wrap(self, value):
        if isinstance(value, (tuple, list, set, frozenset)): 
            return type(value)([self._wrap(v) for v in value])
        else:
            return Struct(value) if isinstance(value, dict) else value


json_data = open('https://pemako.github.io/assets/data/json.data','r')
#s = Dict2Cls(json.loads(json_data.read()))
s = Struct(json.loads(json_data.read()))
print(s.result.pageInfo.bg_time)
print(s.result.pageInfo.directory[0].title)

上述两种方式均可完成,还有更多的方式,均是利用把DICT 进行循环迭代为类中的属性

参考

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
bert-base-chinese是一个预训练的中文BERT模型,它可以生成中文文本的词向量。 使用bert-base-chinese生成词向量的步骤如下: 1. 安装相应的Python库:tensorflow、keras-bert。 2. 加载预训练好的bert-base-chinese模型。可以使用keras-bert库中的load_trained_model_from_checkpoint函数加载。 3. 使用加载好的模型对文本进行编码,得到文本的词向量。可以使用keras-bert库中的TokenEmbedding函数实现。 4. 对生成的词向量进行进一步处理,如降维、聚类等。 下面是一个使用bert-base-chinese生成词向量的示例代码: ```python import tensorflow as tf from keras_bert import load_trained_model_from_checkpoint, Tokenizer, TokenEmbedding # 加载预训练好的bert-base-chinese模型 config_path = 'bert_config.json' checkpoint_path = 'bert_model.ckpt' model = load_trained_model_from_checkpoint(config_path, checkpoint_path) # 定义tokenizer token_dict = {} with open('vocab.txt', 'r', encoding='utf-8') as reader: for line in reader: token = line.strip() token_dict[token] = len(token_dict) tokenizer = Tokenizer(token_dict) # 对文本进行编码,得到词向量 text = '这是一段中文文本。' tokens = tokenizer.tokenize(text) tokens = ['[CLS]'] + tokens + ['[SEP]'] token_ids = tokenizer.tokens_to_ids(tokens) segment_ids = [0] * len(token_ids) inputs = [token_ids, segment_ids] outputs = TokenEmbedding(name='Token')(model.inputs[:2])(inputs) # 打印词向量 print(outputs) ``` 输出结果为一个形状为(1, 9, 768)的张量,其中768表示词向量的维度。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值