视频全程回放 | 2018贵阳数博会 - 央视对话栏目:《把脉区块链》

【编者Peter Ye】

我一直在等待央视CCTV 2(财经频道)对话栏目的《把脉区块链》节目。终于这个节目在2018年6月3日播放了。


640?wx_fmt=png


640?wx_fmt=png

背景上的三句话如下:


1、区块链是互联网的第二个时代

Blockchain is the second era of the Internet


2、区块链的价值是互联网的十倍

The value of blockchain is ten times that of the Internet


3、区块链是制造信任的机器

Blockchain is the machine that produces trust


先看一下30秒的宣传片,然后点击文章最后左下角的“阅读原文”,即可观看全程视频了。




这次对话《把脉区块链》,邀请的嘉宾有:


贵阳市委常委常务副市长徐昊、中国信息通信研究院副院长王志勤、中关村区块链产业联盟理事长元道、特普斯科集团主席Don Tapscott、斯坦福大学讲座教授张首晟、迅雷集团首席执行官陈磊、北大光华管理学院金融系主任刘晓蕾等嘉宾参与本期《对话》。


令我非常高兴的是,嘉宾中除了其他大咖之外,还有我非常欣赏的两位:


一是张首晟。

640?wx_fmt=png

微信公众号“乐生活与爱IT”上转载过两篇他的文章,可直接打开如下两个链接,进行详细阅读。


1、诺贝尔物理奖候选人张首晟:区块链技术是互联网世界新的分合转折点

2、2014呼声最高却无缘诺贝尔奖的华人物理学家,VMware的天使投资人的新思考:大数据时代感受物理、科技、人文的跨界之美


二是被誉为“数字经济之父”的Don Tapscott。

640?wx_fmt=png

Don Tapscott的中文名译为 唐 . 塔斯考特 或者 唐 . 塔普斯科特,最近我正在看他撰写的《区块链革命:比特币底层技术如何改变货币、商业和世界》,深受启发。


640?wx_fmt=jpeg


扩展阅读:

在微信公众号 “乐生活与爱IT” 上,之前也分享过和区块链相关的如下文章。


Gartner:2018年十大战略科技发展趋势

雄文:知耻而后勇,数字代币和区块链技术的未来 (修改版-20180213)

谁将会是AWS的颠覆者? (完整版)

比特币到底是货币资产,还是骗局?

比特币能成为人类未来的货币吗?

赠书 | 金融区块链的挑战

白话区块链 之1: 为什么账本要这么记?

白话区块链 之2: 区块链技术理念

白话区块链 之3: 区块链技术栈

白话区块链 之4: 区块链分类与架构

白话区块链 之5 -  创世元灵:一切源自比特币

白话区块链 之6 - 比特币核心程序

白话区块链 之7 - Bitcoin Core之客户端逻辑结构

当软件定义存储(SDS)遇见区块链(BlockChain)

掘未来,容天下 - 九存区块链战略及产品发布会摘要

钱要花在刀刃上 & 兼聊存储发展的最近十二年

诺贝尔物理奖候选人张首晟:区块链技术是互联网世界新的分合转折点

当SDS遇见BlockChain 之二:区块链存储为什么势在必行?(SDS的新赛道 - 暗流涌动的区块链存储)


欢迎您通过扫描关注微信公众号:“乐生活与爱IT”。

640?wx_fmt=png

关注后,可以通过点击左下角的文章目录,通过输入三位数(记住!是三位数,目前第一位是0或者1)详细了解如何查看历史文章。


点击左下角“读原文”,或者复制如下链接到浏览器里打开:


http://tv.cctv.com/2018/06/03/VIDEAcsEYcxFMPjavSC54h6a180603.shtml


即跳转到2018贵阳数博会 - 央视对话栏目:《把脉区块链》的全程视频了。


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
# GPF ## 一、GPF(Graph Processing Flow):利用图神经网络处理问题的一般化流程 1、图节点预表示:利用NE框架,直接获得全图每个节点的Embedding; 2、正负样本采样:(1)单节点样本;(2)节点对样本; 3、抽取封闭子图:可做类化处理,建立一种通用图据结构; 4、子图特征融合:预表示、节点特征、全局特征、边特征; 5、网络配置:可以是图输入、图输出的网络;也可以是图输入,分类/聚类结果输出的网络; 6、训练和测试; ## 二、主要文件: 1、graph.py:读入图据; 2、embeddings.py:预表示学习; 3、sample.py:采样; 4、subgraphs.py/s2vGraph.py:抽取子图; 5、batchgraph.py:子图特征融合; 6、classifier.py:网络配置; 7、parameters.py/until.py:参配置/帮助文件; ## 三、使用 1、在parameters.py中配置相关参(可默认); 2、在example/文件夹中运行相应的案例文件--包括链接预测、节点状态预测; 以链接预测为例: ### 1、导入配置参 ```from parameters import parser, cmd_embed, cmd_opt``` ### 2、参转换 ``` args = parser.parse_args() args.cuda = not args.noCuda and torch.cuda.is_available() torch.manual_seed(args.seed) if args.cuda: torch.cuda.manual_seed(args.seed) if args.hop != 'auto': args.hop = int(args.hop) if args.maxNodesPerHop is not None: args.maxNodesPerHop = int(args.maxNodesPerHop) ``` ### 3、读取据 ``` g = graph.Graph() g.read_edgelist(filename=args.dataName, weighted=args.weighted, directed=args.directed) g.read_node_status(filename=args.labelName) ``` ### 4、获取全图节点的Embedding ``` embed_args = cmd_embed.parse_args() embeddings = embeddings.learn_embeddings(g, embed_args) node_information = embeddings #print node_information ``` ### 5、正负节点采样 ``` train, train_status, test, test_status = sample.sample_single(g, args.testRatio, max_train_num=args.maxTrainNum) ``` ### 6、抽取节点对的封闭子图 ``` net = until.nxG_to_mat(g) #print net train_graphs, test_graphs, max_n_label = subgraphs.singleSubgraphs(net, train, train_status, test, test_status, args.hop, args.maxNodesPerHop, node_information) print('# train: %d, # test: %d' % (len(train_graphs), len(test_graphs))) ``` ### 7、加载网络模型,并在classifier中配置相关参 ``` cmd_args = cmd_opt.parse_args() cmd_args.feat_dim = max_n_label + 1 cmd_args.attr_dim = node_information.shape[1] cmd_args.latent_dim = [int(x) for x in cmd_args.latent_dim.split('-')] if len(cmd_args.latent_dim) == 1: cmd_args.latent_dim = cmd_args.latent_dim[0] model = classifier.Classifier(cmd_args) optimizer = optim.Adam(model.parameters(), lr=args.learningRate) ``` ### 8、训练和测试 ``` train_idxes = list(range(len(train_graphs))) best_loss = None for epoch in range(args.num_epochs): random.shuffle(train_idxes) model.train() avg_loss = loop_dataset(train_graphs, model, train_idxes, cmd_args.batch_size, optimizer=optimizer) print('\033[92maverage training of epoch %d: loss %.5f acc %.5f auc %.5f\033[0m' % (epoch, avg_loss[0], avg_loss[1], avg_loss[2])) model.eval() test_loss = loop_dataset(test_graphs, model, list(range(len(test_graphs))), cmd_args.batch_size) print('\033[93maverage test of epoch %d: loss %.5f acc %.5f auc %.5f\033[0m' % (epoch, test_loss[0], test_loss[1], test_loss[2])) ``` ### 9、运行结果 ``` average test of epoch 0: loss 0.62392 acc 0.71462 auc 0.72314 loss: 0.51711 acc: 0.80000: 100%|███████████████████████████████████| 76/76 [00:07<00:00, 10.09batch/s] average training of epoch 1: loss 0.54414 acc 0.76895 auc 0.77751 loss: 0.37699 acc: 0.79167: 100%|█████████████████████████████████████| 9/9 [00:00<00:00, 34.07batch/s] average test of epoch 1: loss 0.51981 acc 0.78538 auc 0.79709 loss: 0.43700 acc: 0.84000: 100%|███████████████████████████████████| 76/76 [00:07<00:00, 9.64batch/s] average training of epoch 2: loss 0.49896 acc 0.79184 auc 0.82246 loss: 0.63594 acc: 0.66667: 100%|█████████████████████████████████████| 9/9 [00:00<00:00, 28.62batch/s] average test of epoch 2: loss 0.48979 acc 0.79481 auc 0.83416 loss: 0.57502 acc: 0.76000: 100%|███████████████████████████████████| 76/76 [00:07<00:00, 9.70batch/s] average training of epoch 3: loss 0.50005 acc 0.77447 auc 0.79622 loss: 0.38903 acc: 0.75000: 100%|█████████████████████████████████████| 9/9 [00:00<00:00, 34.03batch/s] average test of epoch 3: loss 0.41463 acc 0.81132 auc 0.86523 loss: 0.54336 acc: 0.76000: 100%|███████████████████████████████████| 76/76 [00:07<00:00, 9.57batch/s] average training of epoch 4: loss 0.44815 acc 0.81711 auc 0.84530 loss: 0.44784 acc: 0.70833: 100%|█████████████████████████████████████| 9/9 [00:00<00:00, 28.62batch/s] average test of epoch 4: loss 0.48319 acc 0.81368 auc 0.84454 loss: 0.36999 acc: 0.88000: 100%|███████████████████████████████████| 76/76 [00:07<00:00, 10.17batch/s] average training of epoch 5: loss 0.39647 acc 0.84184 auc 0.89236 loss: 0.15548 acc: 0.95833: 100%|█████████████████████████████████████| 9/9 [00:00<00:00, 28.62batch/s] average test of epoch 5: loss 0.30881 acc 0.89623 auc 0.95132 ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值