自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 类型、泛型和Traits

什么是类型系统,又为什么需要它呢?学过计算机基础的小伙伴们都知道,我们用计算机编写的程序在最底层是以 0 和 1 的二进制组合表示的。实际上,最早的计算机系统也是大佬们通过手动编写机器码实现的,当时的大佬们肯定发现了,这太没意思了,又耗时间、还容易出错。于是在上世纪50年代的时候,有了汇编码。紧接着,编程语言出现了,它们能被编译为汇编码,允许程序员编写人类可读但易于计算机编译的代码,但是呢,我们人类说的语言总是模棱两可的,所以又需要设置一套规则和约束,这就有了类型和类型系统的概念。类型为我们提供了一种表

2021-12-31 10:26:40 400

原创 大数据数据仓库实战项目-电商数仓教程V3.0---快速建表

建表ods层用户行为数据业务数据数据加载脚本见 https://blog.csdn.net/qq_44852767/article/details/108666556ods层用户行为数据业务数据一次性创建23张表-- 1 订单表(增量及更新)drop table if exists ods_order_info;create external table ods_order_info ( `id` string COMMENT '订单号', `final_total_am

2020-09-18 16:21:03 778

原创 大数据数据仓库实战项目-电商数仓教程V3.0---脚本集合

-电商数仓脚本HadoopZookeeper日志生成Flume采集KafkaFlume消费采集通道业务数据到HDFS视频:https://www.bilibili.com/video/BV1dD4y1d7wL?Hadoophdp.sh#!/bin/bashcase $1 in "start" ) /opt/module/hadoop-3.1.3/sbin/start-dfs.sh ssh hadoop103 /opt/module/hadoop-3.1.

2020-09-18 15:47:51 2020

原创 有趣的人工智能项目合集,如老婆生成器

有趣的人工智能项目合集老婆生成器1:https://waifulabs.com/老婆生成器2:https://make.girls.moe/二次元角色故事背景生成器:https://www.thiswaifudoesnotexist.net/面部动态论文:https://arxiv.org/abs/1905.08233v1陶瓷瓶生成:https://thisvesseldoesnotexist.com/室内设计生成:https://thisrentaldoesnotexist.com/照片去

2020-07-18 15:45:50 6485 1

原创 大数据相关论文

这里写目录标题大数据相关论文谷歌三剑客HadoopSparkpig大数据相关论文谷歌三剑客The Google File SystemBigtable: A Distributed Storage System for Structured DataMapReduce: Simplified Data Processing on Large ClustersHadoopThe Hadoop Distributed File SystemSparkResilient distributed

2020-07-14 09:11:06 482

原创 强化学习的简单介绍

强化学习学习资源强化学习是机器学习的三大分支之一,与其他两个分支不同的是,监督学习与无监督学习专注于预测(辅助医生诊断),而强化学习专注于决策(直接提出治疗方案)。换句话说,强化学习是让AI做完一切事情,而不只是一个辅助!学习强化学习的过程就是强化学习,因为要不断试错。引言序列决策只要是序列决策问题,都可以用强化学习来解决。如果是单步决策问题,那么和预测问题没什么区别,可直接使用监督学习或无监督学习解决。定义智能体通过与环境进行交互学习来实现目标的计算方法目标智能体找到一个最优策略来使得

2020-05-24 20:39:38 454

原创 《多智能体学习:强化学习方法》——代码实现

文章目录Nash-QLearning智能体创建一个矩阵环境策略训练Minimax-QLearning¶WoLF-PHC(Policy hill-climbing algorithm)Nash-QLearning论文:Nash Q-learning for general-sum stochastic games链接:http://www.jmlr.org/papers/volume4/hu0...

2020-05-03 15:12:49 8053 4

原创 Retro-用于强化学习智能体训练的各种有趣的游戏环境集合

https://openai.com/blog/gym-retro/

2020-04-29 17:00:06 3228 9

原创 多智能体强化学习的相关论文

书籍2018-Deep Multi-Agent Reinforcement Learning2014-Multi-Agent Machine Learning: A Reinforcement Approach综述2008-A comprehensive survey of multiagent reinforcement learning2019-A survey and critiq...

2020-04-18 18:58:47 2688 1

原创 强化学习与深度学习资源

书籍推荐《Reinforcement Learning:An introduction》——圣经,有中文版《Algorithms for RL》《深入浅出强化学习:原理入门》OpenAI深度强化学习 Spinning Up 项目中文版Gym环境入门视频莫烦周博磊David Silver李宏毅进阶视频伯克利大学CS 294-112 《深度强化学习课程》...

2020-03-29 17:25:44 745

原创 基于图注意力神经网络的多智能体博弈抽象

G2ANet《Multi-Agent Game Abstraction via Graph Attention Neural Network》关键词:大规模,博弈抽象,2级(硬+软皆有)注意力机制,图神经网络通过简化策略学习过程解决了大规模智能体的问题。贡献1.用完全图来建模(构建)智能体之间的关系。因为大规模的智能体场景中不是每个智能体都相互作用的,我们需要确定关系(交互还是不交互?)...

2020-03-29 16:56:46 2935

原创 多智能体强化学习环境

多智能体强化学习环境环境是强化学习的核心要素之一。不同的环境一直是研究新的强化学习算法的动力。但是让智能体和真实环境交互的代价是很大的,不但费时费力,甚至有的时候根本不可能进行交互。现在的多智能体强化学习和强化学习早期境遇很像,只有较少的环境可用。另外在不同的智能体之间分享信息的设置范围可能很广,有些环境涉及通信,有些共享联合奖励,有些共享全局状态。StarCraft作为一款复杂的即时战略...

2020-03-20 21:54:09 4057 5

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除