akka actor, akka cluster
akka是一系列框架,包括akka-actor, akka-remote, akka-cluster, akka-stream等,分别具有高并发处理模型——actor模型,远程通信,集群管理,流处理等功能。
akka支持scala和java等JVM编程语言。
akka actor
akka actor是一个actor模型框架。actor模型是一种将行为定义到actor,actor间通过消息通信,消息发送异步进行,消息处理(在actor内)同步有序进行的一种高并发、非阻塞式编程模型。
Actor模型优:
- event-driven model 事件驱动
- strong isolation principles - 强隔离原则。 actor只应该处理消息,不该有其他方法接口,不保存状态、不共享状态
- location transparency acto的物理位置对用户不可见,用户看到actor视图逻辑上是一致的,尽管物理位置不同
- lightweight 轻量级
actor的层级结构;actor名字与路径、地址;actor的消息收件箱;发送消息的异步性;actor消息处理的有序性;actor按序挨个处理消息(而非并发);
case class MsgA(data:Type)
case class MsgB(x:X)
class SomeActor extends Actor {
def receive()={
case MsgA(d)=>
case MsgB(x)=>
}
}
val system=ActorSystem("sysname")
val act:ActorRef=system.actorOf(p:Props[], "act-name")
act ! MsgA("data")
act ! MsgB(xxx)
.tell() :Fire-Forget
.ask() : Send-And-Receive-Future
阻塞程序等待消息返回结果:
import akka.pattern._
import scala.concurrent._
implicit val akkaAskTimeout:Timeout = Timeout(5 seconds)
val awaitTimeout= 10 seconds
val res=Await.result(actor ? MessageXxx, awaitTimeout)
println(res)
akka programming general rules: (一般编码规则,该建议来自官网)
- messages with good names, rich semantic, domain specific
- imuutable messages
- put actor's associated messages in its companion object
- a
.props()
: Props[?] method in actor companion object to construct the actor
.actorOf()
创建Actor,返回ActorRef。.actorSelect()
查找actor,返ActorRef。
akka-remote
配置键akka.remote.netty.tcp.hostname
定义remoting模块通信的网口,akka.remote.netty.tcp.port
定义通信端口。通信网口在未配置或配置为空串时(不能配置为null)默认监听局域网网口(不是回环网口127.0.0.1)。通信端口在未配置默认监听2552端口,在配置为0时会监听一个随机端口。网口名与ActorSystem地址中的主机名严格对应,不能试图以回环地址连接本机上监听局域网网口的actor。比如,本机上运行的单节点集群,集群即只有自身,其集群种子节点配置为akka.cluster.seed-nodes=["akka.tcp://xx@127.0.0.1:2551"]
,则其remoting通信网口配置akka.remote.netty.tcp.hostname
只能是127.0.0.1
,不能是局域网网口。
……
actor的创建和部署不单只是在本地,还有可能涉及远程部署(如集群)。涉及远程部署时牵涉到序列化问题。
如果能确信actor的创建只会涉及本地,则可通过配置关闭actor创建器的序列化行为akka.actor.serialize-creators=off
(默认关闭)。
akka-cluster
akka cluster是……集群,作用……,特点……TODO
akka cluster由多个ActorSystem(节点)构成,actorsystem根据配置指定的种子节点组建集群。
论及集群时,所谓节点不一定指一台物理机,一般指ActorSystem实例,不同的ActorSystem实例对应不同的<主机+端口>。一台物理机可运行多个ActorSystem实例。论及集群成员时,这里的成员指的是节点,不是集群内的actor。
集群种子节点配置akka.cluster.seed-nodes
中的节点不必都启动,但节点列表中第一个必须启动,否则其他节点(不论是否在seed-nodes中)不能加入集群。也就说,如果不启动列表第一个节点,启动多个其他节点,不能组成集群(也就不能产生/接收到集群事件),直到启动列表第一个节点才将已启动的多个节点组成集群。种子列表第一个节点可组建一个只有自己的集群。
任意节点均可加入集群,并非一定得是种子节点。节点加入的只能是集群(不能是另一个节点,即联系的其他节点必须处于集群中),也就说有个节点得先组建一个仅包含自己的集群,以使得其他节点有集群可加入。
集群内节点ActorSystem的名字要求一致,由组建过程可知,即种子列表第一个节点的名字。
如果集群含超过2个节点,那么列表第一个节点可以不存活。如果种子节点全都同时不存活,那么以相同配置再次启动节点将组建不同于以前的新集群,即不能进入以前的集群。
通过接口Cluster.joinSeedNodes(List[Address])
可动态添加种子节点,节点可通过接口cluster.join(Address)
加入集群。
配置项akka.cluster.seed-node-timeout
指启动中的节点试图联系集群(种子节点)的超时时间,如果超时,将在akka.cluster.retry-unsuccessful-join-after
指定的时间后再次重试联系,默认无限次重试联系直到联系上,通过配置akka.cluster.shutdown-after-unsuccessful-join-seed-nodes
指定一个超时时间使得本节点在联系不上集群种子节点超过该时间后不再继续联系,终止联系后执行扩展程序CoordinatedShutdown
以停掉本节点actor相关行为(即关停ActorSystem),如果设置akka.coordinated-shutdown.terminate-actor-system = on
(默认开启)将导致扩展程序关停ActorSystem后退出JVM。
配置项akka.cluster.min-nr-of-members
指定集群要求的最小成员个数。
集群成员状态:
集群成员在加入集群、存在于集群、到退出集群整个生命周期中的变化有对应状态,状态包括joining, up, leaving, exiting, remoed, down, unreachable。。TODO
集群成员状态转移图:
图片来源:akka官网
图中的框表示成员状态,边表示驱动状态转换的相关操作。"(leader action)"表示该操作由集群首领驱使完成。“(fd*)”表示该操作由系统失败检测器(failure detector)驱使完成,失败检测器是一个监测集群成员通信状态的后台程序。
网络中的节点随时可能无法通信(通信不可达),针对这个问题,集群系统设有失败检测器(Failure Detector),发现成员异常不可达时将广播UnreachableMember事件。需要在程序中显式调用接口Cluster.down(Address)
来改变成员状态为Down,集群之后会广播MemberDowned事件。节点正常退出时不会转入unreachable状态,而是进入leaving(事件MemberLeft)。
自动down:通过配置可使成员自动从unreachable转入down,通过配置akka.cluster.auto-down-unreachable-after
开启并指定成员自动从状态unreachable转入down的时长,官方提供此功能仅为测试,并告知不要在生产环境使用。
集群事件:
集群可订阅的事件(cluster.subscribe(,Class[_]*)方法)要求事件类型实参是ClusterDomainEvent
类型的(ClusterDomainEvent或其子类),ClusterDomainEvent是一个标记型接口。事件相关的类型定义在akka.cluster.ClusterEvent中,ClusterEvent只是object,没有伴生对象。
伴随集群成员生命周期的事件:
MemberJoined
- 新节点加入,其状态被改为了 Joining。MemberUp
- 新节点成功加入,成为了集群成员,其状态被改为了 Up。MemberExited
- 集群成员正要离开集群,其状态被改为了 Exiting。注意当其他节点收到此事时,事件主体节点可能已经关停。MemberDowned
- 集群成员状态为down。MemberRemoved
- 节点已从集群移除。UnreachableMember
- 成员被认为不可达(失败检测器询问完其他所有成员均认为该节点不可达)。ReachableMember
- 之前的不可达成员重新变得可达。事件的发生要求所有之前认为该节点不可达的成员现在都可达该节点。
WeaklyUp
事件:当部分节点不可达时gossip不收敛,没有集群首领(leader),首领行为无法实施,但此时我们仍希望新节点可加入集群,这时需要WeaklyUp状态特性。特性使得,如果集群不能达到gossip收敛,Joining成员将被提升为WeaklyUp,成为集群的一部分,当gossip收敛,WeaklyUp成员转为Up,可通过配置akka.cluster.allow-weakly-up-members = off
关闭这种特性。
CurrentClusterState
:新节点加入集群后,在其收到任何集群成员事件前,集群会向其推送一个CurrentClusterState消息(此class并非ClusterDomainEvent子类,即不能成为cluster.subscribe()中事件类型的参数),表示新成员加入时(订阅集群事件时)集群中的成员状态快照信息,特别地,MemberUp事件伴随的集群状态快照可能没有任何集群成员,避免此情况下CurrentClusterState事件被发送的方法是在cluster.registerOnMemberUp(...)参数中提交集群事件订阅行为。接收CurrentClusterState消息是基于订阅时参数cluster.subscribe(,initialStateMode=InitialStateAsSnapshot,)的条件下,CurrentClusterState将成为actor接收到的第一条集群消息,可不接收快照,而是将现有成员的存在视为相关事件,这时应使用订阅参数(initialStateMode=InitialStateAsEvents)。
val cluster = Cluster(context.system)
cluster.registerOnMemberUp{
cluster.subscribe(self, classOf[MemberEvent], classOf[UnreachableMember])
}
Terminated
消息是被监控(.watch()
)节点在被下线(down)或移除(remove)后发送的消息,类继承结构上不是集群事件(ClusterDomainEvent
)。
actor需订阅事件才能接收到(cluster.subscribe(self,,Class[EvenetType]*)
),接收到的消息包括订阅时提供的事件类型的子类。
actor接收到的事件有时是基于自己看到的集群状态的,不是所有actor收到的事件都相同,尤其注意,当节点自己停机时,会收到集群内所有节点(包括自己以及其他没停机节点)的MemberRemoved事件,也就相当于在actor自己看来这个集群停机了。而其他存活的节点只会收到停机节点的MemberRemoved事件。有时自己退群又只收到自己的MemeberLeft事件,而且没有MemberRemoved事件,没有其他成员的离群事件。(意外出现过,需重现以及分析原因)
节点获取自身地址的方式:
val cluster=Cluster(actorSystem)
cluster.selfAddress // 节点自身地址,信息包括协议+system名+主机+端口
cluster.selfUniqueAdress //节点自身唯一性地址,信息包括自身地址+自身UID
节点角色 node roles:
集群节点可标记若干自定义角色类型,通过配置项akka.cluster.roles
指定。
每种角色群有一个首领节点,以执行角色相关操作,一般无需感知。
配置项akka.cluster.role.<role-name>.min-nr-of-members
定义集群中角色为的节点的最小个数。
集群内单例 Cluster Singleton:保证某种Actor类在集群内或集群内某种角色群中只有一个实例。活跃的单例是集群的成员,是成员即可被移出集群,被移出的单例其类型在被管理器创建补充之前活跃单例前存在一小段实例缺失时间,这期间单例的集群成员不可达状态会被失败检测器检测到。
单例模式需要注意的问题:
- 性能瓶颈
- 单点故障
- 不能假设单例是不间断可用的,因为在活跃单例失效后,新的活跃单例工作前的一小段时间内单例不可用。
单例工具依赖库“com.typesafe.akka:akka-cluster-tools”。
创建单例依赖类ClusterSingletonManager
,是一个actor,需在集群内所有节点上(尽早)启动,访问单例依赖类ClusterSingletonProxy
。
给单例actor发送消息时,查找的ActorRef应是单例代理,而不是单例管理器。
集群节点分身 Cluster Sharding:分发actor到多个节点,逻辑标识符是同一个,不用关心其实际位置。
分布式订阅发布 Distributed Publish Subscribe:仅通过逻辑路径实现集群内actor间的订阅发布通信、点对点通信,不必关心物理位置。
集群客户端 Cluster Client:与集群通信的外部系统称为集群的客户端。
借助akka工具包com.typesafe.akka:akka-cluster-tools,可实现集群客户端与集群间的通信。在集群中的节点上调用ClusterClientReceptionist(actorSystem).registerService(actorRef)
将actorRef实例
注册为负责连接外部系统通信请求的接待员,在外部系统中利用 val c = system.actorOf(ClusterClient.props(ClusterClientSettings(system).withInitialContacts(<集群接待员地址列表,可配到配置文件>)))
获得能与集群接待员通信的ActorRef,再通过c ! ClusterClient.Send("/user/some-actor-path", msg)
发送消息到集群。
集群客户端配置集群接待员通过指定akka.cluster.client.initial-contacts
数组完成,一个接待员地址包含集群成员地址(集群中任意一个可通信成员)和接待员在集群成员ActorSystem中的路径(系统生成的接待员的服务地址在/system/receptionist),如["akka.tcp://my-cluster@127.0.0.1:2552/system/receptionist"]
。
集群节点协议不能是akka,需是akka.tcp,配置项akka.remote下需配置属性netty.tcp,而不是artery(对应akka协议),否则集群客户端连接时会因Connection reset by peer而失败(当然,集群节点akka.actor.provider显然还是cluster)。
集群节点路由 Cluster Aware Routers:允许路由器对集群内的节点进行路由,自动管理路由对象表(routees),涉及相关成员的进群和退群行为。
两种路对象(routee)管理策略的路由类型,Group和Pool:
Goup 群组 共用集群成员节点作为路由对象(routee)。
router转发策略有多种,对于消息一致性转发的router来说转的消息必须可一致性散列(ConsistentHashable),或者用ConsitentHashEnvolope包装消息使其变得可一致散列,否则routee收不到消息,而定义routee的接收方法receive
时,得到的数据对象是拆包了的,也就说如果路由器转发的消息经过一致性散列信封包装,routee得到的消息已被自动去掉信封。Pool 池 每个router各自自动创建、管理自己的的routees。
池中的routee actor消亡不会引发路由器自动创建一个来替补,路由器将在所有routee actor消亡会随即消亡,动态路由器,如使用了数量调整策略的路由器,会改变这种行为,动态调整routee。akka.actor.deployment.<router-path>.cluster.max-nr-of-instances-per-node
定义每个节点上routee的个数上限(默认1个),由于全部routee在节点启动时即被启动(而不是按需延迟启动),因此该上限同时定义了节点上的routee个数。
router在集群中可以有多个,同一逻辑路径下也允许有多个router(即非单例router,就像actor)。单节点routee个数配置max-nr-of-instances-per-node
是对每个router而言,也就说,如果集群router个数是m
,其类型、配置相同,单节点routee个数为n
,集群节点数为c
,集群中该类型router管理的routee类型实例数为m*n*c
。
集群管理 Management:通过HTTP、JMX查看管理集群。
集群相关例子(包含集群、集群事件、集群客户端、集群节点路由、集群内单例、角色):
/*集群有一个单例Master,有路由功能,管理多个WorkerActor,负责接收集群外部消息以及转发给worker。集群外部系统(集群客户端)给集群内master发送消息。
*/
//对应.conf配置文件内容在代码后面
//↓↓↓↓↓↓↓↓↓↓集群节点程序代码↓↓↓↓↓↓↓↓↓(对应配置文件node.conf)
//程序入口、创建actor system、创建&启动节点worker、创建
object ClusterNodeMain {
def main(args: Array[String]): Unit = {
val conf=ConfigFactory.load("node")
val system=ActorSystem("mycluster", conf)
val log = Logging.getLogger(system, this)
val manager = system.actorOf(
ClusterSingletonManager.props(Props[Master],
PoisonPill,
ClusterSingletonManagerSettings(system).withRole("compute")),
"masterManager") //这里的名字要和配置中部署路径中的保持一致
log.info(s"created singleton manager, at path: {}", manager.path)
val proxy = system.actorOf(ClusterSingletonProxy.props(singletonManagerPath = "/user/masterManager",
settings = ClusterSingletonProxySettings(system).withRole("compute")),
name = "masterProxy") //单例代理类,准备让单例接收的消息都应发到代理
ClusterClientReceptionist(system).registerService(proxy)
log.info("created singleton proxy, at path: {}", proxy.path)
}
}
class Master extends Actor with ActorLogging{
//下述FromConf.xxx从配置文件中读取部署配置,本Master actor我们以单例模式创建,其路径为/user/masterManager/singleton,因此部署的配置键为"/masterManager/singleton/workerRouter"(配置键需省掉/user)
private val router = context.actorOf(FromConfig.props(Props[WorkerActor]), name = "workerRouter")
override def receive: Receive = {
case x =>
log.info(s"got message on master, msg: $x, actor me: ${self.path}")
router forward ConsistentHashableEnvelope(x, x) //转发给路由器,路由器将选择一个worker让其接收消息
}
}
class WorkerActor extends Actor with ActorLogging {
private val cluster = Cluster(context.system)
override def preStart(): Unit = {
// actor成员需向集群订阅事件才能接收到集群事件消息
cluster.subscribe(self, initialStateMode = InitialStateAsEvents,
classOf[MemberEvent], classOf[ReachabilityEvent])
}
override def postStop(): Unit = cluster.unsubscribe(self)
def receive:Receive = {
case MemberWeaklyUp(member)=>
log.info(s"Member is WeaklyUp: $member, actor me: $self")
case MemberUp(member) => //集群成员状态刚设为了Up
log.info(s"Member is Up: $member, actor me: $self")
case MemberJoined(member)=> //集群成员状态刚设为了Joining
log.info(s"Member is Joined: $member, actor me: $self")
case MemberLeft(member)=> // 状态刚设为了leaving
log.info(s"Member is Left: $member, actor me: $self")
case MemberExited(member)=> // 成员自己正常退出
log.info(s"Member is Exited: $member, actor me: $self")
// 状态成了Down,down状态一般由unreachable状态之后转移过来,
// 由编程者自己显式设置cluster.down(member)
// (auto-down特性可自动转移unreachable成员到down,官方不建议在生成环境中启用)
case MemberDowned(member)=>
log.info(s"Member is Downed: $member, actor me: $self")
case MemberRemoved(member, previousStatus) => //成员被移出集群
log.info(s"Member is Removed: $member after $previousStatus, actor me: $self")
case UnreachableMember(member) => //failure-detector检测器发现了一个通信不可达的成员
log.info(s"Member detected as unreachable: $member, actor me: $self")
cluster.down(member.address)
// context.actorSelection(RootActorPath(member.address) / "user" / "otherActor") ! SomeMessage
//共7种MemberEvent
case ReachableMember(member) => //不可达成员重新变得可达
log.info(s"Member is reachable again: $member, actor me: $self")
case n:Int =>
log.info(s"got an int: $n, actor me: ${self.path}")
case s:String =>
log.info(s"sender said: $s, actor me: ${self.path}")
case any=>
log.info(s"what is it? :$any, actor me: ${self.path}")
}
}
//↑↑↑↑↑↑↑↑↑↑↑集群节点程序代码↑↑↑↑↑↑↑↑↑↑在将部署的节点机器上运行(注意修改对应hostname&port配置)
//↓↓↓↓↓↓↓↓↓↓集群客户端点程序代码(另一个项目)↓↓↓↓↓↓↓↓↓↓(对应配置文件client.conf)
object ClusterClientMain {
def main(args: Array[String]): Unit = {
val conf = ConfigFactory.load("client")
val system = ActorSystem("myclient", conf) //actor system名字随意,和集群名无关
val clusterClient = system.actorOf(ClusterClient.props(ClusterClientSettings(system)), "clusterClient")
// 向集群某个路径下的actor发送消息,对应路径的actor需在集群端提前向集群接待员注册好服务
clusterClient ! ClusterClient.Send("/user/masterProxy", 100, localAffinity = true)
// 注意,不是简单的: clusterClient ! 100
clusterClient ! ClusterClient.Send("/user/masterProxy", 1, localAffinity = true)
clusterClient ! ClusterClient.Send("/user/masterProxy", "Hi", localAffinity = true)
println("main done")
}
}
节点程序和客户端程序使用的配置文件分别如下:
//↓↓↓↓↓↓↓↓↓↓ node.conf
akka {
actor {
provider = "cluster" //有3种provider:local, remote, cluster,集群成员actor用cluster
}
remote {
log-remote-lifecycle-events = off
netty.tcp { //使用artery即可组建集群系统(对应协议akka://),但只有使用netty.tcp(对应协议akka.tcp://)才能和集群外部通信
hostname = "127.0.0.1" //节点主机
port = 2551 //节点actor system的端口。主机和端口根据部部署的机器及想要对外开放的端口而变
}
}
cluster {
seed-nodes = [ //种子节点必须启动第一个节点,其他种子节点不要求一定启动,加入集群的节点不限于必须在种子列表中(但必须设置正确的种子节点以便能连接进集群)
//节点部署完全不必在同个主机
"akka.tcp://mycluster@127.0.0.1:2551",
// "akka.tcp://mycluster@127.0.0.1:2552"
]
roles=["compute"] //为集群中这一类actor打上一种自定义标签
// 官方不建议生产环境中启用auto-down特性。
//auto downing is NOT safe for production deployments.
// you may want to use it during development, read more about it in the docs.
// auto-down-unreachable-after = 10s
}
}
akka.extensions=[
"akka.cluster.client.ClusterClientReceptionist" //集群客户端接待员扩展
]
akka.actor.deployment { //想要部署的actor的路径作为配置键
"/masterManager/singleton/workerRouter" { //路由器actor路径作为配置键,配置路由器相关属性
router = consistent-hashing-pool
cluster {
enabled = on
max-nr-of-instances-per-node= 2
allow-local-routees = on
use-role = "compute"
}
}
}
//↓↓↓↓↓↓↓↓↓↓ client.conf
akka {
actor {
provider = remote // 我们的客户端是独自成普通actor,没有建新集群,设为remote以提供对外远程通信
}
remote {
enabled-transports = ["akka.remote.netty.tcp"]
netty.tcp {
// hostname = "" // 集群客户端部署的主机地址(默认本机局域网地址)
// port = 0 //集群客户端actor system的端口,可以不配置(akka系统自动分配端口)
}
}
}
akka.cluster.client {
initial-contacts = [ //接待员地址。 集群成员中创建了集群客户端接待员的任意节点,地址中actor system名字是集群名,后面的/system/receptionist是固定的(系统自动创建的接待员)
"akka.tcp://mycluster@127.0.0.1:2551/system/receptionist", #不要求非得是第一个成员或接待员注册的ActorRef服务所在的节点
// "akka.tcp://mycluster@127.0.0.1:2552/system/receptionist"
]
}
akka extension
An extension is a singleton instance created per actor system.
集成spring/spring-boot
被spring容器管理的Actor类上必须标注@Scope("prototype")
。(@Scope("prototype")表示spring容器中每次需要时生成一个实例,是否影响集群内单例? <== 不影响)
cluster中涉及actor远程部署,可能会因SpringApplicationContext
不能序列化而失败,可将其设为静态变量,在spring启动后手动初始化,以提供spring管理器。
示例代码:TODO
常见问题
运行时程序异常终止,提示
akka.version
属性没有配置问题
异发生在初始化ActorSystem
过程中,初始化时会通过加载reference.conf配置文件读取该属性,在运行时没能读取到该属性导致异常。akka-actor jar中有reference.conf、version.conf文件,reference.conf在文件首通过“incluce version"语法导入version.conf,version.conf中定义了akka.version属性,ActorSystem本可读到,但由于akka系列其他jar包中也有reference.conf,内容不同akka-actor中的,也没有导入version.conf,而打包时akka-actor的reference.conf(有可能)被其他jar包中的reference.conf覆盖,从而导致reference.conf中没有akka.version属性,进而导致程序异终止。解决方案:定义打包时资源文件处理行为,不覆盖reference.conf,合并所有jar包中reference.conf文件内容到一个文件。如下定义pom.xml中shade插件的行为:
<plugin> <artifactId>maven-shade-plugin</artifactId> <version>3.2.0</version> <executions> <execution> <phase>package</phase> <goals><goal>shade</goal></goals> <configuration> <transformers> <!--合并资源文件,而不是默认的覆盖--> <transformer implementation="org.apache.maven.plugins.shade.resource.AppendingTransformer"> <resource>reference.conf</resource> </transformer>
- Spring集成akka-cluster,部署多个节点时主节点打印序列化相关ERROR日志。
ERROR akka.remote.EndpointWriter : Failed to serialize remote message [class akka.remote.DaemonMsgCreate] using serializer [class akka.remote.serialization.DaemonMsgCreateSerializer]. Transient association error (association remains live)
akka.remote.MessageSerializer$SerializationException: Failed to serialize remote message [class akka.remote.DaemonMsgCreate] using serializer [class akka.remote.serialization.DaemonMsgCreateSerializer].
at akka.remote.MessageSerializer$.serialize(MessageSerializer.scala:62) ~[akka-remote_2.12-2.5.19.jar!/:2.5.19]
at akka.remote.EndpointWriter.$anonfun$serializeMessage$1(Endpoint.scala:906) ~[akka-remote_2.12-2.5.19.jar!/:2.5.19]
at scala.util.DynamicVariable.withValue(DynamicVariable.scala:62) ~[scala-library-2.12.8.jar!/:na]
at akka.remote.EndpointWriter.serializeMessage(Endpoint.scala:906) ~[akka-remote_2.12-2.5.19.jar!/:2.5.19]
at akka.remote.EndpointWriter.writeSend(Endpoint.scala:793) ~[akka-remote_2.12-2.5.19.jar!/:2.5.19]
at akka.remote.EndpointWriter$$anonfun$4.applyOrElse(Endpoint.scala:768) ~[akka-remote_2.12-2.5.19.jar!/:2.5.19]
at akka.actor.Actor.aroundReceive(Actor.scala:517) ~[akka-actor_2.12-2.5.19.jar!/:2.5.19]
at akka.actor.Actor.aroundReceive$(Actor.scala:515) ~[akka-actor_2.12-2.5.19.jar!/:2.5.19]
at akka.remote.EndpointActor.aroundReceive(Endpoint.scala:458) ~[akka-remote_2.12-2.5.19.jar!/:2.5.19]
at akka.actor.ActorCell.receiveMessage(ActorCell.scala:588) ~[akka-actor_2.12-2.5.19.jar!/:2.5.19]
at akka.actor.ActorCell.invoke(ActorCell.scala:557) ~[akka-actor_2.12-2.5.19.jar!/:2.5.19]
at akka.dispatch.Mailbox.processMailbox(Mailbox.scala:258) ~[akka-actor_2.12-2.5.19.jar!/:2.5.19]
at akka.dispatch.Mailbox.run(Mailbox.scala:225) ~[akka-actor_2.12-2.5.19.jar!/:2.5.19]
at akka.dispatch.Mailbox.exec(Mailbox.scala:235) ~[akka-actor_2.12-2.5.19.jar!/:2.5.19]
at akka.dispatch.forkjoin.ForkJoinTask.doExec(ForkJoinTask.java:260) ~[akka-actor_2.12-2.5.19.jar!/:2.5.19]
at akka.dispatch.forkjoin.ForkJoinPool$WorkQueue.runTask(ForkJoinPool.java:1339) ~[akka-actor_2.12-2.5.19.jar!/:2.5.19]
at akka.dispatch.forkjoin.ForkJoinPool.runWorker(ForkJoinPool.java:1979) ~[akka-actor_2.12-2.5.19.jar!/:2.5.19]
at akka.dispatch.forkjoin.ForkJoinWorkerThread.run(ForkJoinWorkerThread.java:107) ~[akka-actor_2.12-2.5.19.jar!/:2.5.19]
Caused by: java.io.NotSerializableException: No configured serialization-bindings for class [org.springframework.context.annotation.AnnotationConfigApplicationContext]
at akka.serialization.Serialization.serializerFor(Serialization.scala:320) ~[akka-actor_2.12-2.5.19.jar!/:2.5.19]
at akka.serialization.Serialization.findSerializerFor(Serialization.scala:295) ~[akka-actor_2.12-2.5.19.jar!/:2.5.19]
at akka.remote.serialization.DaemonMsgCreateSerializer.serialize(DaemonMsgCreateSerializer.scala:184) ~[akka-remote_2.12-2.5.19.jar!/:2.5.19]
at akka.remote.serialization.DaemonMsgCreateSerializer.$anonfun$toBinary$1(DaemonMsgCreateSerializer.scala:76) ~[akka-remote_2.12-2.5.19.jar!/:2.5.19]
at scala.collection.immutable.List.foreach(List.scala:392) ~[scala-library-2.12.8.jar!/:na]
at akka.remote.serialization.DaemonMsgCreateSerializer.propsProto$1(DaemonMsgCreateSerializer.scala:75) ~[akka-remote_2.12-2.5.19.jar!/:2.5.19]
at akka.remote.serialization.DaemonMsgCreateSerializer.toBinary(DaemonMsgCreateSerializer.scala:86) ~[akka-remote_2.12-2.5.19.jar!/:2.5.19]
at akka.remote.MessageSerializer$.serialize(MessageSerializer.scala:52) ~[akka-remote_2.12-2.5.19.jar!/:2.5.19]
集成spring方式参考https://www.baeldung.com/akka-with-spring,序列化ERROR日志问题参考https://github.com/akka/akka/issues/15938,其中“patriknw”提出设置akka.actor.serialize-creators=off并设置相关.props(...).withDeploy(Deploy.local),本例在类SpringExt中定义方法def props(beanClass: Class[_ <: Actor]): Props = Props.create(classOf[SpringActorProducer], beanClass)//.withDeploy(Deploy.local),也失败了,仍然报同样ERROR。
用静态变量保存ApplicationContext的方式可暂时解决该问题(因为压根儿不涉及到ApplicationContext的序列化了)。
(以上知识基于版本akka 2.5.19)