这篇文章介绍 Akka 的同步机制,以及 Spark 和 Akka 的恩怨情仇。
1. Akka 中的 Future
Akka 中的 Actor 发送和接收消息默认都是异步的。为了说明异步性,我们实行下面的数学老师和历史老师的 Actor:
- class MathTeacherActor extends Actor with ActorLogging {
- def receive = {
- case "1+1等于多少?" => {
- Thread.sleep(1)
- sender ! "1+1等于2"
- }
- }
- }
- class HistoryTeacherActor extends Actor with ActorLogging {
- def receive = {
- case "历史上规模***的众筹行动是什么?" => {
- Thread.sleep(1)
- sender ! "历史上规模***的众筹行动是 +1s"
- }
- }
- }
如果我们在询问历史老师之后访问答案(如下面代码所示),我们发现并不能获取正确答案。原因就在于 Akka 是异步非阻塞的。
- val res = historyteacher ? "历史上规模***的众筹行动是什么?"
- println(res)
实质上, historyteacher ? "历史上规模***的众筹行动是什么?" 返回的根本不是答案,而是一个 Future。在Akka中, 一个Future是用来获取某个并发操作的结果的数据结构。有了 Future,我们可以以同步(阻塞)或异步(非阻塞)的方式访问结果。下面是简单地以同步(阻塞)方式访问结果的示例。
- class StudentActor(mathteacher:ActorRef,historyteacher:ActorRef)
- extends Actor with ActorLogging{
- def receive = {
- case res:String => {
- val future1 = historyteacher ? "历史上规模***的众筹行动是什么?"
- val future2 = mathteacher ? "1+1等于多少?"
- val res1 = Await.result(future1,10 second)
- val res2 = Await.result(future2,10 second)
- println(res1)
- println(res2)
- }
- }
- }
2. Akka 和 Spark
Spark 一开始使用 Akka 作为内部通信部件。在 Spark 1.3 年代,为了解决大块数据(如Shuffle)的传输问题,Spark引入了Netty通信框架。到了 Spark 1.6, Spark 可以配置使用 Akka 或者 Netty 了,这意味着 Netty 可以完全替代 Akka 了。再到 Spark 2, Spark 已经完全抛弃 Akka 了,全部使用 Netty 了。Sad。
为什么 Spark 无情地有步骤有预谋地抛弃 Akka 呢?Spark 官方倒是给了一个说法:https://issues.apache.org/jira/browse/SPARK-5293。
A lot of Spark user applications are using (or want to use) Akka. Akka as a whole can contribute great architectural simplicity and uniformity. However, because Spark depends on Akka, it is not possible for users to rely on different versions, and we have received many requests in the past asking for help about this specific issue. For example, Spark Streaming might be used as the receiver of Akka messages - but our dependency on Akka requires the upstream Akka actors to also use the identical version of Akka.
Since our usage of Akka is limited (mainly for RPC and single-threaded event loop), we can replace it with alternative RPC implementations and a common event loop in Spark. |
大意就是很多 Spark 用户希望同时使用 Spark 和 Akka ,但他们必须使用 Spark 依赖的那个版本的 Akka。Spark 主要用了 Akka 的 RPC 和 单线程 event-loop,因此 Spark 没有必要依赖完全的 Akka。最终,对 Akka 心心念念的 Spark 用 netty 实现下简易版本的 Akka。真爱啊。
3. 总结
到这里,Akka 使用系列就结束了。这个系列简单地过了一下 Akka 的基础知识,介绍其梗概。
【本文为51CTO专栏作者“李立”的原创稿件,转载请通过51CTO获取联系和授权】