diff --git "a/1.Actor\347\274\226\345\206\231-ESGrain\344\270\216ESRepGrain.md" "b/1.Actor\347\274\226\345\206\231-ESGrain\344\270\216ESRepGrain.md"
index 0b32aa4..edcd27e 100644
--- "a/1.Actor\347\274\226\345\206\231-ESGrain\344\270\216ESRepGrain.md"
+++ "b/1.Actor\347\274\226\345\206\231-ESGrain\344\270\216ESRepGrain.md"
@@ -1,6 +1,6 @@
##### ESGrain
###### 生命周期
-Ray中ESGrain继承自Grain扩展了Grain的生命周期。Grain的生命周期参加文档[附录:1-Grain生命周期-译注.md](https://github.com/RayTale/Docs/blob/master/%E9%99%84%E5%BD%95%EF%BC%9A1-Grain%E7%94%9F%E5%91%BD%E5%91%A8%E6%9C%9F-%E8%AF%91%E6%B3%A8.md)
+Ray中ESGrain继承自Grain扩展了Grain的生命周期。Grain的生命周期参考文档[附录:1-Grain生命周期-译注.md](https://github.com/RayTale/Docs/blob/master/%E9%99%84%E5%BD%95%EF%BC%9A1-Grain%E7%94%9F%E5%91%BD%E5%91%A8%E6%9C%9F-%E8%AF%91%E6%B3%A8.md)
ESGrain重写了Grain的OnActivateAsync方法。ESGrain的初始化过程如下:
- 初始化ESGrain中的State
diff --git "a/201906.\345\210\206\344\272\253/Kubernetes\345\210\206\344\272\253.pptx" "b/201906.\345\210\206\344\272\253/Kubernetes\345\210\206\344\272\253.pptx"
new file mode 100644
index 0000000..73aff2f
Binary files /dev/null and "b/201906.\345\210\206\344\272\253/Kubernetes\345\210\206\344\272\253.pptx" differ
diff --git "a/201906.\345\210\206\344\272\253/Orleans+ES+CQRS+SF\350\247\243\345\206\263\346\226\271\346\241\210\345\210\206\344\272\253.pptx" "b/201906.\345\210\206\344\272\253/Orleans+ES+CQRS+SF\350\247\243\345\206\263\346\226\271\346\241\210\345\210\206\344\272\253.pptx"
new file mode 100644
index 0000000..43594e2
Binary files /dev/null and "b/201906.\345\210\206\344\272\253/Orleans+ES+CQRS+SF\350\247\243\345\206\263\346\226\271\346\241\210\345\210\206\344\272\253.pptx" differ
diff --git "a/201906.\345\210\206\344\272\253/Ray\346\250\241\345\236\213\345\205\274\345\256\271\346\200\247\350\256\250\350\256\272.md" "b/201906.\345\210\206\344\272\253/Ray\346\250\241\345\236\213\345\205\274\345\256\271\346\200\247\350\256\250\350\256\272.md"
new file mode 100644
index 0000000..ea798cf
--- /dev/null
+++ "b/201906.\345\210\206\344\272\253/Ray\346\250\241\345\236\213\345\205\274\345\256\271\346\200\247\350\256\250\350\256\272.md"
@@ -0,0 +1,26 @@
+郑承良:
+我这会有个问题,之前的时候,Event变了,可以通过加版本号解决兼容性。如果state变化呢?
+
+无名:
+现在全部用json存储,兼容性大幅提高了
+
+无名:
+二进制太麻烦,json很多改动都不需要加版本
+
+郑承良:
+奥奥。之前怎么处理的这种情况的呢?
+
+郑承良:
+用二进制的时候,看了之前的代码,state没有版本号
+
+无名:
+删快照
+
+郑承良:
+知道了
+
+郑承良:
+也是哈,没上线之前,怎么改怎么删都行
+
+郑承良:
+上线了,模型就稳定了
diff --git "a/201906.\345\210\206\344\272\253/\345\237\272\344\272\216Actor\346\250\241\345\236\213\347\232\204CQRS\343\200\201ES\350\247\243\345\206\263\346\226\271\346\241\210\345\210\206\344\272\253.md" "b/201906.\345\210\206\344\272\253/\345\237\272\344\272\216Actor\346\250\241\345\236\213\347\232\204CQRS\343\200\201ES\350\247\243\345\206\263\346\226\271\346\241\210\345\210\206\344\272\253.md"
new file mode 100644
index 0000000..ad60b6d
--- /dev/null
+++ "b/201906.\345\210\206\344\272\253/\345\237\272\344\272\216Actor\346\250\241\345\236\213\347\232\204CQRS\343\200\201ES\350\247\243\345\206\263\346\226\271\346\241\210\345\210\206\344\272\253.md"
@@ -0,0 +1,263 @@
+##### 开场白
+
+大家晚上好,我是郑承良,跟大家分享的话题是《基于Actor模型的CQRS/ES解决方案分享》,最近一段时间我一直是这个话题的学习者、追随者,这个话题目前生产环境落地的资料少一些,分享的内容中有一些我个人的思考和理解,如果分享的内容有误、有疑问欢迎大家提出,希望通过分享这种沟通方式大家相互促进,共同进步。
+
+##### 引言
+
+1. 话题由三部分组成:
+
+- Actor模型&Orleans:在编程的层面,从细粒度-由下向上的角度介绍Actor模型;
+- CQRS/ES:在框架的层面,从粗粒度-由上向下的角度介绍Actor模型,说明Orleans技术在架构方面的价值;
+- Service Fabric:从架构部署的角度将上述方案落地上线。
+2. 群里的小伙伴技术栈可能多是Java和Go体系,分享的话题主要是C#技术栈,没有语言纷争,彼此相互学习。比如:Scala中,Actor模型框架有akka,CQRS/ES模式与编程语言无关,Service Fabric与K8S是同类平台,可以相互替代,我自己也在学习K8S。
+
+##### Actor模型&Orleans(细粒度)
+
+1. 共享内存模型
+
+多核处理器出现后,大家常用的并发编程模型是共享内存模型。
+
+
+
+这种编程模型的使用带来了许多痛点,比如:
+
+- 编程:多线程、锁、并发集合、异步、设计模式(队列、约定顺序、权重)、编译
+- 无力:单系统的无力性:①地理分布型②容错型
+- 性能:锁,性能会降低
+- 测试:
+ - 从坑里爬出来不难,难的是我们不知道自己是不是在坑里(开发调试的时候没有热点可能是正常的)
+ - 遇到bug难以重现。有些问题特别是系统规模大了,可能运行几个月才能重现问题
+- 维护:
+ - 我们要保证所有对象的同步都是正确的、顺序的获取多个锁。
+ - 12个月后换了另外10个程序员仍然按照这个规则维护代码。
+
+简单总结:
+- 并发问题确实存在
+- 共享内存模型正确使用掌握的知识量多
+- 加锁效率就低
+- 存在许多不确定性
+
+2. Actor模型
+
+Actor模型是一个概念模型,用于处理并发计算。Actor由3部分组成:状态(State)+行为(Behavior)+邮箱(Mailbox),State是指actor对象的变量信息,存在于actor之中,actor之间不共享内存数据,actor只会在接收到消息后,调用自己的方法改变自己的state,从而避免并发条件下的死锁等问题;Behavior是指actor的计算行为逻辑;邮箱建立actor之间的联系,一个actor发送消息后,接收消息的actor将消息放入邮箱中等待处理,邮箱内部通过队列实现,消息传递通过异步方式进行。
+
+
+
+Actor是分布式存在的内存状态及单线程计算单元,一个Id对应的Actor只会在集群种存在一个(有状态的 Actor在集群中一个Id只会存在一个实例,无状态的可配置为根据流量存在多个),使用者只需要通过Id就能随时访问不需要关注该Actor在集群的什么位置。单线程计算单元保证了消息的顺序到达,不存在Actor内部状态竞用问题。
+
+举个例子:
+
+多个玩家合作在打Boss,每个玩家都是一个单独的线程,但是Boss的血量需要在多个玩家之间同步。同时这个Boss在多个服务器中都存在,因此每个服务器都有多个玩家会同时打这个服务器里面的Boss。
+
+如果多线程并发请求,默认情况下它只会并发处理。这种情况下可能造成数据冲突。但是Actor是单线程模型,意味着即使多线程来通过Actor ID调用同一个Actor,任何函数调用都是只允许一个线程进行操作。并且同时只能有一个线程在使用一个Actor实例。
+
+3. Actor模型:Orleans
+
+Actor模型这么好,怎么实现?
+
+可以通过特定的Actor工具或直接使用编程语言实现Actor模型,Erlang语言含有Actor元素,Scala可以通过Akka框架实现Actor编程。C#语言中有两类比较流行,Akka.NET框架和Orleans框架。这次分享内容使用了Orleans框架。
+
+特点:
+
+Erlang和Akka的Actor平台仍然使开发人员负担许多分布式系统的复杂性:关键的挑战是开发管理Actor生命周期的代码,处理分布式竞争、处理故障和恢复Actor以及分布式资源管理等等都很复杂。Orleans简化了许多复杂性。
+
+优点:
+- 降低开发、测试、维护的难度
+- 特殊场景下锁依旧会用到,但频率大大降低,业务代码里甚至不会用到锁
+- 关注并发时,只需要关注多个actor之间的消息流
+- 方便测试
+- 容错
+- 分布式内存
+
+缺点:
+- 也会出现死锁(调用顺序原因)
+- 多个actor不共享状态,通过消息传递,每次调用都是一次网络请求,不太适合实施细粒度的并行
+- 编程思维需要转变
+
+
+
+---
+
+第一小节总结:上面内容由下往上,从代码层面细粒度层面表达了采用Actor模型的好处或原因。
+
+---
+
+##### CQRS/ES(架构层面)
+
+1. 从1000万用户并发修改用户资料的假设场景开始
+
+
+
+1. 每次修改操作耗时200ms,每秒5个操作
+2. MySQL连接数在5K,分10个库
+3. 5 *5k *10=25万TPS
+4. 1000万/25万=40s
+
+
+
+在秒杀场景中,由于对乐观锁/悲观锁的使用,推测系统响应时间更复杂。
+
+2. 使用Actor解决高并发的性能问题
+
+
+
+1000万用户,一个用户一个Actor,1000万个内存对象。
+
+
+
+200万件SKU,一件SKU一个Actor,200万个内存对象。
+
+- 平均一个SKU承担1000万/200万=5个请求
+- 1000万对数据库的读写压力变成了200万
+- 1000万的读写是同步的,200万的数据库压力是异步的
+- 异步落盘时可以采用批量操作
+
+总结:
+
+由于1000万+用户的请求根据购物意愿分散到200万个商品SKU上:
+每个内存领域对象都强制串行执行用户请求,避免了竞争争抢;
+内存领域对象上扣库存操作处理时间极快,基本没可能出现请求阻塞情况;
+
+从架构层面彻底解决高并发争抢的性能问题。
+理论模型,TPS>100万+……
+
+3. EventSourcing:内存对象高可用保障
+
+Actor是分布式存在的内存状态及单线程计算单元,采用EventSourcing只记录状态变化引发的事件,事件落盘时只有Add操作,上述设计中很依赖Actor中State,事件溯源提高性能的同时,可以用来保证内存数据的高可用。
+
+
+
+
+
+4. CQRS
+
+上面1000万并发场景的内容来自网友分享的PPT,与我们实际项目思路一致,就拿来与大家分享这个过程,下图是我们交易所项目中的架构图:
+
+
+
+开源版本架构图:
+
+
+
+(开源项目github:https://github.com/RayTale/Ray)
+
+---
+
+第二小节总结:由上往下,架构层面粗粒度层面表达了采用Actor模型的好处或原因。
+
+---
+
+##### Service Fabric
+
+系统开发完成后Actor要组成集群,系统在集群中部署,实现高性能、高可用、可伸缩的要求。部署阶段可以选择Service Fabric或者K8S,目的是降低分布式系统部署、管理的难度,同时满足弹性伸缩。
+
+交易所项目可以采用Service Fabric部署,也可以采用K8S,当时K8S还没这么流行,我们采用了Service Fabric,Service Fabric 是一款微软开源的分布式系统平台,可方便用户轻松打包、部署和管理可缩放的可靠微服务和容器。开发人员和管理员不需解决复杂的基础结构问题,只需专注于实现苛刻的任务关键型工作负荷,即那些可缩放、可靠且易于管理的工作负荷。支持Windows与Linux部署,Windows上的部署文档齐全,但在Linux上官方资料没有。现在推荐K8S。
+
+---
+
+第三小节总结:
+1. 借助Service Fabric或K8S实现低成本运维、构建集群的目的。
+2. 建立分布式系统的两种最佳实践:
+- 进程级别:容器+运维工具(k8s/sf)
+- 线程级别:Actor+运维工具(k8s/sf)
+
+---
+
+上面是我对今天话题的分享。
+
+参考:
+1. ES/CQRS部分内容参考:《领域模型 + 内存计算 + 微服务的协奏曲:乾坤(演讲稿)》
+2017年互联网应用架构实战峰会
+2. 其他细节来自互联网,不一一列出
+
+---
+
+##### 讨论
+
+汤雪华:
+1000W用户,购买200W SKU,如果不考虑热点SKU,则每个SKU平均为5个并发减库存的更新;
+而总共的SKU分10个数据库存储,则每个库存储20W SKU。所以20W * 5 = 100W个并发的减库存;
+
+汤雪华:
+每个库负责100W的并发更新,这个并发量,不管是否采用actor/es,都要采用group commit的技术
+
+汤雪华:
+否则单机都不可能达到100W/S的数据写入。
+
+汤雪华:
+采用es的方式,就是每秒插入100W个事件;不采用ES,就是每秒更新100W次商品减库存的SQL update语句
+
+杨华:
+哦
+
+汤雪华:
+不过实际上,除了阿里的体量,不可能并发达到1000W的
+
+汤雪华:
+1000W用户不代表1000W并发
+
+汤雪华:
+如果真的是1000W并发,可能实际在线用户至少有10亿了
+
+汤雪华:
+因为如果只有1000W在线用户,那是不可能这些用户同时在同一秒内发起购买的,大家想一下是不是这样
+
+杨华:
+这么熟的名字
+
+汤雪华:
+所以,1000W在线用户的并发实际只有10W最多了
+
+杨华:
+@严永恒
+
+汤雪华:
+也就是单机只有1W的并发更新,不需要group commit也无压力
+
+杨华:
+嗯
+
+##### 问答
+
+Q1:单点故障后,正在处理的 cache
+数据如何处理的,例如,http,tcp请求…毕竟涉及到钱
+
+A:actor有激活和失活的生命周期,激活的时候使用快照和Events来恢复最新内存状态,失活的时候保存快照。actor框架保证系统中同一个key只会存在同一个actor,当单点故障后,actor会在其它节点重建并恢复最新状态。
+
+Q2:event ID生成的速度如何保证有效的scale?有没有遇到需要后期插入一些event,修正前期系统运行的bug?有没有遇到需要把前期已经定好的event再拆细的情况?有遇到系统错误,需要replay event的情况?
+A:1. 当时项目中event ID采用了MongoDB的ObjectId生成算法,没有遇到问题;有遇到后期插入event修正之前bug的情况;有遇到将已定好的event修改的情况,采用的方式是加版本号;没有,遇到过系统重新迁移删除快照重新replay event的情况。
+
+Q3:数据落地得策略是什么?还是说就是直接落地?
+A:event数据直接落地;用于支持查询的数据,是Handler消费event后异步落库。
+
+Q4:actor跨物理机器集群事务怎么处理?
+A:结合事件溯源,采用最终一致性。
+
+Q5:Grain Persistence使用Relational Storage容量和速度会不会是瓶颈?
+A:Grain Persistence存的是Grain的快照和event,event是只增的,速度没有出现瓶颈,而且开源版本测试中PostgreSQL性能优于MongoDB,在存储中针对这两个方面做了优化:比如分表、归档处理、快照处理、批量处理。
+
+Q6:SF中的reliable collection对应到k8s是什么?
+A:不好意思,这个我不清楚。
+
+Q7:开发语言是erlang吗?Golang有这样的开发模型库支持吗?
+A:开发语言是C#。Golang我了解的不多,proto.actor可以了解一下:https://github.com/AsynkronIT/protoactor-go
+
+Q8:能否来几篇博客阐述如何一步步使用orleans实现一个简单的事件总线
+A:事件总线的实现使用的是RabbitMQ,这个可以看一下开源版本的源码EventBus.RabbitMQ部分,博客的可能后面会写,如果不996的话(笑脸)
+
+Q9:每个pod的actor都不一样,如何用k8s部署actor,失败的节点如何监控,并借助k8s自动恢复?
+A:actor是无状态的,失败恢复依靠重新激活时事件溯源机制。k8s部署actor官方有支持,可以参考官方示例。在实际项目中使用k8s部署Orleans,我没有实践过,后来有同事验证过可以,具体如何监控不清楚。
+
+Q10:Orleans中,持久化事件时,是否有支持并发冲突的检测,是如何实现的?
+A:Orleans不支持;工作中,在事件持久化时做了这方面的工作,方式是根据版本号。
+
+Q11:Orleans中,如何判断消息是否重复处理的?因为分布式环境下,同一个消息可能会被重复发送到actor mailbox中的,而actor本身无法检测消息是否重复过来。
+A:是的,在具体项目中,通过框架封装实现了幂等性控制,具体细节是通过插入事件的唯一索引。
+
+Q12:同一个actor是否会存在于集群中的多台机器?如果可能,怎样的场景下可能会出现这种情况?
+A:一个Id对应的Actor只会在集群种存在一个。
+
+Q13:
+响应式架构 消息模式Actor实现与Scala.Akka应用集成 这本书对理解actor的帮助大吗,还有实现领域驱动设计这本
+
+A:这本书我看过,刚接触这个项目时看的,文章说的有些深奥,因为当时关注的是Orleans,文中讲的是akka,帮助不大,推荐具体项目的官方文档。实现领域驱动这本书有收获,推荐专题式阅读,DDD多在社区交流。
\ No newline at end of file
diff --git "a/201906.\345\210\206\344\272\253/\351\242\206\345\237\237\346\250\241\345\236\213 + \345\206\205\345\255\230\350\256\241\347\256\227 + \345\276\256\346\234\215\345\212\241\347\232\204\345\215\217\345\245\217\346\233\262\357\274\232\344\271\276\345\235\244\357\274\210\346\274\224\350\256\262\347\250\277\357\274\211.pptx" "b/201906.\345\210\206\344\272\253/\351\242\206\345\237\237\346\250\241\345\236\213 + \345\206\205\345\255\230\350\256\241\347\256\227 + \345\276\256\346\234\215\345\212\241\347\232\204\345\215\217\345\245\217\346\233\262\357\274\232\344\271\276\345\235\244\357\274\210\346\274\224\350\256\262\347\250\277\357\274\211.pptx"
new file mode 100644
index 0000000..75ec37c
Binary files /dev/null and "b/201906.\345\210\206\344\272\253/\351\242\206\345\237\237\346\250\241\345\236\213 + \345\206\205\345\255\230\350\256\241\347\256\227 + \345\276\256\346\234\215\345\212\241\347\232\204\345\215\217\345\245\217\346\233\262\357\274\232\344\271\276\345\235\244\357\274\210\346\274\224\350\256\262\347\250\277\357\274\211.pptx" differ
diff --git a/Q&A-20180710.md b/Q&A-20180710.md
new file mode 100644
index 0000000..dd1d4d4
--- /dev/null
+++ b/Q&A-20180710.md
@@ -0,0 +1,135 @@
+Q:
+
+
+
+如果集群多个客户端订阅会不会重复接收消息?
+
+A:
+
+集群环境用,有另外一个参数。
+
+
+
+NodeManager类没有在框架里面:
+
+
+
+```
+public interface INodeManager : IGrainWithStringKey
+{
+ ///
+ /// 初始化节点管理器
+ ///
+ ///
+ ///
+ Task Init(List nodeList);
+ ///
+ /// 获取一个节点名称作为当前节点的名称
+ ///
+ ///
+ Task GetNodeName();
+ ///
+ /// 保持节点活动状态(超时节点会被回收)
+ ///
+ ///
+ /// 是否续活成功
+ Task KeepLive(string nodeName);
+}
+```
+
+
+```
+public class NodeManager : Orleans.Grain, INodeManager
+{
+ List nodeList;
+ Dictionary nodeUserDict = new Dictionary();
+ public Task Init(List nodeList)
+ {
+ this.nodeList = nodeList;
+ return Task.CompletedTask;
+ }
+ public Task GetNodeName()
+ {
+ foreach (var node in nodeList)
+ {
+ if (nodeUserDict.TryGetValue(node, out var liveTime))
+ {
+ if (DateTime.UtcNow.Subtract(liveTime).TotalSeconds <= 35)
+ continue;
+ else
+ {
+ nodeUserDict[node] = DateTime.UtcNow;
+ }
+ }
+ if (!nodeUserDict.ContainsKey(node))
+ {
+ nodeUserDict.Add(node, DateTime.UtcNow);
+ }
+ return Task.FromResult(node);
+ }
+ return Task.FromResult(string.Empty);
+ }
+
+ public Task KeepLive(string nodeName)
+ {
+ if (nodeUserDict.ContainsKey(nodeName))
+ {
+ if (nodeList.Contains(nodeName))
+ {
+ nodeUserDict[nodeName] = DateTime.UtcNow;
+ return Task.FromResult(true);
+ }
+ else
+ nodeUserDict.Remove(nodeName);
+ }
+ return Task.FromResult(false);
+ }
+}
+
+```
+
+Q:
+
+没太搞明白这个怎么用,也就是集群客户端订阅会重复消费吗?
+
+A:
+
+这个类似分布式锁,设置只能启动三个节点,每次启动先去获取一个NodeName,如果获取得到就能启动,获取不到重试几次还不行就直接报错
+
+Q:
+
+就是在订阅的时候,限制启动节点。
+
+----
+
+示例:
+
+```
+var socketNodeManager=GrainClient.GrainFactory.GetGrain("coin_websocket");
+var nodeList=new List(){ "Coin","Coin1","Coin2"};
+socketNodeManager.Init(nodeList).GetAwaiter().GetResult();
+while(true)
+{
+ var nodeName=socketNodeManager.GetNodeName().GetAwaiter().GetResult();
+ if(!string.IsNullOrEmpty(nodeName))
+ {
+ Task.Factory.StartNew(async ()=>{
+ while(true)
+ {
+ await Task.Delay(TimeSpan.FromSeconds(30));
+ if (!await socketNodeManager.KeepLive(nodeName))
+ {
+ await socketNodeManager.Init(nodeList);
+ }
+ }
+ });
+ SubscribeManage.Start(nodeName).GetAwaiter().GetResult();
+ //或:SubscribeManage.Start(nodeName, nodeList).GetAwaiter().GetResult();
+ break;
+ }else
+ {
+ Task.Delay(20).Wait();
+ }
+}
+```
+
\ No newline at end of file
diff --git "a/\347\233\256\345\275\225.md" "b/\347\233\256\345\275\225.md"
new file mode 100644
index 0000000..ae661f4
--- /dev/null
+++ "b/\347\233\256\345\275\225.md"
@@ -0,0 +1,16 @@
+基础部分:
+
+0. [引言](https://github.com/RayTale/Docs/blob/master/%E5%BC%95%E8%A8%80.md)
+1. [Actor编写-ESGrain与ESRepGrain](https://github.com/RayTale/Docs/blob/master/1.Actor%E7%BC%96%E5%86%99-ESGrain%E4%B8%8EESRepGrain.md)
+2. [消息发布器与消息存储器](https://github.com/RayTale/Docs/blob/master/2.%E6%B6%88%E6%81%AF%E5%8F%91%E5%B8%83%E5%99%A8%E4%B8%8E%E6%B6%88%E6%81%AF%E5%AD%98%E5%82%A8%E5%99%A8.md)
+3. [Event编写](https://github.com/RayTale/Docs/blob/master/3.Event%E7%BC%96%E5%86%99.md)
+4. [Handler之CoreHandler编写](https://github.com/RayTale/Docs/blob/master/4.Handler%E4%B9%8BCoreHandler%E7%BC%96%E5%86%99.md)
+5. [Handler之ToReadHandler编写](https://github.com/RayTale/Docs/blob/master/5.Handler%E4%B9%8BToReadHandler%E7%BC%96%E5%86%99.md)
+6. [消息订阅器编写](https://github.com/RayTale/Docs/blob/master/6.%E6%B6%88%E6%81%AF%E8%AE%A2%E9%98%85%E5%99%A8%E7%BC%96%E5%86%99.md)
+7. 附录:
+
+[附录:1-Grain生命周期-译注](https://github.com/RayTale/Docs/blob/master/%E9%99%84%E5%BD%95%EF%BC%9A1-Grain%E7%94%9F%E5%91%BD%E5%91%A8%E6%9C%9F-%E8%AF%91%E6%B3%A8.md)
+
+[附录:2-Event Sourcing(事件溯源设计模式)](https://github.com/RayTale/Docs/blob/master/%E9%99%84%E5%BD%95%EF%BC%9A2-Event%20Sourcing%EF%BC%88%E4%BA%8B%E4%BB%B6%E6%BA%AF%E6%BA%90%E8%AE%BE%E8%AE%A1%E6%A8%A1%E5%BC%8F%EF%BC%89.md)
+
+[附录:3-Q&A](https://github.com/RayTale/Docs/blob/master/Q%26A.md)
\ No newline at end of file