# 服务网格的实现模式

我们在前面看到了通过**客户端库**来治理服务的架构图，那是我们在改造成Service Mesh架构前使用微服务架构通常的形式，下图是使用Service Mesh架构的最终形式。

![Service Mesh 架构示意图](https://2177896272-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FmajWkgIPGGC4DVM73Sam%2Fuploads%2Fgit-blob-44e9dd2fca6369c3202e287002ca73c90ef896c3%2F006tNbRwly1fubs6ts3sgj30vo0osdnj.jpg?alt=media)

当然在达到这一最终形态之前我们需要将架构一步步演进，下面给出的是参考的演进路线。

## Ingress或边缘代理

如果你使用的是Kubernetes做容器编排调度，那么在进化到Service Mesh架构之前，通常会使用Ingress Controller，做集群内外流量的反向代理，如使用Traefik或Nginx Ingress Controller。

![Ingress 或边缘代理架构示意图](https://2177896272-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FmajWkgIPGGC4DVM73Sam%2Fuploads%2Fgit-blob-d2ac16244b76a9f0ea0dbdda5cdcf7af2580dd0f%2F006tNbRwly1fubsk4v16hj30vo0bq75z.jpg?alt=media)

这样只要利用Kubernetes的原有能力，当你的应用微服务化并容器化需要开放外部访问且只需要L7代理的话这种改造十分简单，但问题是无法管理服务间流量。

## 路由器网格

Ingress或者边缘代理可以处理进出集群的流量，为了应对集群内的服务间流量管理，我们可以在集群内加一个`Router`层，即路由器层，让集群内所有服务间的流量都通过该路由器。

![路由器网格架构示意图](https://2177896272-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FmajWkgIPGGC4DVM73Sam%2Fuploads%2Fgit-blob-5ea44949563facc42ccfb3ab1309f57d119e3deb%2F006tNbRwly1fubsxrph3dj30vq0duq53.jpg?alt=media)

这个架构无需对原有的单体应用和新的微服务应用做什么改造，可以很轻易的迁移进来，但是当服务多了管理起来就很麻烦。

## Proxy per Node

这种架构是在每个节点上都部署一个代理，如果使用Kubernetes来部署的话就是使用`DaemonSet`对象，Linkerd第一代就是使用这种方式部署的，一代的Linkerd使用Scala开发，基于JVM比较消耗资源，二代的Linkerd使用Go开发。

![Proxy per node 架构示意图](https://2177896272-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FmajWkgIPGGC4DVM73Sam%2Fuploads%2Fgit-blob-14f80966db9693272d95676f3bb42ec5e437160a%2F006tNbRwly1fubt5a97h7j30vq0bcq5p.jpg?alt=media)

这种架构有个好处是每个节点只需要部署一个代理即可，比起在每个应用中都注入一个sidecar的方式更节省资源，而且更适合基于物理机/虚拟机的大型单体应用，但是也有一些副作用，比如粒度还是不够细，如果一个节点出问题，该节点上的所有服务就都会无法访问，对于服务来说不是完全透明的。

## Sidecar代理/Fabric模型

这个一般不会成为典型部署类型，当企业的服务网格架构演进到这一步时通常只会持续很短时间，然后就会增加控制平面。跟前几个阶段最大的不同就是，应用程序和代理被放在了同一个部署单元里，可以对应用程序的流量做更细粒度的控制。

![Sidecar代理/Fabric模型示意图](https://2177896272-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FmajWkgIPGGC4DVM73Sam%2Fuploads%2Fgit-blob-f29be156076834bcf7134466083bc39b8b33d880%2F006tNbRwly1fubvi0dnhlj30vo0ekwhx.jpg?alt=media)

这已经是最接近Service Mesh架构的一种形态了，唯一缺的就是控制平面了。所有的sidecar都支持热加载，配置的变更可以很容易的在流量控制中反应出来，但是如何操作这么多sidecar就需要一个统一的控制平面了。

## Sidecar代理/控制平面

下面的示意图是目前大多数Service Mesh的架构图，也可以说是整个Service Mesh架构演进的最终形态。

![Sidecar 代理/控制平面架构示意图](https://2177896272-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FmajWkgIPGGC4DVM73Sam%2Fuploads%2Fgit-blob-e22505887c3707bc65b902363f9b5fb296a60264%2F006tNbRwly1fubvr83wvgj30vq0mmdip.jpg?alt=media)

这种架构将代理作为整个服务网格中的一部分，使用Kubernetes部署的话，可以通过以sidecar的形式注入，减轻了部署的负担，可以对每个服务的做细粒度权限与流量控制。但有一点不好就是为每个服务都注入一个代理会占用很多资源，因此要想方设法降低每个代理的资源消耗。

## 多集群部署和扩展

以上都是单个服务网格集群的架构，所有的服务都位于同一个集群中，服务网格管理进出集群和集群内部的流量，当我们需要管理多个集群或者是引入外部的服务时就需要[网格扩展](https://preliminary.istio.io/zh/docs/setup/kubernetes/mesh-expansion/)和[多集群配置](https://preliminary.istio.io/zh/docs/setup/kubernetes/multicluster-install/)。

## 参考

* [企业级服务网格架构之路解读](https://jimmysong.io/posts/the-enterprise-path-to-service-mesh-architectures/)
