所谓网关,其实就是维持玩家客户端的连接,将玩家发的游戏请求转发到具体后端服务的服务器,具有以下几个功能点:
对于http请求来说,micro框架本身已经实现了api网关,可以参阅之前的博客
牌类游戏使用微服务重构笔记(二): micro框架简介:micro toolkit
但是对于游戏服务器,一般都是需要长链接的,需要我们自己实现
网关本身应该是支持多协议的,这里就以websocket举例说明我重构过程中的思路,其他协议类似。首先选择提供websocket连接的库 推荐使用 melody ,基于 websocket 库,语法非常简单,数行代码即可实现websocket服务器。我们的游戏需要websocket网关的原因在于客户端不支持HTTP2,不能和grpc服务器直连
package main
import (
"github.com/micro/go-web"
"gopkg.in/olahol/melody.v1"
"log"
"net/http"
)
func main() {
// New web service
service := web.NewService(web.Name("go.micro.api.gateway"))
// parse command line
service.Init()
// new melody
m := melody.New()
// Handle websocket connection
service.HandleFunc("/", func(w http.ResponseWriter, r *http.Request) {
_ = m.HandleRequest(w, r)
})
// handle connection with new session
m.HandleConnect(func(session *melody.Session) {
})
// handle disconnection
m.HandleDisconnect(func(session *melody.Session) {
})
// handle message
m.HandleMessage(func(session *melody.Session, bytes []byte) {
})
// run service
if err := service.Run(); err != nil {
log.Fatal("Run: ", err)
}
}
复制代码
网关可以收取或发送数据,并且数据结构比较统一都是 []byte ,这一点是不是很像 grpc stream ,因此就可以使用 protobuf 的 oneof 特性来定义请求和响应,可参照上期博客
牌类游戏使用微服务重构笔记(六): protobuf爬坑
定义 gateway.basic.proto ,对网关收/发的消息进行归类
message Message {
oneof message {
Req req = 1; // 客户端请求 要求响应
Rsp rsp = 2; // 服务端响应
Notify notify = 3; // 客户端推送 不要求响应
Event event = 4; // 服务端推送
Stream stream = 5; // 双向流请求
Ping ping = 6; // ping
Pong pong = 7;// pong
}
}
复制代码
对于 req 、 notify 都是客户端的无状态请求,对应后端的无状态服务器,这里仅需要实现自己的路由规则即可,比如
message Req {
string serviceName = 1; // 服务名
string method = 2; // 方法名
bytes args = 3; // 参数
google.protobuf.Timestamp timestamp = 4; // 时间戳
...
}
复制代码
req-rsp
思路与 micro toolkit 的api网关类似(rpc 处理器),比较简单,可参照之前的博客。
我们的项目对于此类请求都走http了,并没有通过这个网关, 仅有一些基本的 req ,比如 authReq 处理 session 认证。主要考虑是http简单、无状态、好维护,再加上此类业务对实时性要求也不高。
游戏服务器一般都是有状态的、双向的、实时性要求较高, req-rsp 模式并不适合,就需要网关进行转发。每添加一种grpc后端服务器,仅需要在 oneof 中添加一个stream来拓展
message Stream {
oneof stream {
room.basic.Message roomMessage = 1; // 房间服务器
game.basic.Message gameMessage = 2; // 游戏服务器
mate.basic.Message mateMessage = 3; // 匹配服务器
}
}
复制代码
并且需要定义一个对应的路由请求,来处理转发到哪一台后端服务器上(实现不同也可以不需要),这里会涉及到一点业务,例如
message JoinRoomStreamReq {
room.basic.RoomType roomType = 1;
string roomNo = 2;
}
复制代码
这里根据客户端的路由请求的房间号和房间类型,网关来选择正确的房间服务器(甚至可能链接到旧版本的房间服务器上)
选择正确的服务器后,建立stream 双向流
address := "xxxxxxx" // 选择后的服务器地址
ctx := context.Background() // 顶层context
m := make(map[string]string) // some metadata
streamCtx, cancelFunc := context.WithCancel(ctx) // 复制一个子context
// 建立stream 双向流
stream, err := xxxClient.Stream(metadata.NewContext(streamCtx, m), client.WithAddress(address))
// 存储在session上
session.Set("stream", stream)
session.Set("cancelFunc", cancelFunc)
// 启动一个goroutine 收取stream消息并转发
go func(c context.Context, s pb.xxxxxStream) {
// 退出时关闭 stream
defer func() {
session.Set("stream", nil)
session.Set("cancelFunc", nil)
if err := s.Close(); err != nil {
// do something with close err
}
}()
for {
select {
case <-c.Done():
// do something with ctx cancel
return
default:
res, err := s.Recv()
if err != nil {
// do something with recv err
return
}
// send to session 这里可以通过oneof包装告知客户端是哪个stream发来的消息
...
}
}
}(streamCtx, stream)
复制代码
转发就比较简单了,直接上代码
对于某个stream的请求
message Stream {
oneof stream {
room.basic.Message roomMessage = 1; // 房间服务器
game.basic.Message gameMessage = 2; // 游戏服务器
mate.basic.Message mateMessage = 3; // 匹配服务器
}
}
复制代码
添加转发代码
s, exits := session.Get("stream")
if !exits {
return
}
if stream, ok := s.(pb.xxxxStream); ok {
err := stream.Send(message)
if err != nil {
log.Println("send err:", err)
return
}
}
复制代码
当需要关闭某个stream时, 只需要调用对应的 cancelFunc 即可
if v, e := session.Get("cancelFunc"); e {
if c, ok := v.(context.CancelFunc); ok {
c()
}
}
复制代码
由于接收请求的入口统一,使用 oneof 就可以一路 switch case ,每添加一个 req 或者一种 stream 只需要添加一个case, 代码看起来还是比较简单、清爽的
func HandleMessageBinary(session *melody.Session, bytes []byte) {
var msg pb.Message
if err := proto.Unmarshal(bytes, &msg); err != nil {
// do something
return
}
defer func() {
err := recover()
if err != nil {
// do something with panic
}
}()
switch x := msg.Message.(type) {
case *pb.Message_Req:
handleReq(session, x.Req)
case *pb.Message_Stream:
handleStream(session, x.Stream)
case *pb.Message_Ping:
handlePing(session, x.Ping)
default:
log.Println("unknown req type")
}
}
func handleStream(session *melody.Session, message *pb.Stream) {
switch x := message.Stream.(type) {
case *pb.Stream_RoomMessage:
handleRoomStream(session, x.RoomMessage)
case *pb.Stream_GameMessage:
handleGameStream(session, x.GameMessage)
case *pb.Stream_MateMessage:
handleMateStream(session, x.MateMessage)
}
}
复制代码
对于游戏热更新不停服还是挺重要的,我的思路将会在之后的博客里介绍,可以关注一波 嘿嘿
pprof 观测会发现 goroutine 和内存都在缓慢增长,也就是存在 goroutine leak! ,原因在于 micro源码在包装grpc时,没有对关闭stream完善,只有收到 io.EOF 的错误时才会关闭grpc的conn连接 func (g *grpcStream) Recv(msg interface{}) (err error) {
defer g.setError(err)
if err = g.stream.RecvMsg(msg); err != nil {
if err == io.EOF {
// #202 - inconsistent gRPC stream behavior
// the only way to tell if the stream is done is when we get a EOF on the Recv
// here we should close the underlying gRPC ClientConn
closeErr := g.conn.Close()
if closeErr != nil {
err = closeErr
}
}
}
return
}
复制代码
并且有一个TODO
// Close the gRPC send stream
// #202 - inconsistent gRPC stream behavior
// The underlying gRPC stream should not be closed here since the
// stream should still be able to receive after this function call
// TODO: should the conn be closed in another way?
func (g *grpcStream) Close() error {
return g.stream.CloseSend()
}
复制代码
解决方法也比较简单,自己fork一份源码改一下关闭stream的时候同时关闭conn(我们的业务是可以的因为在grpc stream客户端和服务端均实现收到err后关闭stream),或者等作者更新用更科学的方式关闭
get 和 set 数据时会发生map的读写竞争而panic,可以查看 issue ,解决方法也比较简单 本人学习golang、micro、k8s、grpc、protobuf等知识的时间较短,如果有理解错误的地方,欢迎批评指正,可以加我微信一起探讨学习