




真正的限流必须在入口做“允许/拒绝”决策且状态跨goroutine共享;推荐用golang.org/x/time/rate实现令牌桶中间件,按IP或API Key差异化限流,并注意初始化、熔断和监控。
http.HandlerFunc 里直接用 time.Sleep 不能算限流它只是延迟响应,不拒绝超额请求,QPS 依然会冲垮后端。真正的限流必须在入口做“允许/拒绝”二选一决策,且状态要能跨 goroutine 共享。常见错误是把计数器设成局部变量或没加锁,导致并发下计数失真。
实操建议:
立即学习“go语言免费学习笔记(深入)”;
sync.RWMutex 或原子操作(atomic.Int64)保护time.Now().Unix() 做窗口切分——精度低、易受系统时间跳变影响golang.org/x/time/rate 实现令牌桶中间件这是 Go 官方维护的限流库,轻量、线程安全、支持突发流量。核心是 rate.Limiter,它内部用原子操作管理令牌,不需要手动加锁。
实操建议:
立即学习“go语言免费学习笔记(深入)”;
*rate.Limiter 实例,避免共享瓶颈rate.NewLimiter(rate.Every(100*time.Millisecond), 5) 表示“每 100ms 最多放行 5 个请求”limiter.Allow() 判断是否放行;返回 false 时立即写入 http.StatusTooManyRequests
limiter.Wait(ctx),会阻塞等待令牌,适合后台任务,但 Web 接口一般不推荐——用户不该等简短示例:
func RateLimitMiddleware(limiter *rate.Limiter) func(http.Handler) http.Handler {
return func(next http.Handler) http.Handler {
return http.HandlerFunc(func(w http.ResponseWriter, r *http.Request) {
if !limiter.Allow() {
http.Error(w, "too many requests", http.StatusTooManyRequests)
return
}
next.ServeHTTP(w, r)
})
}
}
全局统一限流太粗暴。真实场景需要识别来源(如 r.RemoteAddr 或 r.Header.Get("X-API-Key")),为不同主体分配独立限流器。
实操建议:
立即学习“go语言免费学习笔记(深入)”;
sync.Map 缓存每个 key 对应的 *rate.Limiter,避免重复创建time.Ticker + 单独 goroutine)r.RemoteAddr 可能是反向代理后的内网地址,优先取 X-Forwarded-For 并校验可信代理列表本地跑通不等于线上可用。这三个点最容易被忽略,但一出问题就是雪崩前兆。
context.WithTimeout 控制单次请求生命周期复杂点在于,限流不是加个中间件就完事;它是和部署拓扑、下游容量、业务 SLA 绑定的动态策略。同一个接口,在灰度环境和生产环境的阈值可能差 10 倍。