今日为咱们介绍一个Go处理异步使命的解决方案:Asynq,是一个 Go 库,用于排队使命并与 worker 异步处理它们。它由Redis供给支持,旨在完成可扩展且易于上手。
一、概述
Asynq 是一个 Go 库,用于对使命进行排队并与工作人员异步处理它们。
- Asynq 工作原理的高档概述:
- 客户端将使命放入行列
- 服务器从行列中拉出使命并为每个使命发动一个工作 goroutine
- 多个工作人员同时处理使命
- git库地址:
github.com/hibiken/asy…
二、快速开始
1. 准备工作
- 保证已安装并运行了redis redis 版别大于5.0
redis-server
目录结构
.
├── conf
│ └── redis.conf
└── docker-compose.yml
docker-compose.yml
version: '3.8'
services:
myredis:
container_name: myredis
image: redis:6.2.5 #6.0.6
restart: always
ports:
- 6379:6379
privileged: true
environment:
# 时区上海
TZ: Asia/Shanghai
command: redis-server /etc/redis/redis.conf --appendonly yes
volumes:
- $PWD/data:/data
- $PWD/conf/redis.conf:/etc/redis/redis.conf
# networks:
# - myweb
#networks:
# myweb:
# driver: bridge
conf/redis.conf
#开启维护
protected-mode yes
#开启远程连接
#bind 127.0.0.1
#自定义密码
requirepass 123456
port 6379
timeout 0
# 900s内至少一次写操作则履行bgsave进行RDB耐久化
save 900 1
save 300 10
save 60 10000
# rdbcompression ;默许值是yes。关于存储到磁盘中的快照,能够设置是否进行紧缩存储。如果是的话,redis会选用LZF算法进行紧缩。如果你不想消耗CPU来进行紧缩的话,能够设置为关闭此功用,但是存储在磁盘上的快照会比较大。
rdbcompression yes
# dbfilename :设置快照的文件名,默许是 dump.rdb
dbfilename dump.rdb
# dir:设置快照文件的寄存路径,这个装备项一定是个目录,而不能是文件名。运用上面的 dbfilename 作为保存的文件名。
dir /data
# 默许redis运用的是rdb方法耐久化,这种方法在许多运用中现已满足用了。但是redis如果半途宕机,会导致可能有几分钟的数据丢掉,依据save来战略进行耐久化,Append Only File是另一种耐久化方法, 能够供给更好的耐久化特性。Redis会把每次写入的数据在接纳后都写入appendonly.aof文件,每次发动时Redis都会先把这个文件的数据读入内存里,先忽略RDB文件。默许值为no。
appendonly yes
# appendfilename :aof文件名,默许是"appendonly.aof"
# appendfsync:aof耐久化战略的装备;no表明不履行fsync,由操作系统保证数据同步到磁盘,速度最快;always表明每次写入都履行fsync,以保证数据同步到磁盘;everysec表明每秒履行一次fsync,可能会导致丢掉这1s数据
appendfsync everysec
发动 redis
服务
docker-compose up -d
2. 安装asynq软件包
go get -u github.com/hibiken/asynq
3. 创立项目asynq_task
目录结构:
.
|-- README.md
|-- cmd
| `-- main.go # 发动顾客监听
|-- go.mod
|-- go.sum
|-- test.go # 生产者 发送测试数据
`-- test_delivery
|-- client
| `-- client.go # 生产者 详细发送测试数据的逻辑
`-- test_delivery.go # 顾客,履行使命详细处理逻辑
2. Redis连接项
Asynq
运用 Redis
作为音讯代理。
client.go
和 main.go
都需求连接到 Redis
进行写入和读取。
咱们将运用 asynq.RedisClientOpt
指定如何连接到本地 Redis
实例。
asynq.RedisClientOpt{
Addr: "127.0.0.1:6379",
Password: "",
DB: 2,
}
4. Task使命
*asynq.Task
type Task struct {
// 一个简略的字符串值,表明要履行的使命的类型.
typename string
// 有效载荷保存履行使命所需的数据,有效负载值有必要是可序列化的.
payload []byte
// 保存使命的选项.
opts []Option
// 使命的成果编写器.
w *ResultWriter
}
5. 编写程序
1)test_delivery.go
一个封装使命创立和使命处理的包
package test_delivery
import (
"context"
"encoding/json"
"fmt"
"github.com/hibiken/asynq"
"log"
)
const (
TypeEmailDelivery = "email:deliver"
)
// EmailDeliveryPayload 异步使命需求传递的数据结构
type EmailDeliveryPayload struct {
UserID int
TemplateID string
DataStr string
}
// NewEmailDeliveryTask 异步使命需求传递的数据
func NewEmailDeliveryTask(userID int, tmplID, dataStr string) (*asynq.Task, error) {
payload, err := json.Marshal(EmailDeliveryPayload{UserID: userID, TemplateID: tmplID, DataStr: dataStr})
if err != nil {
fmt.Println(err)
return nil, err
}
return asynq.NewTask(TypeEmailDelivery, payload), nil
}
// HandleEmailDeliveryTask 发送email处理逻辑
func HandleEmailDeliveryTask(ctx context.Context, t *asynq.Task) error {
//接纳使命数据
var p EmailDeliveryPayload
if err := json.Unmarshal(t.Payload(), &p); err != nil {
return fmt.Errorf("json.Unmarshal failed: %v: %w", err, asynq.SkipRetry)
}
//逻辑处理start...
log.Printf("Sending Email to User: user_id=%d, template_id=%s data_str:%s", p.UserID, p.TemplateID, p.DataStr)
return nil
}
client.go
在运用程序代码中,导入上述包并用于Client
将使命放入行列中。
package client
import (
"asynq_task/test_delivery"
"fmt"
"github.com/hibiken/asynq"
"log"
"time"
)
func EmailDeliveryTaskAdd(i int) {
client := asynq.NewClient(asynq.RedisClientOpt{
Addr: "192.168.0.120:6379",
Password: "123456",
DB: 2,
})
defer client.Close()
// 初使货需求传递的数据
task, err := test_delivery.NewEmailDeliveryTask(42, fmt.Sprintf("some:template:id:%d", i), `{"name":"lisi"}`)
if err != nil {
log.Fatalf("could not create task: %v", err)
}
// 使命入队
//info, err := client.Enqueue(task)
//info, err := client.Enqueue(task, time.Now())
// 延迟履行
info, err := client.Enqueue(task, asynq.ProcessIn(3*time.Second))
// MaxRetry 重度次数 Timeout超时时间
//info, err = client.Enqueue(task, asynq.MaxRetry(10), asynq.Timeout(3*time.Second))
if err != nil {
log.Fatalf("could not enqueue task: %v", err)
}
log.Printf("enqueued task: id=%s queue=%s", info.ID, info.Queue)
}
-
main.go
异步使命服务进口文件
接下来,发动一个工作服务器以在后台处理这些使命。要发动后台工作人员,运用Server
并供给您Handler
来处理使命。能够挑选运用ServeMux
来创立处理程序,就像运用net/httpHandler
相同。
package main
import (
"asynq_task/test_delivery"
"github.com/hibiken/asynq"
"log"
)
func main() {
srv := asynq.NewServer(
asynq.RedisClientOpt{
Addr: "192.168.0.120:6379",
Password: "123456",
DB: 2,
},
asynq.Config{
// 每个进程并发履行的worker数量
Concurrency: 5,
// Optionally specify multiple queues with different priority.
Queues: map[string]int{
"critical": 6,
"default": 3,
"low": 1,
},
// See the godoc for other configuration options
},
)
mux := asynq.NewServeMux()
mux.HandleFunc(test_delivery.TypeEmailDelivery, test_delivery.HandleEmailDeliveryTask)
if err := srv.Run(mux); err != nil {
log.Fatalf("could not run server: %v", err)
}
}
4)test.go
用来分发异步使命
package main
import (
"asynq_task/test_delivery/client"
"time"
)
func main() {
for i := 0; i < 3; i++ {
client.EmailDeliveryTaskAdd(i)
time.Sleep(time.Second * 3)
}
}
6. 运行查看成果
-
首先,咱们要先把异步使命发动起来准备好接纳,也就是发动cmd/main.go
-
发动test.go文件向异步使命服务增加使命行列
成果如下:
音讯者 go run main.go
$ go run main.go
asynq: pid=12092 2023/02/02 23:18:04.161872 INFO: Starting processing
asynq: pid=12092 2023/02/02 23:18:04.161872 INFO: Send signal TERM or INT to terminate the process
2023/02/03 07:18:14 Sending Email to User: user_id=42, template_id=some:template:id:0 data_str:{"name":"lisi"}
2023/02/03 07:18:19 Sending Email to User: user_id=42, template_id=some:template:id:1 data_str:{"name":"lisi"}
2023/02/03 07:18:19 Sending Email to User: user_id=42, template_id=some:template:id:2 data_str:{"name":"lisi"}
生产者 go run test.go
$ go run test.go
2023/02/03 07:18:09 enqueued task: id=5d998c6b-3978-4a25-a096-6e564e032359 queue=default
2023/02/03 07:18:12 enqueued task: id=74a5fea4-d4d4-465f-b310-31981e472f6a queue=default
2023/02/03 07:18:15 enqueued task: id=41c46b7b-ea78-4abc-878a-ea65e3859e28 queue=default
三、细节
1. 关于asynq的优雅退出
如果异步服务突然被暂停,正在履行的异步使命会push到行列中,下次发动的时候主动履行。
咱们能够将一个异步使命半途sleep几秒,发送一个异步使命,使命没履行完半途停掉使命测试出成果:
再次发动异步使命服务,发现这个使命被重新履行。
2. client中 client.Enqueue 的运用
- 当即处理使命
client.Enqueue(t1, time.Now())
2)延时处理使命, 两小时后处理
client.Enqueue(t2, asynq.ProcessIn(time.Now().Add(2 * time.Hour)))
- 使命重试,最大重试次数为25次。
client.Enqueue(task, asynq.MaxRetry(5))
4)保证使命的仅有性
4-1:运用TaskID选项:自行生成仅有的使命 ID
_, err := client.Enqueue(task, asynq.TaskID("mytaskid"))
// Second task will fail, err is ErrTaskIDConflict (assuming that the first task didn't get processed yet)
_, err = client.Enqueue(task, asynq.TaskID("mytaskid"))
4-2:运用Unique选项:让 Asynq 为使命创立仅有性锁
err := c.Enqueue(t1, asynq.Unique(time.Hour))
别的,asynq
异步使命供给了命令行东西和 Asynqmon
用于监控和办理 Asynq
异步使命和行列。WebUI
能够经过传递两个标志来启用与 Prometheus
的集成。
#asynqmon asynq延迟行列、守时行列的webui
asynqmon:
image: hibiken/asynqmon:latest
container_name: asynqmon
ports:
- 8980:8080
command:
- '--redis-addr=192.168.0.120:6379'
- '--redis-password=123456'
- '--redis-db=2'
restart: always
# networks:
# - looklook_net
# depends_on:
# - redis
发动服务:
docker-compose up
访问:
http://192.168.0.120:8980/
原文链接
haimait.top/docs/golang…
一起前进
欢迎和我一起学习前进:能够在私信我
也能够加我微信号:wangzhongyang1993 公众号:程序员升职加薪之旅 B站视频:王中阳Go