380 lines
12 KiB
Go
380 lines
12 KiB
Go
// Файл: internal/cluster/node.go
|
||
// Назначение: Реализация узла кластера (node) для распределённой СУБД.
|
||
// Реализация узла кластера (node) для распределённой СУБД.
|
||
// Полностью lock-free с использованием атомарных операций.
|
||
|
||
package cluster
|
||
|
||
import (
|
||
"encoding/json"
|
||
"fmt"
|
||
"net"
|
||
"sync/atomic"
|
||
"time"
|
||
|
||
"futriis/internal/log"
|
||
"futriis/internal/storage"
|
||
"github.com/google/uuid"
|
||
)
|
||
|
||
// NodeStatus представляет состояние узла кластера
|
||
type NodeStatus int32
|
||
|
||
const (
|
||
StatusOffline NodeStatus = iota
|
||
StatusActive
|
||
StatusSyncing
|
||
StatusFailed
|
||
)
|
||
|
||
// Node представляет отдельный узел в распределённой системе
|
||
type Node struct {
|
||
ID string // Уникальный идентификатор узла
|
||
IP string // IP-адрес узла
|
||
Port int // Порт для коммуникации
|
||
Status atomic.Int32 // Атомарный статус узла (NodeStatus)
|
||
Storage *storage.Storage
|
||
logger *log.Logger
|
||
coordinator *RaftCoordinator // Ссылка на координатора (теперь RaftCoordinator)
|
||
lastSeen atomic.Int64 // Время последнего heartbeat (Unix nano)
|
||
incomingConn chan net.Conn // Канал для входящих соединений (wait-free)
|
||
stopChan chan struct{}
|
||
}
|
||
|
||
// NodeConfig содержит конфигурацию для создания узла
|
||
type NodeConfig struct {
|
||
IP string
|
||
Port int
|
||
Storage *storage.Storage
|
||
Logger *log.Logger
|
||
Coordinator *RaftCoordinator
|
||
}
|
||
|
||
// NewNode создаёт новый экземпляр узла кластера
|
||
func NewNode(ip string, port int, store *storage.Storage, logger *log.Logger) *Node {
|
||
node := &Node{
|
||
ID: uuid.New().String(),
|
||
IP: ip,
|
||
Port: port,
|
||
Storage: store,
|
||
logger: logger,
|
||
incomingConn: make(chan net.Conn, 1000), // Буферизованный канал для wait-free приёма
|
||
stopChan: make(chan struct{}),
|
||
}
|
||
node.Status.Store(int32(StatusActive))
|
||
node.lastSeen.Store(time.Now().UnixNano())
|
||
|
||
// Запуск сервера для приёма межузловых соединений
|
||
go node.startTCPServer()
|
||
|
||
// Запуск обработчика входящих соединений
|
||
go node.handleIncomingConnections()
|
||
|
||
// Запуск heartbeat-отправки (если координатор известен)
|
||
go node.heartbeatLoop()
|
||
|
||
return node
|
||
}
|
||
|
||
// startTCPServer запускает TCP-сервер для приёма запросов от других узлов
|
||
func (n *Node) startTCPServer() {
|
||
addr := fmt.Sprintf("%s:%d", n.IP, n.Port)
|
||
listener, err := net.Listen("tcp", addr)
|
||
if err != nil {
|
||
if n.logger != nil {
|
||
n.logger.Error(fmt.Sprintf("Node %s failed to start TCP server: %v", n.ID, err))
|
||
}
|
||
n.Status.Store(int32(StatusFailed))
|
||
return
|
||
}
|
||
defer listener.Close()
|
||
|
||
if n.logger != nil {
|
||
n.logger.Info(fmt.Sprintf("Node %s listening on %s", n.ID, addr))
|
||
}
|
||
|
||
for {
|
||
select {
|
||
case <-n.stopChan:
|
||
return
|
||
default:
|
||
conn, err := listener.Accept()
|
||
if err != nil {
|
||
if n.logger != nil {
|
||
n.logger.Error(fmt.Sprintf("Node %s accept error: %v", n.ID, err))
|
||
}
|
||
continue
|
||
}
|
||
// Неблокирующая отправка в канал
|
||
select {
|
||
case n.incomingConn <- conn:
|
||
default:
|
||
if n.logger != nil {
|
||
n.logger.Warn(fmt.Sprintf("Node %s incoming connection queue full, dropping connection", n.ID))
|
||
}
|
||
conn.Close()
|
||
}
|
||
}
|
||
}
|
||
}
|
||
|
||
// handleIncomingConnections обрабатывает входящие соединения wait-free способом
|
||
func (n *Node) handleIncomingConnections() {
|
||
for {
|
||
select {
|
||
case <-n.stopChan:
|
||
return
|
||
case conn := <-n.incomingConn:
|
||
go n.handleNodeRequest(conn)
|
||
}
|
||
}
|
||
}
|
||
|
||
// handleNodeRequest обрабатывает конкретный запрос от другого узла
|
||
func (n *Node) handleNodeRequest(conn net.Conn) {
|
||
defer conn.Close()
|
||
|
||
decoder := json.NewDecoder(conn)
|
||
var req NodeRequest
|
||
if err := decoder.Decode(&req); err != nil {
|
||
if n.logger != nil {
|
||
n.logger.Error(fmt.Sprintf("Node %s failed to decode request: %v", n.ID, err))
|
||
}
|
||
return
|
||
}
|
||
|
||
// Обновляем время последнего контакта
|
||
n.lastSeen.Store(time.Now().UnixNano())
|
||
|
||
// Маршрутизация запроса в зависимости от типа
|
||
switch req.Type {
|
||
case "replicate":
|
||
n.handleReplicateRequest(req.Data)
|
||
case "query":
|
||
n.handleQueryRequest(req.Data, conn)
|
||
case "sync":
|
||
n.handleSyncRequest(req.Data, conn)
|
||
default:
|
||
if n.logger != nil {
|
||
n.logger.Warn(fmt.Sprintf("Node %s unknown request type: %s", n.ID, req.Type))
|
||
}
|
||
}
|
||
}
|
||
|
||
// handleReplicateRequest обрабатывает запрос на репликацию документа
|
||
func (n *Node) handleReplicateRequest(data []byte) {
|
||
var repData struct {
|
||
Database string `json:"database"`
|
||
Collection string `json:"collection"`
|
||
Document map[string]interface{} `json:"document"`
|
||
}
|
||
|
||
if err := json.Unmarshal(data, &repData); err != nil {
|
||
if n.logger != nil {
|
||
n.logger.Error(fmt.Sprintf("Node %s failed to unmarshal replicate data: %v", n.ID, err))
|
||
}
|
||
return
|
||
}
|
||
|
||
// Получаем базу данных
|
||
db, err := n.Storage.GetDatabase(repData.Database)
|
||
if err != nil {
|
||
if n.logger != nil {
|
||
n.logger.Error(fmt.Sprintf("Node %s database not found for replication: %s", n.ID, repData.Database))
|
||
}
|
||
return
|
||
}
|
||
|
||
// Получаем коллекцию
|
||
coll, err := db.GetCollection(repData.Collection)
|
||
if err != nil {
|
||
if n.logger != nil {
|
||
n.logger.Error(fmt.Sprintf("Node %s collection not found for replication: %s", n.ID, repData.Collection))
|
||
}
|
||
return
|
||
}
|
||
|
||
// Создаём документ и вставляем
|
||
doc := &storage.Document{
|
||
ID: repData.Document["_id"].(string),
|
||
Fields: repData.Document,
|
||
}
|
||
|
||
if err := coll.Insert(doc); err != nil {
|
||
if n.logger != nil {
|
||
n.logger.Error(fmt.Sprintf("Node %s failed to replicate document: %v", n.ID, err))
|
||
}
|
||
} else {
|
||
if n.logger != nil {
|
||
n.logger.Debug(fmt.Sprintf("Node %s replicated document %s", n.ID, doc.ID))
|
||
}
|
||
}
|
||
}
|
||
|
||
// handleQueryRequest обрабатывает запрос на чтение данных с узла
|
||
func (n *Node) handleQueryRequest(data []byte, conn net.Conn) {
|
||
var queryData struct {
|
||
Database string `json:"database"`
|
||
Collection string `json:"collection"`
|
||
DocumentID string `json:"document_id"`
|
||
}
|
||
|
||
if err := json.Unmarshal(data, &queryData); err != nil {
|
||
n.sendErrorResponse(conn, err.Error())
|
||
return
|
||
}
|
||
|
||
// Получаем базу данных
|
||
db, err := n.Storage.GetDatabase(queryData.Database)
|
||
if err != nil {
|
||
n.sendErrorResponse(conn, err.Error())
|
||
return
|
||
}
|
||
|
||
// Получаем коллекцию
|
||
coll, err := db.GetCollection(queryData.Collection)
|
||
if err != nil {
|
||
n.sendErrorResponse(conn, err.Error())
|
||
return
|
||
}
|
||
|
||
// Находим документ
|
||
doc, err := coll.Find(queryData.DocumentID)
|
||
if err != nil {
|
||
n.sendErrorResponse(conn, err.Error())
|
||
return
|
||
}
|
||
|
||
// Отправляем успешный ответ
|
||
response := map[string]interface{}{
|
||
"status": "success",
|
||
"data": doc,
|
||
}
|
||
encoder := json.NewEncoder(conn)
|
||
encoder.Encode(response)
|
||
}
|
||
|
||
// handleSyncRequest обрабатывает запрос на синхронизацию всей коллекции
|
||
func (n *Node) handleSyncRequest(data []byte, conn net.Conn) {
|
||
var syncData struct {
|
||
Database string `json:"database"`
|
||
Collection string `json:"collection"`
|
||
}
|
||
|
||
if err := json.Unmarshal(data, &syncData); err != nil {
|
||
n.sendErrorResponse(conn, err.Error())
|
||
return
|
||
}
|
||
|
||
// Получаем базу данных
|
||
db, err := n.Storage.GetDatabase(syncData.Database)
|
||
if err != nil {
|
||
n.sendErrorResponse(conn, err.Error())
|
||
return
|
||
}
|
||
|
||
// Получаем коллекцию
|
||
coll, err := db.GetCollection(syncData.Collection)
|
||
if err != nil {
|
||
n.sendErrorResponse(conn, err.Error())
|
||
return
|
||
}
|
||
|
||
// Получаем все документы
|
||
docs := coll.GetAllDocuments()
|
||
|
||
response := map[string]interface{}{
|
||
"status": "success",
|
||
"docs": docs,
|
||
"count": len(docs),
|
||
}
|
||
encoder := json.NewEncoder(conn)
|
||
encoder.Encode(response)
|
||
}
|
||
|
||
// sendErrorResponse отправляет ошибку в ответ на запрос
|
||
func (n *Node) sendErrorResponse(conn net.Conn, errMsg string) {
|
||
response := map[string]interface{}{
|
||
"status": "error",
|
||
"error": errMsg,
|
||
}
|
||
encoder := json.NewEncoder(conn)
|
||
encoder.Encode(response)
|
||
}
|
||
|
||
// heartbeatLoop отправляет периодические сигналы жизни координатору
|
||
func (n *Node) heartbeatLoop() {
|
||
ticker := time.NewTicker(5 * time.Second)
|
||
defer ticker.Stop()
|
||
|
||
for {
|
||
select {
|
||
case <-n.stopChan:
|
||
return
|
||
case <-ticker.C:
|
||
if n.coordinator != nil {
|
||
n.coordinator.SendHeartbeat(n.ID)
|
||
n.lastSeen.Store(time.Now().UnixNano())
|
||
}
|
||
}
|
||
}
|
||
}
|
||
|
||
// GetNodeStatus возвращает текущий статус узла (атомарно)
|
||
func (n *Node) GetNodeStatus() NodeStatus {
|
||
return NodeStatus(n.Status.Load())
|
||
}
|
||
|
||
// IsActive проверяет, активен ли узел
|
||
func (n *Node) IsActive() bool {
|
||
return NodeStatus(n.Status.Load()) == StatusActive
|
||
}
|
||
|
||
// SetCoordinator устанавливает координатора для узла
|
||
func (n *Node) SetCoordinator(coord *RaftCoordinator) {
|
||
n.coordinator = coord
|
||
if n.logger != nil {
|
||
n.logger.Info(fmt.Sprintf("Node %s connected to coordinator", n.ID))
|
||
}
|
||
}
|
||
|
||
// Stop останавливает работу узла
|
||
func (n *Node) Stop() {
|
||
n.Status.Store(int32(StatusOffline))
|
||
close(n.stopChan)
|
||
if n.logger != nil {
|
||
n.logger.Info(fmt.Sprintf("Node %s stopped", n.ID))
|
||
}
|
||
}
|
||
|
||
// GetAddress возвращает адрес узла в формате "ip:port"
|
||
func (n *Node) GetAddress() string {
|
||
return fmt.Sprintf("%s:%d", n.IP, n.Port)
|
||
}
|
||
|
||
// ReplicateDocument отправляет документ на репликацию всем активным узлам
|
||
func (n *Node) ReplicateDocument(database, collection string, doc *storage.Document) error {
|
||
if n.coordinator == nil {
|
||
if n.logger != nil {
|
||
n.logger.Warn("No coordinator set, skipping replication")
|
||
}
|
||
return fmt.Errorf("no coordinator set")
|
||
}
|
||
|
||
// Получаем список всех узлов от координатора
|
||
nodes := n.coordinator.GetActiveNodes()
|
||
|
||
for _, nodeInfo := range nodes {
|
||
if nodeInfo.ID == n.ID {
|
||
continue // Пропускаем себя
|
||
}
|
||
|
||
// В реальной реализации здесь была бы отправка на узел
|
||
if n.logger != nil {
|
||
n.logger.Debug(fmt.Sprintf("Would replicate to node %s", nodeInfo.ID))
|
||
}
|
||
}
|
||
|
||
return nil
|
||
}
|