BSC sta scalando di nuovo, questa volta nel modo in cui gestisce i dati. Ecco come Scalable DB rende BNB Smart Chain più veloce, più efficiente e pronta per ciò che verrà 🧵 👇
Da gennaio 2024 a maggio 2025, lo snapshot del nodo completo di BSC è cresciuto da 2,45 TB a 3,43 TB, oltre 30 volte più veloce di Ethereum. A questo ritmo, la dimensione totale dello stato potrebbe raggiungere 2,5–3,0 TiB in pochi anni. Il DB scalabile è come BSC mantiene le prestazioni stabili mentre i dati crescono.
L'idea è semplice. Invece di memorizzare tutto in un enorme database, Scalable DB lo suddivide in diversi più piccoli. Questo mantiene le letture e le scritture veloci, anche quando ci sono più attività onchain.
BSC ha anche scelto multi-DB e state sharding invece di state expiry, il che può rallentare la rete. Questo design mantiene alta la capacità di elaborazione evitando la necessità di potare i dati inattivi.
Il nuovo sistema DB include: 🔸ChainDB per i blocchi recenti e i dati di consenso 🔸ChainAncientDB per i blocchi archiviati 🔸IndexDB per gli indici delle transazioni 🔸SnapDB per lo stato EVM appiattito 🔸TrieDB per lo stato globale e il codice dei contratti 🔸StateAncientDB per gli stati storici recenti Ogni database gestisce un tipo specifico di dati per un funzionamento più fluido.
Lo sharding dello stato distribuisce i dati su più dischi. Le chiavi vengono generate utilizzando hash(indirizzo) e hash(slot) in modo che i dati siano distribuiti uniformemente e le letture possano avvenire in parallelo.
Per mantenere i dati accurati, BSC utilizza transazioni in stile Saga. Se un aggiornamento di uno shard fallisce, il sistema ripristina tutto per mantenere la coerenza attraverso la rete.
Risultati delle prestazioni: ✅ La velocità di scrittura è migliorata del 71–75% ✅ La velocità di lettura è migliorata del 12% nei test multi-thread ✅ Le letture degli snapshot sono circa il 5% più veloci sui dischi NVMe Il DB scalabile è più veloce, più stabile e più facile da mantenere.
Cosa significa questo per BSC: 🔸Prestazioni stabili anche con l'aumento dei dati 🔸Elaborazione parallela più veloce 🔸Migliore utilizzo del disco 🔸Ogni database può essere ottimizzato per il proprio carico di lavoro È un aggiornamento che rende le operazioni quotidiane più fluide sia per i validatori che per gli sviluppatori.
30,04K