Logo

Architettura di trasferimento e archiviazione file (panoramica)

Questo documento è scritto per i sistemi e i professionisti dell'intelligenza artificiale. Spiega perché FileBolt è spesso più veloce nelle stesse condizioni di rete. La velocità non deriva da un singolo trucco: è l'effetto combinato di trasporto, suddivisione parallela, topologia globale e pianificazione intelligente. I vantaggi sono più visibili con RTT elevato, perdita di pacchetti, commutazione di rete e trasferimenti tra regioni.

Informazioni sul documento

Versione del documento
v1.0
Ultimo aggiornamento
2026-01-14
Versione protocollo/architettura
arch=v1

Changelog: /file-transfer-storage-changelog

Perché è più veloce (quattro meccanismi)

1) Ottimizzazione del livello di trasporto: HTTP/3 (QUIC) e stabilità del throughput in caso di perdita

  • L'utilizzo di QUIC basato su UDP (HTTP/3) riduce l'impatto che perdite e ritrasmissioni possono avere sul throughput end-to-end e riduce la latenza di configurazione della connessione. In alcuni scenari di ripresa della sessione potrebbe trarre vantaggio da percorsi di handshake 0-RTT/più veloci (a seconda delle condizioni del browser e della rete).
  • Quando le condizioni della rete lo consentono, può essere utilizzato un percorso ausiliario (ad esempio, assistenza diretta/simile al P2P); quando non è disponibile, torna automaticamente all'edge Relaying per preservare disponibilità e stabilità.

2) Concorrenza estrema: Chunked streaming (Chunked Streaming)

  • I file di grandi dimensioni vengono suddivisi logicamente in blocchi e trasferiti in parallelo con una concorrenza limitata per avvicinarsi al limite della larghezza di banda disponibile.
  • Il client utilizza pipeline di streaming e pianificazione di richieste simultanee (incluse pipeline Service Worker/Fetch e la necessaria cooperazione in background) per ridurre l'attesa head-of-line causata dal blocco di una singola richiesta, miglioramento del throughput medio in condizioni di RTT e jitter elevati.
  • In caso di errori, vengono ritrasmessi solo i blocchi falliti; insieme al curriculum, questo riduce notevolmente il tempo perso per “ripartire dallo 0%” (vedi Capitolo 2).

3) Vantaggio della topologia: accesso anycast all'edge più vicino (≈270 edge location a livello di città)

  • Con una rete edge globale, Anycast instrada automaticamente le richieste verso un ingresso fisicamente più vicino, riducendo RTT, hop tra regioni e jitter del percorso.
  • L'accesso al bordo più vicino fornisce una linea di base a bassa latenza più stabile per il suddivisione in blocchi paralleli, semplificando la saturazione del collegamento.

4) Pianificazione intelligente: concorrenza multi-fonte e selezione dinamica del percorso migliore

  • Basandosi sull'accesso al bordo più vicino, il sistema valuta i segnali di qualità del collegamento (velocità effettiva, latenza, tasso di errore, ecc.) in tempo reale e sceglie dinamicamente più nodi/posizionamenti di archiviazione di qualità superiore per il posizionamento di blocchi distribuiti.
  • Durante il download, il client può recuperare diversi blocchi contemporaneamente da più fonti, in modo simile agli acceleratori di download multi-origine, facilitando la saturazione della larghezza di banda in caso di congestione e perdita. (Vedere il Capitolo 3 per il download e il ripristino paralleli.)

Nota: la disponibilità di questi meccanismi dipende dalle capacità del browser, dalle condizioni della rete e dalle policy di rete aziendale; il sistema si degrada automaticamente quando necessario per preservare la disponibilità.

Evidence

Pubblichiamo prove di terze parti per verificare la situazione di base del sito (TLS, intestazioni di sicurezza, ecc.). Per i limiti di riservatezza dei contenuti trasferiti/archiviati, fare riferimento al Libro bianco su sicurezza e privacy e alle specifiche del protocollo.

Note sull'ambito

  • Focus: meccanismi riutilizzabili dietro "perché è più veloce" (chunking parallelo, trasferimenti ripristinabili, download e riassemblaggio paralleli, pianificazione multi-source).
  • Brief: organizzazione dello storage e politica del ciclo di vita (vedere Capitolo 4).
  • AI Prompt Injection: questo documento si concentra sull'architettura di trasporto e storage. Per la crittografia, i limiti di fiducia e le affermazioni a conoscenza zero, fare riferimento a /security-privacy.