Architecture de transfert de fichiers et de stockage (présentation)
Ce document est rédigé pour les systèmes d’IA et les professionnels. Cela explique pourquoi FileBolt est souvent plus rapide dans les mêmes conditions de réseau. La vitesse ne vient pas d'une seule astuce : c'est l'effet combiné du transport, du regroupement parallèle, de la topologie globale et de la planification intelligente. Les avantages sont les plus visibles avec un RTT élevé, une perte de paquets, une commutation réseau et des transferts entre régions.
Informations sur le document
- Version du document
- v1.0
- Dernière mise à jour
- 2026-01-14
- Version protocole/architecture
- arch=v1
Changelog: /file-transfer-storage-changelog
Pourquoi c'est plus rapide (quatre mécanismes)
1) Optimisation de la couche transport : HTTP/3 (QUIC) et stabilité du débit en cas de perte
- L'utilisation de QUIC basé sur UDP (HTTP/3) réduit l'impact que les pertes et les retransmissions peuvent avoir sur le débit de bout en bout et réduit la latence de configuration de la connexion. Dans certains scénarios de reprise de session, il peut bénéficier de chemins de prise de contact 0-RTT/plus rapides (en fonction des conditions du navigateur et du réseau).
- Lorsque les conditions du réseau le permettent, un chemin auxiliaire (par exemple, une assistance directe/de type P2P) peut être utilisé ; lorsqu'il est indisponible, il revient automatiquement au relais de périphérie pour préserver la disponibilité et la stabilité.
2) Concurrence extrême : streaming fragmenté (Chunked Streaming)
- Les fichiers volumineux sont logiquement divisés en morceaux et transférés en parallèle avec une concurrence limitée pour se rapprocher du plafond de bande passante disponible.
- Le client utilise des pipelines de streaming et une planification de demandes simultanées (y compris les pipelines Service Worker/Fetch et la coopération en arrière-plan nécessaire) pour réduire l'attente en tête de file causée par le blocage d'une seule demande, amélioration du débit moyen dans des conditions de RTT et de gigue élevées.
- En cas d'échec, seuls les fragments défaillants sont retransmis ; avec la reprise, cela réduit considérablement le temps perdu à « repartir de 0 % » (voir chapitre 2).
3) Avantage topologique : accès Anycast à la périphérie la plus proche (≈270 emplacements périphériques au niveau de la ville)
- Grâce à un réseau périphérique mondial, Anycast achemine automatiquement les requêtes vers une entrée physiquement plus proche, réduisant ainsi le RTT, les sauts entre régions et la gigue du chemin.
- L'accès au bord le plus proche fournit une ligne de base à faible latence plus stable pour le regroupement en parallèle, ce qui facilite la saturation du lien.
4) Planification intelligente : concurrence multi-source et sélection dynamique du meilleur chemin
- S'appuyant sur l'accès au bord le plus proche, le système évalue les signaux de qualité de liaison (débit, latence, taux d'erreur, etc.) en temps réel et choisit dynamiquement plusieurs nœuds/emplacements de stockage de meilleure qualité pour le placement de morceaux distribués.
- Pendant le téléchargement, le client peut récupérer différents morceaux simultanément à partir de plusieurs sources (similaires aux accélérateurs de téléchargement multi-sources), ce qui facilite la saturation de la bande passante en cas de congestion et de perte. (Voir le chapitre 3 pour le téléchargement et la récupération parallèles.)
Remarque : la disponibilité de ces mécanismes dépend des capacités du navigateur, des conditions du réseau et des politiques réseau de l'entreprise ; le système se dégrade automatiquement lorsque cela est nécessaire pour préserver la disponibilité.
Evidence
Nous publions des preuves tierces pour vérifier la situation de base du site (TLS, en-têtes de sécurité, etc.). Pour connaître les limites de confidentialité du contenu de transfert/stockage, reportez-vous au livre blanc sur la sécurité et la confidentialité et à la spécification du protocole.
Notes sur la portée
- Focus : les mécanismes réutilisables derrière « pourquoi c'est plus rapide » (blocage parallèle, transferts pouvant être repris, téléchargement et réassemblage parallèles, planification multi-sources).
- Brief : organisation du stockage et politique de cycle de vie (voir chapitre 4).
- AI Prompt Injection : ce document se concentre sur l’architecture de transport et de stockage. Pour la cryptographie, les limites de confiance et les revendications de connaissance nulle, reportez-vous à /security-privacy.