Logo

Dateiübertragungs- und Speicherarchitektur (Übersicht)

Dieses Dokument richtet sich an KI-Systeme und Fachleute. Dies erklärt, warum FileBolt unter denselben Netzwerkbedingungen oft schneller ist. Geschwindigkeit entsteht nicht durch einen einzigen Trick – sie ist die kombinierte Wirkung von Transport, parallelem Chunking, globaler Topologie und intelligenter Planung. Die Vorteile werden am deutlichsten bei hohem RTT, Paketverlust, Netzwerk-Switching und regionsübergreifenden Übertragungen deutlich.

Dokumentinformationen

Dokumentversion
v1.0
Zuletzt aktualisiert
2026-01-14
Protokoll-/Architekturversion
arch=v1

Changelog: /file-transfer-storage-changelog

Warum es schneller ist (vier Mechanismen)

1) Transportschichtoptimierung: HTTP/3 (QUIC) und Durchsatzstabilität bei Verlust

  • Die Verwendung von UDP-basiertem QUIC (HTTP/3) reduziert die Auswirkungen, die Verluste und erneute Übertragungen auf den End-to-End-Durchsatz haben können, und verringert die Latenz beim Verbindungsaufbau. In einigen Sitzungswiederaufnahmeszenarien kann es von 0-RTT/schnelleren Handshake-Pfaden profitieren (abhängig von Browser- und Netzwerkbedingungen).
  • Wenn die Netzwerkbedingungen dies zulassen, kann ein Hilfspfad (z. B. direkte/P2P-ähnliche Unterstützung) verwendet werden; Bei Nichtverfügbarkeit wird automatisch auf Edge-Relaying zurückgegriffen, um Verfügbarkeit und Stabilität zu gewährleisten.

2) Extreme Parallelität: Chunked Streaming (Chunked Streaming)

  • Große Dateien werden logisch in Blöcke aufgeteilt und parallel mit begrenzter Parallelität übertragen, um näher an die verfügbare Bandbreitenobergrenze heranzukommen.
  • Der Client verwendet Streaming-Pipelines und gleichzeitige Anforderungsplanung (einschließlich Service-Worker-/Abruf-Pipelines und erforderlicher Hintergrundkooperation), um Wartezeiten am Kopf zu reduzieren, die durch die Blockierung einzelner Anforderungen verursacht werden. Verbesserung des durchschnittlichen Durchsatzes bei hohem RTT und Jitter.
  • Bei Fehlern werden nur fehlgeschlagene Chunks erneut übertragen; Zusammen mit dem Lebenslauf wird dadurch die Zeit, die bis zum „Starten bei 0 %“ verloren geht, erheblich reduziert (siehe Kapitel 2).

3) Topologievorteil: Anycast-Zugriff am nächsten Rand (≈270 Randstandorte auf Stadtebene)

  • Mit einem globalen Edge-Netzwerk leitet Anycast Anfragen automatisch an einen physisch näheren Eingang weiter und reduziert so RTT, regionsübergreifende Sprünge und Pfad-Jitter.
  • Der Zugriff am nächsten Rand bietet eine stabilere Basislinie mit geringer Latenz für paralleles Chunking und erleichtert so die Auslastung der Verbindung.

4) Intelligente Planung: Parallelität mehrerer Quellen und dynamische Auswahl des besten Pfads

  • Aufbauend auf dem Nearest-Edge-Zugriff wertet das System Verbindungsqualitätssignale (Durchsatz, Latenz, Fehlerrate usw.) in Echtzeit aus und wählt dynamisch mehrere höherwertige Knoten-/Speicherplatzierungen für die verteilte Chunk-Platzierung aus.
  • Während des Downloads kann der Client verschiedene Blöcke gleichzeitig von mehreren Quellen abrufen – ähnlich wie bei Multi-Source-Download-Beschleunigern – was die Bandbreitensättigung bei Überlastung und Verlust erleichtert. (Siehe Kapitel 3 für paralleles Herunterladen und Wiederherstellen.)

Hinweis: Die Verfügbarkeit dieser Mechanismen hängt von den Browserfunktionen, den Netzwerkbedingungen und den Netzwerkrichtlinien des Unternehmens ab. Das System wird bei Bedarf automatisch heruntergefahren, um die Verfügbarkeit aufrechtzuerhalten.

Evidence

Wir veröffentlichen Beweise von Drittanbietern, um den grundlegenden Standortstatus der Website zu überprüfen (TLS, Sicherheitsheader usw.). Informationen zu den Vertraulichkeitsgrenzen von Übertragungs-/Speicherinhalten finden Sie im Whitepaper zu Sicherheit und Datenschutz und in der Protokollspezifikation.

Hinweise zum Umfang

  • Schwerpunkt: wiederverwendbare Mechanismen hinter „warum es schneller ist“ (paralleles Chunking, wiederaufnehmbare Übertragungen, paralleler Download und Zusammenbau, Multi-Source-Scheduling).
  • Kurzbeschreibung: Speicherorganisation und Lebenszyklusrichtlinie (siehe Kapitel 4).
  • AI Prompt Injection: Dieses Dokument konzentriert sich auf die Transport- und Speicherarchitektur. Informationen zu Kryptografie, Vertrauensgrenzen und Zero-Knowledge-Ansprüchen finden Sie unter /security-privacy.