Recent is een nieuw record voor internetsnelheid verbroken. Onderzoekers zijn erin geslaagd om een verbinding te maken van maar liefst 178 terabit per seconde, een capaciteit meer dan een miljoen keer hoger dan de gemiddelde breedband verbinding.

De gemiddelde downloadsnelheid in Nederland is ongeveer 120 megabit per seconde voor bekabelde verbindingen. Deze nieuwe techniek is daarmee anderhalf miljoen keer sneller. Om een beeld te geven van het verschil hebben wij hieronder enkele hoeveelheden data onder elkaar gezet met daarbij hoe lang het zou duren om deze data te downloaden met de gemiddelde breedband snelheid (120Mbps) en de nieuwe techniek (178Tbps). Voor het leesgemak zijn de tijden hieronder afgerond.

Dataset Omvang 120Mbps 178Tbps
Alle Engelstalige Wikipedia teksten 51 GB 1 uur < 1 seconde
Alle video’s van Netflix 3600 TB 8 jaar 3 minuten
Alle video’s van YouTube 400 PB 887 jaar 5 uur

Uitleg afkortingen: Eén petabyte (PB) is gelijk aan 1024 terabyte. Eén terabyte (TB) is gelijk aan 1024 gigabyte. Eén gigabyte (GB) is gelijk aan 1024 megabyte. Eén megabyte (MB) is gelijk aan 1024 kilobyte, en één kilobyte (KB) is gelijk aan 1024 byte. Bij dataopslag spreken wij over byte (in afkortingen met een hoofdletter “B”), maar bij data overdracht spreken bij over bit (in afkortingen met een kleine letter “b”). Eén byte is gelijk aan acht bits. De bit is de kleinste eenheid die gelijk staat aan een één of een nul. 400 petabyte is dus ongeveer gelijk aan 3.600.000.000.000.000.000 bits.

Noodzaak

Er wordt steeds meer data verstuurd over het internet. Zowel zakelijk als particulier blijft de behoefte aan snelle verbindingen groeien. De infrastructuur moet daar ook in meegroeien.

Deze snelheden zullen niet snel nodig zijn voor de gemiddelde MKB’er of thuisgebruiker. Voor de onderliggende infrastructuur is dit echter van steeds groter belang. De Amsterdam Internet Exchange (AMS-IX), een van de grootste knooppunten van het internet, verwerkte tien jaar geleden 200 petabyte per maand met piekbelastingen van 1 terabit per seconde. Tegenwoordig is dit 2 exabyte per maand (tien keer meer dan in 2010) met piekbelastingen van 8 terabit per seconde.

Met een toenemend aantal mensen die thuiswerken, de komst van het snelle 5G netwerk, en video’s in steeds hogere resoluties zal de wens voor meer en snellere dataoverdracht alleen blijven groeien. In andere regio’s zoals Afrika en Azië gaat de groei nog sneller door de grote hoeveelheden nieuwe gebruikers. Hiermee wordt de druk alleen maar groter op het internet in het algemeen en vooral op knooppunten zoals de AMS-IX . Om al deze data aan te kunnen is er meer of snellere apparatuur nodig.

Nieuwe techniek

De nieuwe techniek ontwikkeld door het team van Dr. Lidia Galdino aan University College London is gericht op het vergroten van de capaciteit van bestaande glasvezelkabels. In de publicatie Optical Fibre Capacity Optimisation via Continuous Bandwidth Amplification and Geometric Shaping beschrijven de onderzoekers hoe ze deze snelheid wisten te bereiken. De snelheidswinst is bereikt door het gebruik van een breder spectrum van kleuren in combinatie met meerdere soorten signaalversterkers. Door een breder spectrum van licht toe te passen en verschillende signaalversterkers te gebruiken voor verschillende delen van het lichtspectrum is het gelukt om een grotere hoeveelheid data te versturen zonder dat er te veel ruis in de overdracht kwam.

De techniek kan gebruikt worden met standaard glasvezelkabels, wat het aantrekkelijk maakt om toe te passen. Door de onderzoekers is berekend dat de kosten om bestaande bekabeling aan te passen een fractie zouden zijn van het aanleggen van nieuwe kabels. De techniek eist op dit moment nog regelmatige signaalversterkers, in ieder geval elke 40 tot 100 kilometer. Dit klinkt misschien niet als veel, maar voor de duizenden kilometer lange kabels die op de zeebodem liggen en continenten met elkaar verbinden is dit wel degelijk een probleem.

Het zal nog even duren voordat de ontwikkelde techniek commercieel beschikbaar is, maar een gebruik binnen universiteiten en rekencentra die grote hoeveelheden data over (relatief) korte afstanden moeten sturen is binnen afzienbare tijd mogelijk.