Long Term Evolution (LTE)

LTE Physical Layer
Kanalstruktur
Single Carrier Frequency Division Multiple Access (SC-FDMA)
LTE Datenraten
LTE TDD
Neue Bänder für LTE
LTE Netzwerk Architektur

Entwicklung von LTE

Wie beschrieben entwickelte sich UMTS über HSDPA hinzu höheren Bitraten. Aber es war absehbar, dass man an Grenzen stieß. Man konnte nicht noch mehr Nutzer in einem CDMA-Band unterbringen. Aber man konnte auch die Bandbreite nicht einfach erhöhen. Noch höhere Bandbreite wäre mit noch höherer Chip Rate einhergegangen und Intersymbol Interferenz wäre nicht mehr handhabbar gewesen. Man musste also über ein neues System nachdenken und es war schon bald klar dass dies OFDM basiert sein würde. OFDM hatte den großen Vorteil dass es sehr flexibel in der Bandbreite verändern konnte und dass es praktisch die höchste mögliche spektrale Effizienz aufwies. WLAN hatte dies bereits unter Beweis gestellt und nun hob sich auch IEEE 802.16 (WiMAX) an auch für große Netzwerke OFDM einzuführen.

Allerdings wollten die Mobilfunkbetreiber nicht noch einmal einen Übergang wie von 2G zu 3G miterleben, als sie ein völlig neues Netzwerk installieren mussten. Also war eine strenge Vorgabe von der Mobilfunkindustrie, dass ein neues System möglichst optimal mit dem alten (3G) System zusammenspielen musste. Es sollte eine Evolution, keine Revolution sein.

Entwicklung eines OFDM basierten Mobilfunksystems

Ein Hersteller von Netzwerkkomponenten war der kanadische Hersteller Nortel. Dort arbeitete seit 1998 ein Team an einem zellularen System welches auf OFDM aufbaute. Zwischen 2002 und 2004 entwickelten sie einen Entwurf den man HSOPA (High Speed OFDMA Packet Access) nannte. Sie schlugen diesen 3GPP vor. Dies triggerte eine Diskussion zwischen den verschiedenen Mitgliedern. In einem Meeting im November 2004 in Toronto einigte man sich offiziell eine Studie für ein OFDM basiertes System zu beginnen. Man nannte dieses Projekt jedoch nicht HSOPA sondern erst einmal die „Long Term Evolution“, abgekürzt LTE. Die Anforderungen an dieses Projekt lassen sich wie folgt zusammenfassen:

  • Reduzierte Kosten der Übertragung pro bit
  • Mehr Dienste bei geringeren Kosten
  • Flexible Nutzung von vorhandenen und neuen Frequenzbändern
  • Einfache Netzwerkschnittstellen
  • Geringer Stromverbrauch für Endgeräte

Beschleunigte Entwicklung wegen WiMAX Konkurrenz

Es war klar, dass man sich nicht viel Zeit lassen konnte. Die GSM-Spezifikation und die UMTS-Spezifikation hatten annähernd 10 Jahre gedauert. 2004 war WiMAX bereits spezifiziert. Deshalb konnte LTE nicht bis 2014 warten. Man wollte auch nicht warten, bis die ITU das Nachfolgesystem für IMT 2000 für 4 G fertiggestellt hatte. Eher erzeugte man ein 3.9 G System als Zwischenschritt.

Bereits ein Jahr später wurde beschlossen, dass das neues System OFDM basiert sein sollte. Im Juni 2006 waren die Studien abgeschlossen und die genaue Spezifikation begann. Die genauen Randbedingungen waren:

  • Datenraten 100 Mbit/s im Downlink (vergleichbar mit WiMAX)
  • 2–4-fache Effizienz von HSDPA
  • IP-basiert und optimiert
  • Bandbreiten 1,25 MHz, 5 MHz, 10 MHz, 20 MHz.
  • TDD und FDD basiert
  • Kompatibel mit 3G Netzwerk

Bereits 2006 konnten erste LTE-Demonstratoren gezeigt werden. 2007 die erste 144 Mbit/s Übertragung von Ericsson.

Auf Seiten der Halbleiterhersteller war Infineon der erste Anbieter eines RF-Chips für LTE. Im Februar 2008 wurden dann auf der Mobile World Conference in Barcelona eine ganze Reihe von den Halbleiterherstellern eine Reihe von Demonstratoren vorgeführt. Ericsson Mobile Platform, Freescale und NXP zeigten bereits LTE-Übertragungen.

Im Dezember 2008 wurde LTE in 3GPP Release 8 veröffentlicht.

Im Dezember 2009 wurde das erste LTE-Netz in bei Telia Sonera in Schweden in Betrieb genommen.

LTE Physical Layer

Bandbreiten

LTE ist ein OFDM basiertes System. Es sollte verschieden Bandbreiten unterstützen: 

1,25 MHz, 2,5 MHz, 5 MHz, 10 MHz, 15 MHz und 20 MHz.

Der Abstand der Unterträger ist bei LTE auf 15 kHz festgelegt. Die verschiedenen Bandbreiten ergeben sich dann aus unterschiedlichen Längen der FFT, von 128 bis zu 2048. Nicht alle Unterträger werden genutzt und es ergeben sich eine relativ hohe Anzahl an Guard Sub-Carrier die keine Informationen tragen. Auch der Null Carrier wird nicht verwendet. 

Kanalbandbreite (MHz)1,252,55101520
Frame Länge (ms)10
Subframe Länge (ms)1
Sub Carrier Abstand (kHz)15
Abtastrate (MHz)1,923,847,6815,3623,0430,72
FFT Größe126256512102415362048
Benutzte Sub-Carrier761513016019011201
Guard Sub-Carrier52105211423635847
Anzahl Resource Blocks612255075100
Benutzte Bandbreite (MHz)1,142,2654,5159,01513,51518,015
Bandbreiten Effizienz (%)77,19090909090
OFDM Symbole/Subframe7 oder 8 (kurz oder lang)
CP Länge (kurz) ms5,2 für erstes Symbol, dann 4,69
CP Länge (lang) ms16,67

Cycle Prefix

Anders als WLAN sendet eine Basisstation (welche bei LTE eNodeB genannt wird) kontinuierlich Frames von 10 ms Länge. Die Frames sind in 10 Subframes von 1 ms Länge unterteilt und diese wieder in zwei Slots von 0,5 ms Länge. Diese Slots bestehen aus einer Abfolge von 7 LTE-Symbolen. Bevor man jedoch das eigentliche Symbol aussendet, gibt es ein sogenanntes Cyclic Prefix (CP) welches die einzelnen Symbolbits voneinander trennt. Wie bei WiMAX möchte man auch hier dadurch Intersymbolinterferenz vermeiden. Das CP ist am Anfang des Slots 160 und dann 144 Abtastwerte lang. Nach dem CP kommen dann die 2048 Abtastwerte des Symbols welche man dann direkt für eine FFT verwenden kann. Die Abtastrate ist bei 20 MHz Bandbreite 30,72 MHz. Ein Symbol hat deshalb eine Länge 71,9 ms.

Es gibt neben dem hier definierten CP noch ein langes CP. Dieses ist dreimal so lang. Aus diesem Grunde hat ein Slot mit langem CP nur 6 statt 7 Symbole.

Resource Element

Ein bestimmtes (zeitliches) Symbol in einem bestimmten Sub-Channel bezeichnet man als Resource Element. Theoretisch könnte man bei dem angestrebte OFDMA Verfahren jedes einzelne Resource Element einem Nutzer zuordnen. Dieser Aufwand wäre jedoch viel zu hoch. Deshalb fasst man jeweils 12 benachbarte Resource Elements (über die Sub-Channels) und alle 7 Symbole eines Slots zusammen und bezeichnet sie als Resource Blocks (RB). Ein RB hat somit 12 x 7 = 84 Resource Elements. RB kann man nun unterschiedlichen Nutzern zuordnen.

Synchronisation

Wie bei UMTS muss sich auch ein LTE User Equipment (UE) genau mit der Basisstation (eNodeB) synchronisieren. Hierfür sind zwei Synchronisationskanäle definiert, der Primary Synchronization Channel (PSS) und der Secondary Synchronization Channel (SSS). Der PSS liegt auf den letzten Symbolen eines Slots im Sub-Frame 0 und dann noch einmal in Sub-Frame 5. Man nutzt hier 62 Symbole einer sogenannten Zadoff-Chu Sequenz. Diese verteilt man auf die inneren 62 Sub-Carrier und sind sie sind somit immer gleich egal ob es sich um 1,25 oder 20 MHz Bandbreite handelt. Die Synchronisation ist somit immer gleich.

Wie alle Synchronisationssequenzen hat auch die Zadoff-Chu Sequenz die Eigenschaft, dass sie, wenn die eingehende Testsequenz und die bekannte Sequenz genau aufeinandertreffen sie eine maximale Autokorrelation haben. Dadurch kann man den genauen Zeitpunkt des letzten Symbols bzw. der Anfang des Folgenden Subframes exakt bestimmen. Hierbei benutzt man nicht eine sondern insgesamt 3 verschiedene Zadoff-Chu Sequenzen. Welche genau, hängt von der eNodeB Identität ab. 

Nun sucht das UE nach dem SSS, welcher ein Symbol vor der PSS liegt. In dem SSS überträgt man 168 mögliche Blockcodes. Der Zadoff-Chu Index und die entsprechende Block Nummer des SSS ergeben dann die Cell ID der eNodeB mit der man diese identifizieren kann, ähnlich wie dies bei UMTS über den Spreizkode geschah. Durch das Kodieren des SSS kann man auch feststellen, ob ein kurzes oder langes CP Anwendung findet.

Nun kann das UE beginnen die Informationen im Broadcast-Channel der eNodeB zu lesen. Dort findet man alle 40 ms den sogenannte Manage Information Block (MIB). Dieser enthält alle Informationen, die das UE benötigt, um mit dem Netz in Verbindung zu treten.

Zur Schätzung des Übertragungskanals sind bei LTE Referenz Symbole in die Resource Blocks eingebettet. Wie in der folgenden Abbildung gezeigt sind 4 Referenz Symbole (rot) auf einen Resource Block verteilt. Mit ihnen kann man die Empfangstärke des Kanals messen. Die Stärke der freien Kanäle kann durch Interpolieren geschätzt werden.

Referenzsymbole in einem RB. Rot für 1×1 MIMO, schwarz für 2×2 MIMO

Weiterhin dienen die Referenzsymbole auch für die Kanalschätzung bei MIMO-Betrieb. Dann werden die rot gezeigte Referenzsymbole von Antenne 1 abgestrahlt und die schwarz gezeigten Symbole von Antenne 2. Daraus kann dann die entsprechende Übertragung bestimmt und MIMO Betrieb eingeleitet werden.

Kanalstruktur

LTE beruht auf reiner Packet-orientierter Übertragung. Es gibt somit konsequenterweise keine dedizierten Kanäle mehr die einem Nutzer zugeordnet werden und diesem dann auch eine gewisse Kapazität garantieren. Statt dessen gibt es zur Übertragung der Daten nur Shared Channels, die Physical Downlink Shared Channels (PDSCH). Diese werde in jeder Millisekunde also pro Sub Frame den Nutzern zugewiesen. Diese Zuweisung wird direkt von der eNodeB gemanaged und ist ein komplexer Vorgang da gewährleistet werden muss, dass bei viel Verkehr alle Teilnehmer bearbeitet werden, egal welche Güte im jeweiligen Übertragungskanal vorliegt.

Die Zuweisung der Shared Channel geschieht über die Physical Downlink Control Channel (PDCCH). Dieser Kanal besetzt alle Symbole von Slot 0 in einen Sub Frame. Die Anzahl der für den PDCCH genutzten Symbole ist flexibel gehalten und kann zwischen 1 und 4 liegen (2 in der unten gezeigten Abbildung). Damit das UE (User Equipment) weis wieviel Symbole verwendet werden gibt es einige Symbol in im ersten Slot die man als Physical Control Format Indicator Channel (PCFICH) bezeichnet. Ein UE liest also erst den PCFICH und dann den PDCCH um zu erfahren welche RBs ihm in diesem Frame zugewiesen werden.

Parallel zum PCFICH wird auch der sogenannte Physical HARQ Indicator Channel (PHICH) übertragen der einen schnellen Feedbackkanal der eNodeB zum letzten übertragenen Datenpaket enthält.

Die folgende Abbildung zeigt die verschieden besprochenen Kanäle für 6RB und 5 Sub-Frames.

Single Carrier Frequency Division Multiple Access (SC-FDMA)

Bisher sind vor allem Vorteile der OFDM-Modulation besprochen worden. Es gibt jedoch auch einen Nachteil, der sich vor allen im Zellularen Betrieb auswirkt. Dieser Nachteil liegt darin, dass man sehr viele Unterkanäle gleichzeitig überträgt. Alle diese Kanäle addiert man auf um sie dann zu übertragen. Im Extremfall addieren sich bei einer Bandbreite von 20 MHz 1200 Unterkanäle. Wenn jeder Kanal mit einer Amplitude von 1 überträgt, ist es theoretisch möglich, dass sich (wenn auch extrem selten) alle Amplituden addieren und kurzzeitig eine Amplitude von 1200 auftritt. Auf jeden Fall ist das Spektrum von möglichen Amplituden sehr hoch. Gekennzeichnet wird dies von einer Größe die man als Peak to Average Power Ratio (PAPR). Dies ist das Verhältnis zur höchst auftretenden Amplitude zur mittleren Amplitude.

Warum ist ein hohes PAPR ein Problem? Die Abtastung muss zunächst einmal genau genug sein um alle Kanäle wieder abbilden zu können. Dies ist aber das geringere Problem. Das größere Problem ist, das beim Aussenden des Signals es nicht zu Verzerrungen kommen darf.

Verzerrungen entstehen im Endverstärker des Senders. Ein Verstärker ist über weite Bereiche linear, das heißt hier ist die Verstärkung immer proportional zum Eingangssignal und somit wird das Signal nicht verzerrt. Aber bei hohen Verstärkungen kommt es zu einer Sättigung die dann zu Nichtlinearität und zu Verzerrungen führt. Das technische Problem besteht darin, dass ein Verstärker sehr ineffizient ist wenn man ihn im linearen Bereich betreibt. Für ein Watt Ausgangsleistung muss man durchaus 10 W hineinstecken.

Für eNodeBs ist die eher zu verkraften, da sie über genügend Energie verfügen. Bei Mobilfunkgeräten ist dies jedoch sehr kritisch da hier hoher Stromverbrauch schlecht ist. Alle bisherigen Mobilfunkstandards haben daher eine Modulation genutzt, die eine möglichst konstante Amplitude erzeugen, etwa GMSK bei GSM. Dadurch kommt es nicht zu Verzerrungen und man kann den Verstärker sehr effizient betreiben. Bei WLAN ist dieses Problem nicht so groß, da man nur mit geringer Leistung sendet.

Um bei LTE dieses Problem zu reduzieren hat man für den Uplink ein etwas anderes Modulationsverfahren gewählt, die Single Carrier Frequency Devision Multiple Access (SC-FDMA). Dieses Verfahren ist dem OFDMA Verfahren im Downlink sehr ähnlich. Der Unterschied liegt darin, dass die Uplink Daten des UE zunächst mit einer Digitalen Fouriertransformation transformiert, um dann wie bisher mit einer iFFT in ein Zeitsignal umgewandelt zu werden. Dadurch entstehen nicht viele einzelne Sub-Carrier, sondern nur ein einzelner breiter Carrier. Dieser hat einen deutlich kleineren PAPR als ein klassisches OFDMA Signal.

Prinzip von SC-FDMA im Uplink

LTE Datenraten

Die Datenrate für LTE errechnet sich recht einfach: Nimmt man optimalste Konditionen an: 64 QAM (6 bit) und keine Kanalkodierung und eine Bandbreite von 20 MHz (1200 Sub Carrier) so errechnet sich bei einer Symbollänge von 71,4 ms (short CP)

6 x 1200 / 71,4 ms = 100,8 Mbit/s

Hat man zusätzlich ideale Bedingungen bezüglich MIMO so verdoppelt sich die Datenrate. Allerdings gibt es keine Übertragung ohne Kanalcodierung. Die geringste Kodierrate ist 11/12. Dadurch liegt die höchste Übertragungsrate bei etwa 90 Mbit/s.

Außerdem berücksichtigt dies nicht den Overhead durch die Referenz und Kontrollkanäle. Maximale Datenraten sind daher eher bei 75 Mbit/s. Die in der Praxis erreichten Datenraten liegen deutlich darunter und hängen von der allgemeinen Last (wieviel Nutzer man bedient) und von den Übertragungsbedingungen ab.

Uplink Datenraten sind im Schnitt immer nur halb so groß wie die Downlink Datenraten, vor allem, weil im Uplink mit maximal 16 QAM moduliert wird.

Der Vorteil von LTE gegenüber HSDPA wird deutlich, wenn man die Datenraten bei 5 MHz Bandbreite vergleicht (5 MHz ist die W-CDMA Bandbreite). Bei HSDPA ist dies Maximal 14,4 Mbit/s während es bei LTE 25,2 Mbit/s ist. Die spektrale Effizienz ist also fast doppelt so hoch.

LTE TDD

Wie GSM und UMTS hat LTE ein Uplink und ein Downlink Band. Dies nennt man FDD-Mode. Weiterhin ist für LTE aber auch ein TDD Mode definiert. Hier teilt man sich das selbe Frequenzband für Uplink und Downlink. Ein Nachteil ist hierbei, dass man zwischen Uplink und Downlink eine Lücke lassen muss die sogenannte Guard Period.

LTE TDD benutzt denselben Physical Layer und dieselbe Framestruktur mit Framelängen von 1 ms Länge. Hierbei folgt sie 7 möglichen Anordnungen von Uplink und Downlink Sub Frames die sich alle 10 ms also nach 10 Sub Frames wiederholen. Die zeigt die folgende Tabelle.

KonfigurationPeak Datenrate Down/UP Mbit/sSub Frame Nummer
0123456789
041/32DSUUUDSUUU
162/22DSUUDDSUUD
282/11DSUDDDSUDD
364/15DSUUUDDDDD
482/11DSUUDDDDDD
594/5DSUDDDDDDD
657/27DSUUUDUUUD
TDD Konfigurationen und Datenraten bei 20 MHz LTE-TDD

Zwischen Uplink und Downlink Subframes sind Special Frames eingebettet. Sie bestehen am Anfang und am Ende aus einem Pilot Signal zur Synchronisation (jeweils für Uplink und Downlink) und in der Mitte eine leere Guard Periode.

Trotz der ungenutzten Spezialframes ist im Allgemeinen ein TDD LTE effizienter als FDD LTE. Dies liegt daran, dass in einer üblichen Internetanwendung stets mehr Downlink als Uplink gesendet wird. Daher ist es von vornherein sinnvoller für den Downlink mehr Kapazität vorzusehen als im Uplink. Dies wird z.B. in Konfiguration 5 deutlich.

Neue Bänder für LTE

Für den neuen LTE-Standard waren neue Frequenzbänder nötig oder GSM-Bänder mussten für LTE neu genutzt werden.

Dies war etwa der Fall für das DCS-Band um 1800 MHz, Band 3

  • Unteres Band: 1710 MHz – 1785 MHz
  • Oberes Band:   1805 MHz – 1880 MHz

Für Amerika wurde entsprechend das PCS-Band für LTE genutzt, Band 2

  • Unteres Band: 1850 MHz – 1910 MHz
  • Oberes Band:   1930 MHz – 1990 MHz

Ein ganz neues Band entstand aus der Tatsache heraus, dass das über Funk abgestrahlte Fernsehen nach und nach abgeschaltet und durch DVB-T ersetzt wurde. Durch die digitale Übertragung kann die nötige Bandbreite pro Fernsehkanal reduziert werden, so dass Frequenzbänder frei werden. Man spricht von Digitaler Dividende. Daraus entstand das Band 20

  • Unteres Band   791 MHz – 821 MHz
  • Oberes Band    832 MHz – 862 MHz

Die niedrigen Frequenzen des Band 20 sollte vor allen von den Mobilfunkbetreibern genutzt werden um ländliche Regionen zu erreichen. Niedrige Frequenzen haben sehr gute Ausbreitungseigenschaften.

Eher für Urbane Regionen ist das neue Band 7 gedacht.

  • Unteres Band:  2500 MHz – 2570 MHz
  • Oberes Band:   2620 MHz – 2690 MHz

In Nordamerika machte man das sogenannte AWS-Band (Advanced Wireless System) für LTE verfügbar, Band 4.

  • Unteres Band:  1710 MHz – 1755 MHz
  • Oberes Band:   2110 MHz – 2155 MHz

Diese Band zeichnet sich durch seine enorm große Bandlücke von 400 MHz aus.

Für TDD wird die Bandlücke von Band 7 von 50 MHz genutzt. 2570 MHz – 2620 MHz. Diese bezeichnet man mit Band 38.

Die Frequenzbänder in Deutschland wurden 2010 versteigert. Hierbei gab es für das 800 MHz Band Blöcke von jeweils 5 MHz. Maximal konnte pro Mobilfunkbetreiber 10 MHz im 800 MHz Band benutzt werden. Im 2500 MHz Bereich waren dagegen 20 MHz Bandbreiten möglich.

LTE Netzwerk Architektur

LTE ist ein reines IP basiertes Netzwerk. Anders als GSM und UMTS gibt es keinen Zugang zum Telefonnetzwerk. Es gibt lediglich einen Zugang zum Internet. Es ist somit ziemlich einfach aufgebaut.

LTE Netzwerk Architektur

Es gibt in dieser Architektur keine Einheit für Network Control wie den RNC bei UMTS. Die Kontrolle der Radioschnittstelle bewerkstelligt die eNodeB größtenteils autonom. Dies ist auch der Tatsache geschuldet, dass die eNodeB sehr schnell reagieren muss und nicht auf eine externe Einheit warten kann. Somit ist die eNodeB die komplexeste Einheit des gesamten Netzwerks. Eine eNodeB ist oft in zwei Einheiten geteilt, dem digitalen Teil und dem analogen Radioteil. Dieser befindet sich in einem Remote Radio Head nahe an der Antenne und ist mit einer Glasfaserverbindung mit dem digitalen Teil verbunden (CPRI-Interface). Wichtige Aufgabe des eNodeB ist vor allen das komplexe und zeitkritische Scheduling, also die Zuordnung von Resourcen an die vielen Nutzer. Hierbei muss sie auch priorisieren, wenn besondere Dienste angeboten (siehe QoS und VoLte welche später beschrieben werden). Die eNodeB ist auch für ein Handover zuständig. Hierzu sind die eNodeB mit einem eigenen X2 Interface untereinander verbunden.

Die zentrale Einheit des LTE-Netzwerkes ist die Mobility Management Entitiy (MME). Über die MME laufen alle Signalisierungen des Netzwerkes. Das MME ist mit dem Home Subscriber Server verbunden. Er entspricht dem Home Location Register der GSM/UMTS Netzwerke.

Wie auch schon bei GPRS und UMTS gibt es bei LTE zwei Einheiten, welche den Zugang zum Internet verwalten. Das Serving Gateway (S-GW) ist ein Router welcher zum einen eine Verbindung zu den eNodeB´s ermöglicht und zum anderen zur Packed Data Gateway (P-GW) welches den Zugang zum Internet handhabt. Das S-GW schaltet bei wechselnden Zellen zwischen den eNodeB. Gegebenenfalls kann eine S-GW auch zu einer UMTS oder GSM-Verbindung wechseln, wenn keine LTE-Verbindung möglich ist. Die P-GW schafft die Verbindung zum Internet. Hierbei wird bei einem Verbindungsaufbau dem Endgerät eine temporäre IP-Adresse zugeordnet.