OFDM
– Multi Carrier Modulation
– Fourier Transformation
– Fast Fourier Transformation (FFT)
RF Architecture:
– Direct Conversion Receiver
Smartphone Technologies
– Multi Touch Display
– Gestensteuerung
– Abstandsensoren
Technologie für Breitband Zugang
Orthogonal Frequency Division Multiplexing
Alle bisherigen Modulationsarten die bislang besprochen wurden benutzen eine Trägerfrequenz und eine Modulation. Die unterschiedlichen Eigenschaften der Übertragung unterschieden sich vor allen durch die benutzte Bandbreite.
Es wurde jedoch schon in den fünfziger Jahren darüber nachgedacht mehrere Träger gleichzeitig zur Übertragung von Informationen zu nutzen. Man spricht hierbei von Multi Carrier Modulation (MCM).
Multi Carrier Modulation
Die Idee hinter MCM ist dass man sehr viele schmal-bandige Übertragungen parallel laufen lässt. Je schmal-bandiger die Übertragungen sind, desdo länger sind die digitalen Symbole bzw. die gesendet werden. Dies hat den Vorteil, dass es nur geringe Probleme mit Intersymbolinterferenz gibt. Bei Breitbandsignalen wie W-CDMA hat man extrem kurze Symbole und muss aufwendige Empfänger bauen, um etwa Effekte von Mehrwegsausbreitung zu eliminieren. Den Nachteil der niedrigen Übertragungsrate der einzelnen Träger kann man dadurch kompensieren, dass man möglichst viele Träger parallel nebeneinander platziert.
Es gibt noch einen weiteren wesentlichen Effekt bei MCM der bereits 1966 von einem Ingenieur namens R.W. Chang in den Bell Laboratories beschrieben wurde.
Ein Trägersignal hat eine feste Frequenz. Ist das Signal nicht moduliert hat das Spektrum bei der entsprechenden Frequenz eine Linie und ist unendlich schmal. Wird das Signal moduliert verbreitert sich die Linie. Je nach Modulation wird das Signal mehr oder weniger breitbandig. Wenn wir das Signal mit einer Rechteckfunktion der Länge T modulieren kann man relativ einfach errechnen wie das Spektrum aussehen wird. Es hat eine sogannte Sinc Funktion also Sin(x)/x.
Diese Funktion ist bei der Trägerfrequenz 1 und fällt dann bei einem Abstand von 1/T auf Null ab. Jeweils bei mehrfachen von 1/T geht es wieder auf Null wie man in der folgenden Abbildung sehen kann. Man kann daher einen zweiten Träger mit einer 1/T höheren Frequenz neben den ersten Träger platzieren. Dieser Fällt dann genau auf die Nullstelle der Nachbarfrequenz. Die beiden benachbarten Träger stören sich somit nicht. Da sie sich nicht stören und „unabhängig“ voneinander sind nennt man sie auch orthogonal voneinander.

R.W. Chang erkannte und patentierte ein Verfahren in dem wie oben beschrieben viele schmalbandige Träger orthogonal voneinander platziert werden und somit eine neue Art von Modulation darstellen die er Orthogonal Frequency Division Multiplexing (OFDM) nannte.
Allerdings war die Realisierung von OFDM praktisch unmöglich. Mit der Technologie der damaligen Zeit wäre es nötig gewesen für jeden Träger einen Sender zu bauen und diesen auch noch genaustens mit den Nachbarsendern abzugleichen und zu synchronisieren. Dies stieß schon nach wenigen Trägern an Grenzen. Eine Lösung wurde 1971 vorgeschlagen und zwar ein OFDM Signal nicht aus einzelnen Trägern zu erzeugen sondern das OFDM Signal zu synthetisieren und dann über einen Träger abzustrahlen. Hierzu benötigte man einen Algorithmus den man die Fourier Transformation nennt.
Fourier Transformation

Jean Baptiste Joseph Fourier war ein französischer Mathematiker und Physiker der zur Zeit der französischen Revolution. In einer mathematischen Abhandlung zeigte er, dass man ein periodisches Signal in eine Reihe von Sinus und Cosinus Funktionen zerlegen kann. Z.B. kann man ein Rechtecksignal durch Addition von Sinusfunktionen darstellen. Der erste Sinus hat die gleiche Frequenz wie die Rechteckefunktion. Der nächste Sinus hat die dreifache Frequenz und eine kleinere Amplitude, der nächste Sinus die fünffache Frequenz und wieder eine kleinere Amplitude und so weiter. Tatsächlich erzeugt auch ein Rechtecksignal ein Linienspektrum mit der Grundfrequenz des Rechtecksignals und weiteren in der Amplitude abnehmende Linien bei der drei, fünf und siebenfachen Frequenz.
Die Fourier Reihen verbinden den Zeitbereich mit dem Frequenzbereich.
Eine Erweiterung der Fourier Reihen ist die Fouriertransformation. Sie gilt auch für nicht periodische Funktionen. Sie besagt, dass ein beliebiges (zeitbegrenztes) Signal sich durch Sinus und Cosinus Funktionen erzeugen lässt. Die Fouriertransformation besteht hierbei aus einem Integral über der Frequenz eines komplexen Signals. Wichtig ist an dieser Stelle lediglich, dass die Fouriertransformation in der Lage ist ein beliebiges Zeitsignal in ein komplexes Frequenzsignal umzuwandeln, ohne dass Information verloren geht. Ein komplexes Frequenzsignal bedeutet in diesem Fall entweder ein Paar von Cosinus- und Sinusfunktionen bei einer bestimmten Frequenz oder eine Amplitude und eine Phase bei einer bestimmten Frequenz. Wir hatten schon bei der Modulationstechnik gelernt, dass jedes Frequenzsignal sich durch Cosinus und Sinus darstellen lässt.
Lange war die Fouriertransformation jedoch eher von mathematischem Interesse. Eine Lösung der Transformationsformel ergab sich lediglich bei bestimmten Signalen. Dies änderte sich durch die Computer welche es ermöglichten Integrale numerisch zu berechnen. Wird das Zeitsignal via Pulse Code Modulationen in Abtastwerte dargestellt, wird aus dem Integral eine Summe. Um aus einer Folge von 1024 Abtastwerten die zugehörigen 1024 komplexen Frequenzwerte zu berechnen sind 1024 x 1024 komplexe Multiplikationen und Additionen nötig. Dies war für Computer der sechziger Jahre eine erhebliche Rechenleistung.
Dennoch wurde die Diskrete Fouriertransformation (DFT) zu einem enorm hilfreichen und nützlichen Werkzeug für die Wissenschaft vor allen für die Akustik. Spektrale Analysen von Tönen waren enorm schwierig und aufwendig, vor allen, wenn sie nicht dauerhaft waren. Nun gab es die Möglichkeit beliebige akustische Signale spektral zu analysieren was großen Fortschritt verschaffte.
Fast Fourier Transformation (FFT)
Die DFT beschäftigte in den sechziger Jahren viele Forscher. Zwei Forschern namens James Cooley und John W. Tukey war der Rechenaufwand der DFT zu hoch. Sie wollten für ihre Anwendung eine schnellere Analyse von Signalen. Sie stellten fest, dass sich die DFT dramatisch vereinfachen ließ. Hierbei machten sie sich zunutze, dass sich bestimmte Rechenschritte wiederholten und eigentlich nicht doppelt berechnet werden mussten. Der von ihnen dadurch entwickelte neue Algorithmus zur Berechnung der DFT nannten sie Schnelle Fouriertransformation (FFT). Dieser Algorithmus ermöglichte es, dass die Fouriertransformation fester und effizienter Teil der digitalen Signalverarbeitung wurde und in immer mehr Anwendungen benutzt werden konnte.

Später stellte sich heraus, dass der gefundene Algorithmus eine „Wiederentdeckung“ war. Carl Friedrich Gauß hatte diesen Algorithmus bereits 1806 entwickelt um effizient die Flugbahn von Asteroiden zu berechnen.
1971 waren es wieder zwei Forscher der Bell Laboratories die für OFDM einen innovativen Vorschlag machten, der sich dann durchsetzte. Sie schlugen vor man solle eine FFT bzw die inverse FFT (iFFT) verwenden, um OFDM-Signale zu erzeugen. Man moduliert also alle Unterkanäle im Frequenzbereich und erzeugt dann mit der iFFT ein komplexes Zeitsignal, welches man auf einen Träger moduliert und überträgt.
Die folgenden Abbildungen zeigen einen Sender und einen Empfänger. Zunächst wandelt man einen Datenstrom in Parallelströme um welche man auf verschiedene Frequenzen, bzw. Unterbänder verteilen kann. Dort wandelt man die Daten in Symbole um, welche komplexen Amplituden entsprechen. Durch eine inverse FFT wird daraus ein komplexes Zeitsignal erzeugt welches man dann auf eine Trägerfrequenz modulieren kann.

Beim Empfänger kann man komplexe Zeitsignal (i und q Signal) mittels Fouriertransformation wieder in den Frequenzbereich transformieren. Dort erhält man die Symbole aus welchen wider ein Datenstrom entsteht.

Seit 1971 war nun ein OFDM-Verfahren bekannt. Es dauerte aber noch zwanzig Jahre, bis die Mikroelektronik bow, die Signalverarbeitung, so weit fortgeschritten war, dass eine FFT schnell genug gerechnet werden konnte damit ein Sender bzw. ein Empfänger in Echtzeit arbeiten konnte.
Die erste Anwendung von OFDM in einem standardisierten System war Digital Audio Broadcasting (DAB). DAB wurde in Europa seit den späten achtziger Jahren als Nachfolger von FM Radio entwickelt. 1995 wurde der Standard veröffentlicht. Hierbei benutzt man bis zu 1536 Unterträger und eine Bitrate von 2304 kbit/s. Zur Kodierung des Audiosignals diente wie wir bereits besprochen haben der MP2 Standard. Allerdings dauerte es sehr lange bis sich DAB durchsetzte. Erste gegen Ende der Nullerjahre etablierten sich erste DAB-Sender und wurden nach und nach Empfänger gekauft. Vorhersagen nachdem DAB schnell FM ersetzen würde, erfüllten sich nicht.
Direct Conversion Receiver
Ab 2000 wurden die Mobilfunkgeräte nicht mehr kleiner. Dennoch gab es den Druck, die Elektronik immer kleiner zu gestalten. In Featurephones und Smartphones kamen neue Chips hinzu und auch Display und Batterie wurden stets größer. So blieb für die klassische Empfangselektronik immer weniger Raum. Ein Bereich für höhere Integration war die Empfängerarchitektur.
Seit Beginn des Radioempfangs benutzte man einen Super Heterodyne Empfänger zum Empfang von Radiosignalen. Das änderte sich zunächst auch nicht für den Mobilfunk. Die folgende Abbildung zeigt einen typischen Empfänger wie er in den Anfangszeiten von GSM benutzt wurde.

Es benötigt zwei Oszillatoren VCO1 zum Wählen des Kanals und einen zweiten Oszillator VCO2 zum Heruntermischen ins Basisband. Es gibt ein HF-Filter zum Filtern des Frequenzbandes und eine ZF-Filter zum Eliminieren der benachbarten Bänder. Schließlich noch, im Basisband, Tiefpassfilter zur finalen Unterdrückung höherer Frequenzen und zur Vorbereitung der Analog-Digital-Wandlung. Außerdem zwei Verstärker für den HF und ZF-Bereich.
Schon früh stellte man sich die Frage ob es nicht möglich ist die Zwischenfrequenz zu sparen und direkt von der Trägerfrequenz auf das Basisband herunterzumischen. Eine solche Empfängerarchitektur nennt man Direct Conversion, also direkte Wandlung. Oft spricht man auch von Zero IF also „keine Zwischenfrequenz“. Allerdings gibt es bei Zero IF große Herausforderungen an die Schaltungstechnik.
Die Mischfrequenz ist bei Zero IF exakt die Trägerfrequenz des Senders. Sie muss genau synchronisiert sein, nicht nur in der Frequenz sondern auch in der Phase. Man benötigt also eine Kopplung des Trägers mit dem internen Oszillator. Dies erreicht man mit Phased Locked Loop Techniken, die wir schon besprochen haben.
Die zweite Herausforderung ist das die interne Oszillatorfrequenz in den Empfangspfad gelangen könnte. Sie liegt ja genau auf der Empfangsfrequenz. In diesem Fall würde sie sofort ein niedriges Eingangssignal verdecken und es wäre nicht mehr zu detektieren.
Drittens muss verhindert werden, dass Signale, die im Bereich der Spiegelfrequenz liegen (also unterhalb der Trägerfrequenz) sich nicht mit dem Nutzsignal mischen. Aus diesem Grunde werden im gesamten Empfang zwei Pfade implementiert ein I und ein Q Signal welche 90° voneinander abweichen. Dies bewirkt, dass eine Spiegelfrequenz beim Empfang unterdrückt werden. Eine Zero IF Architektur ist in der folgenden Abbildung gezeigt.

Wie man sieht, ist ein solcher Empfänger viel kompakter und benötigt weniger Bauteile. Es gelang sogar, den gesamten Empfänger mit dem Oszillator zu verbinden und in einem IC zu integrieren. Somit brauchte man selbst für einen Multi-Band Empfänger lediglich einen HF-Filter, einen Vorverstärker und ein Empfänger IC. Solche Schaltungen kamen um 2000 auf den Markt.


Smartphone Technologies
Einige neue Technologien, vor allem im Bereich der Displays ermöglichten erst das Smartphone wie wir es heute kennen. Vor allen das iPhone kam mit drei neuen Technologien:
- Multi Touch Display
- Gestensteuerung
- Abstandssensoren
Multi Touch Display
Alle bis dahin verwendetes berührungsempfindliches Display waren resistive Displays. Hierbei musste ein Druck auf das Display ausgeübt werden, welcher entsprechend einen Kurzschluss zwischen zwei Folien erzeugte. Dadurch konnte man, durch Messung der entsprechenden x-y-Widerstände, die Position auf dem Display bestimmen. Dieses Verfahren hat den Nachteil, dass man nur einen Punkt erkennen konnte (nicht zwei gleichzeitig) und dass man für ein präzises Arbeiten einen Stift für den Druck benötigte. Resistive Displays wurden z.B. bei den PDAs der frühen Nullerjahre verwendet.
Es gab jedoch eine Alternative zu den resistiven Verfahren der bisherigen Touch Screens: Das kapazitive Verfahren. Diese Erfindung wurde bereits in den siebziger Jahren entwickelt, an dem Europäischen Forschungszentrum CERN. Dort wollte man für den dortigen Teilchenbeschleuniger einen Bildschirm entwickeln der berührungsempfindlich war und mehrere Berührungen gleichzeitig messen konnte. Ein dänischer Forscher namens Bent Stumpe hatte hierbei die folgende Idee. Er benutzt Kondensatoren unter dem Display deren elektrisches Feld in das Display hineinragte. Die Kapazität dieser Kondensatoren ließ sich genau und einfach bestimmen. Wenn man nun mit dem Finger auf das Display kommt, ändert sich das Feld des Kondensators und die Berührung kann somit detektiert werden. Dies ist auch durch eine Glasscheibe hindurch möglich so dass man die Kondensatoren geschützt hinter Glass positionieren kann. Man spricht dann durch Projected Capacitance (PCAP). Die folgende Abbildung zeigt das Prinzip.

Ein Finger kann also durch leichtes Berühren die Kapazität von unter Glass liegenden Kondensatoren beeinflussen. Es dauerte allerdings noch Jahrzehnte bis die Mikroelektronik soweit war Displays mit ausreichender Auflösung mit zugehöriger Sensorelektronik zu entwickeln, dass sie für Massenproduktion einsetzbar war. Heute verwendet man feine Matrixstrukturen von kapazitären Sensoren welche man als dünne transparente Folien zwischen den (LCD) Displays und einer Glasscheibe platziert.
Gestensteuerung
Man kann mit berührungsempfindlichen Displays nicht nur Dinge auf dem Display zeigen sondern man kann auch Dinge bewegen oder verschieben. Das kannte man bereits von den grafischen Benutzeroberflächen wie Windows oder Mac OS. Wenn man aber mit zwei oder gar mehr Punkten arbeiten kann ist noch mehr möglich. Z.B: mit Daumen und Zeigefinger.
Dieses Prinzip wurde bereits Ende der Achtziger Jahre bekannt und in den neunziger Jahren weiterentwickelt. Vor allen bei Bell Laboratories und in der Carnegie Mellon University. Dort konnte man zeigen, wie man mit Daumen und Zeigefinger „Gesten“ durchführen konnte, um Gegenstände zu erzeugen und zu manipulieren, etwa zu Drehen. Beginnend mit dem Jahr 2000 begann sich etwa Microsoft für die Nutzung von Gesten zu interessieren und entwickelten über viele Jahre ein System, welches sie Pixel Sense nannten. Es erschien erst 2008 auf dem Markt. Aber Steve Jobs von Apple war sich dieser Entwicklung bereits bewusst und er setzte sie bereits vorher für sein iPhone ein.
Auch der Filmindustrie waren Gesten für die Steuerung von Computern bekannt. In dem viel beachteten Film „Minority Report“ bedient Tom Cruise einen Computer über Gesten. Auf einem riesigen Transparenten Display schiebt er Programme in den Vordergrund die ihn interessieren. Was ihn nicht interessiert schiebt er aus dem Display heraus. Er kann auch Objekte hin und herdrehen.

Eine Geste die heute jeder Kennt heißt „pinch-to-zoom“. Mit ihr kann man z.B. vergrößern oder verkleinern in dem man ein Objekt mit Daumen und Zeigefinger berührt und diese auseinanderzieht. Apple hatte dieses Verfahren angeblich erfunden und zum Patent angemeldet. Allerdings stellte sich heraus, dass es bereits einige Jahre vorher erfunden und patentiert wurde.
Abstandsensoren
Ein Problem bei Kapazitiven Touch Screens ist ihre Empfindlichkeit. So reagieren sie auch wenn sie etwa mit dem Ohr in Berührung kommen was bei einem Telefon wohl nicht zu vermeiden ist. Also ist es nötig eine Abstandsensor zu benutzen welche den Abstand in vor dem Telefon bestimmen können. Solche Sensoren benutzen entweder Infrarot Reflektionen oder elektrische Felder, welche sich durch Annäherung von Objekten ändern.
