Digitale Signalverarbeitung

Erste die digitale Signalverarbeitung ermöglichte den nächsten Fortschritt im Mobilfunk. Aus diesem Grunde wird hier näher auf die Grundprinzipien der digitalen Signalverarbeitung und deren Vorteile eingegangen.

Digitale Signale
TDMA Systeme
Rauschfreie Übertragung
Signalanalyse
Digitale Filter
Der digitale Signalprozessor
Sprachkodierung
Abhörsicherheit

Digitalisierung des Mobilfunks

Durch die Einführung des zellularen Mobilfunknetzes stieg die Nachfrage. Durch die neuen Technologien war es möglich hunderttausende Teilnehmer im Funknetz zu betreuen. Aber es gab nach wie vor Schwachstellen.

  • Geringe Kapazität
  • An Zellgrenzen schlechte Übertragungsqualität mit eventuellen Verbindungsabbrüchen
  • Keine Abhörsicherheit

Kapazität versuchte man wie bereits vorher dadurch anzugehen, dass man mehr Kanäle zur Verfügung stellte. Aber Funkkanäle sind am Ende doch begrenzt. Also muss man die vorhandenen Kanäle effizienter ausnutzen. Man muss man mehr Gespräche pro MHz Bandbreite erreichen. Hierzu stieß die bisherige Technologie jedoch an ihre Grenzen. Der nächste Schritt musste eine digitale Umsetzung des Mobilfunks sein.

Digitale Signale

Mit der Erfindung des Telefons geschah etwas fundamental Neues in der Kommunikation. Eine Schallwelle wurde in eine „elektrische Signal“ umgewandelt und übertragen. Das Medium der Übertragung änderte sich. Nicht mehr der Schall übertrug die Information, sondern ein elektrisches Feld.

In den sechziger Jahren passierte nun wiederum ein fundamental neuer Wandel. Ein elektrisches Signal konnte in ein „digitales Signal“ umgewandelt werden und umgekehrt. Man wandelt das Signal also wieder in ein völlig neues Medium um, aber diesmal kein physikalisches Medium, sondern ein mathematisches Medium, welches lediglich aus Zahlen besteht. Es wurde dadurch nicht nur gewandelt, sondern auch gleichsam „eingefroren“ in Speichern. (Siehe PCM) Übertragung von Zahlen hat wesentliche Vorteile wie im Folgenden beschrieben wird.

Die Darstellung eines elektrischen Zeitverlaufs in eine Reihenfolge von Zahlen ermöglichte eine fundamental neue Möglichkeit ein Signal zu verändern. Das Signal geht von einem physikalischen Zustand in einen digitalen Zustand der nur in Speichern existiert und durch Rechenoperationen manipuliert werden kann.

TDMA Systeme

Wie bereits beschrieben ist es möglich Sprache mit einer Abtastrate von 8 kHz und mit einer Genauigkeit von 8 bit aufzuzeichnen und mit geringen Qualitätsverlusten wieder in ein analoges Signal zurückverwandeln. Sprache entspricht somit einem „Bitstrom“ von 64 kbit/s.

Bei Telefonnetzen war es stets ein Problem, vor allen bei Fernleitungen, möglichst viele Telefongespräche über eine Leitung zu führen. Es war nicht wirtschaftlich pro Gesprächsteilnehmer nur eine Leitung zur Verfügung zu stellen. Man musste sich irgendwie eine Leitung teilen. Daher entwickelte man in den Bell Laboratories in den fünfziger Jahren Verfahren digitale Signale (also Folgen von 1 und 0) mit hoher Geschwindigkeit zu übertragen. Man erreichte Geschwindigkeiten von 2 Mbit/s. Heute ist dies unglaublich langsam aber angesichts der damaligen Technologie war dies bemerkenswert. Man standardisierte einen sogenannten T1 Kanal mit dem man mit 1,544 Mbit/s Daten über lange Strecken übertragen konnte. Somit konnte man 24 * 64 kbit/s übertragen. Jedes Sprachsignal bekam einen sogenannten Zeitschlitz. Man nennt ein solches Verfahren Time Division Multiple Access: TDMA.

Bevor man das T1 System 1962 einführte wurde, gab es bereits ein FDMA (Frequency Division Multiple Access) System. Hierbei wurde wie bei einem Radio, jeder Sprachstrom in einen Sprechkanal auf einer bestimmte Frequenz aufmoduliert. Allerding ließen die benutzten Leitungsdrähte keine hohen Frequenzen zu und so konnte man mit FDMA nur etwa 12 Sprachströme gleichzeitig übertragen. Somit war das digitale TDMA-Verfahren doppelt so effizient wie das analoge FDMA System.

Ein digitales System ermöglicht eine effizientere Übertragung von Signalen. 

Rauschfreie Übertragung

Digitale Übertragung hat jedoch noch einen weiteren Vorteil. Wenn Einsen und Nullen übertragen werden, kommen (wenn es keine Übertragungsfehler gibt) auch genau Einsen und Nullen an. Wenn man Sprache überträgt, kommt die Sprache und ein Rauschen an, welches durch thermische Prozesse bei der Übertragung entsteht. Bei Übertragung über lange Strecken, schwächt sich ein Signal ab und muss verstärkt werden. Bei analogen Systemen wird jedoch nicht nur das Signal, sondern auch das Rauschen verstärkt. Also bei jeder Verstärkung kommt Rauschen hinzu. Bei digitaler Übertragung ist dies nicht der Fall. Zwar kommt auch bei der digitalen Übertragung ein verrauschtes Signal an, dies kann jedoch elektronisch leicht entfernt werden.

Rauschfreiheit ist ein wesentliches Merkmal von digitaler Übertragung und Speicherung.

Signalanalyse

Hat man einen digitalen Signalblock so kann man ihn „in aller Ruhe“ analysieren. Wie eine Reihe Zahlen in einem Excel Sheet. So kann man etwa die Leistung bestimmen, indem man die Werte quadriert und addiert. Man kann feststellen, wie hoch die höchste Amplitude in dem Signal ist. Mit bestimmten Formeln, die wir später noch besprechen werden, kann auch bestimmt werden ob besonders viel hohe oder niedrige Frequenzen in dem Signal sind. Man kann das sogenannte Spektrum bestimmen. 

Digitale Filter

Man kann aber auch die Signale manipulieren bzw. bearbeiten. Wir könnten z.B. eine Signalverlauf glätten. Wir nehmen dafür z.B. 10 Werte aus der Signalreihe und bilden den Mittelwert. Also wir addieren alle Werte und teilen ihn durch 10. Wenn man das Dividieren verhindern möchte können wir auch jeden Wert mit 0,1 multiplizieren ehe wir alle Werte addieren. Die Rechnung sieht dann so aus:

y(n) = 0,1*x(n) + 0,1*x(n-1) + 0,1*x(n-2) + 0,1*x(n-3) + …+ 0,1*x(n-9)

Hierbei ist y(n) der erzeugte Abtastwert an n-ter Stelle (oder zur Zeit n) und x(n) der original Abtastwert zur Zeit n. x(n-1) ist der vorherige Abtastwert usw.

Viele Ingenieure haben in den sechziger Jahren diese Art der Bearbeitung von Signalen erforscht. Die Mittelung wie oben gezeigt nennt man z.B. eine Tiefpassfilterung, weil durch die Mittelwertbildung hohe Frequenzen weggemittelt werden. (siehe Abbildung). Allerdings ist die Multiplikation mit 0,1 nur eine Art der Mittelung. Allgemeiner kann man 10 eventuell verschiedenen Faktoren benutzen, a0 bis a9. Bestimmte „Filterungen“ führen hierbei zu verschiedenen „Vektoren“ von Faktoren. Allgemein sieht die „Filterrechnung“ so aus.

y(n) = a0*x(n) + a1*x(n-1) + a2*x(n-2) + a3*x(n-3) + …+ a9*x(n-9)

Eine Rechnung wie die obige Rechnung nennt man ein „Digitales Filter“. Digitale Signale wie gezeigt zu manipulieren, nennt man Digitale Signalverarbeitung.

Beispiel digitale Filterung. Orangene Kurve entsteht durch Mittelung von jeweils 10 Werten. höheren Frequenzen werden dabei herausgemittelt.

Es stellt sich heraus, dass man im Digitalen sehr viel besser arbeiten kann als mit analogen Mitteln. Aus diesem Grunde hat im Laufe der Zeit die digitale Signalverarbeitung die analoge Elektronik in weiten Teilen abgelöst.

Allerdings hat die digitale Signalverarbeitung einen Haken: sie muss schnell sein. Nehmen wir das Beispiel mit Abtastwerten von 8 kHz. Man hat lediglich 125 Mikrosekunden (1/8000 s) Zeit um 10 Multiplikationen und Additionen durchzuführen und y(n) in einen analogen Wert zu verwandeln. Man spricht in diesem Fall von Echtzeit. Vor allen eine Multiplikation ist hier kritisch da sie in einem normalen Microprozessor sehr viele Rechenzyklen braucht. Normale Prozessoren waren also, zumindest in den siebziger Jahren nicht für digitale Signalverarbeitung geeignet. 

Der Digitale Signalprozessor

Zunächst braucht man für die digitale Signalverarbeitung einen Multiplizierer. Dieser muss fest „verdrahtet“ sein und nicht aus vielen Additionen im Rechenwerk bestehen. Im günstigsten Fall werden zwei Werte (z.B. mit 16 bit Breite) in einem Rechenzyklus miteinander multipliziert. Das Ergebnis ist dann stets 32 bit breit. Das Ergebnis sollte nun auf ein Register aufaddiert werden, auf einen Akkumulator.  Mit jedem Takt ein „Multiply Accumulate“. Pro Takt würde dann genau ein Paar von einem digitalen Filter ausgerechnet und summiert. Parallel zu der Rechenoperation können bereits die nächsten Werte in die Eingangsregister des Multiplizierer geladen werden. Dazu braucht man separate Datenleitungen und separate Datenzeiger.

Somit ist die Architektur verschieden von der Architektur wie man sie von Microprozessoren kennt, in der Daten und Programm im gleichen Speicher liegen. Rechenwerke die die oben beschriebenen Operationen effektiv durchführen nennt man digitale Signalprozessoren.

In den achtziger Jahren kamen die ersten Signalprozessoren auf den Markt. Der leistungsfähigste kam von Texas Instruments und hieß TMS 320 10. Er konnte innerhalb von nur 400 ns eine Multiply Accumulate durchführen. Dies sind 2,5 Millionen Multiplikationen und Additionen pro Sekunde. Bei einer Abtastrate von 8 kHz wäre es möglich zwischen zwei Abtastwerten über 300 Multiplikationen auszuführen. Dadurch war erstmals digitale Signalverarbeitung in Echtzeit möglich.

Beispiel Digitaler Signalprozessor, Texas Instruments TMS320 10 von 1982: Quelle: Datenbuch Texas Instruments

Sprachkodierung

In den achtziger Jahren gab es zahlreiche Entwicklungen auf dem Gebiet der digitalen Signalverarbeitung. Großes Interesse gab es für die Verarbeitung menschlicher Sprache. Vor allem die Telekommunikationsindustrie hatte daran Interesse und somit ist es kein Zufall, dass vor allen bei Bell Laboratories an Sprache gearbeitet wurde. Man hatte drei Ziele.

  • Sprache verstehen (Spracherkennung, Speech Recognition)
  • Sprache erzeugen (Sprachesynthese, Speech Synthesis)
  • Sprache komprimieren (Sprachkodierung, Speech Coding)

Ziel der Spracherkennung und der Sprachsynthese war es hauptsächlich, dass man bestimmte Dienste der Telefongesellschaften direkt mit einem Computer durchführen konnte. Es sollte also der Mensch-Maschine-Kommunikation über das Telefon dienen.

Sprachkodierung war für die (Fern)Übertragung von Sprache wichtig aber vor allen wie wir sehen werden für die Funkübertragung von Sprache.

Um zu verstehen, wie man Sprache komprimiert, sollte man wissen, wie Sprache erzeugt wird. Wir hatten im ersten Kapitel dieses Buches schon kurz darüber gesprochen. Es gilt ein Quellen-Filter-Prinzip bei der Erzeugung eines Sprachsignals. Die Quelle ist entweder die periodische Schwingung der Stimmlippen im Kehlkopf oder ein Rauschen irgendwo im Rachen- und Mundbereich. Der Rachen-Mundraum, der Vokaltrakt, bildet einen variablen Resonanzraum für die Schallwellen, die von der Quelle stammen. Dieser Resonanzraum verstärkt bestimmte Frequenzen und unterdrückt andere. Die Zonen mit Verstärkung bezeichnet man als Fomanten. Im Bereich von 100 Hz bis 3,5 kHz gibt es typischerweise drei solcher Formanten. Die Lage der Formanten bestimmen welche Laute gehört werden. Somit stecken in den Formanten die wesentlichen Informationen für die Sprache.

Formantfrequenzen und Vokale

Rein technisch entspricht jeder Formant einem speziellen Filter. Die Forschung der Bell Laboratories hatte Verfahren entwickelt, wie man diese Filter aus dem Sprachsignal schätzen kann. Diese Filter sind einfach und mit wenigen Parametern zu beschreiben. Nun gibt es zu jedem Filter ein inverses Filter, mit dem man quasi die Filterung „rückgängig“ machen kann. Wenn man also ein Sprachsignal „invers filtert“, bekommt man das Eingangssignal heraus. Wenn dieses Signal von der Stimmlippe stammt, also stimmhaft ist, kann man die entsprechende Periodizität bestimmen. Man geht davon aus, dass ein neuer Stimmpuls einem alten Stimmpuls sehr ähnlich ist, man praktisch eine neuen Stimmpuls aus dem Alten generieren kann. Rechnet man auch dieses Phänomen heraus bleibt ein sogenanntes Restsignal, das einem Rauschen stark ähnelt.

Quellen-Filter Model der Sprache

Das Verfahren mit der Filterschätzung nennt man Linear Predictive Coding (LPC). Es wurde bereits in den siebziger Jahren entwickelt und in den achtziger Jahren verfeinert. Man kann die Filter, die Periodizität der Stimmlippen und das Restsignal für einen Sprachblock separat codieren. Man kann zeigen, dass man hierfür deutlich weniger bits braucht, als wenn man das Sprachsignal direkt quantisiert. Eine Variante z.B. das Restsignal zu kodieren ist, ein Codebuch zu verwenden, in dem verschiedene Rauschsignale abgespeichert sind. Man wählt das Exemplar eines solchen Codebuchs, welches den geringsten Fehler in dem Quelle Filter Model erzeugt und kodiert nur die Nummer des Codebucheintrags.

Dieses Verfahren wurde 1986 von Bishnu Atal und Manfred Schroeder bei den Bell Laboratorien entwickelt und bildet bis heute die Grundlage der Sprachkodierung. Man spricht von Code Excited Linear Predictive Codecs (CELP). Sprachforschung fand nicht nur in den Bell Laboratiories statt. Manfred Schroeder war auch Leiter des dritten Physikalischen Instituts in Göttingen wo man in den achtziger Jahren intensiv an Spracherkennung, Sprachsynthese und Sprachkodierung forschte. Ein weitere Forschungsbereich in Göttingen war auch die Psychoakustik, die ebenfalls für die Kodierung von Sprach- und Musiksignalen von Bedeutung war. 

Bishu Atal
Manfred Schroeder

Anfang der neunziger Jahre waren verfügbare Signalprozessoren fortgeschritten genug, um Sprachcodecs in Echtzeit zu berechnen. Somit stand einer Anwendung für den aufkommenden digitalen Mobilfunk nichts mehr im Wege.

Abhörsicherheit

Ein weiterer guter Grund für eine digitale Übertragung war die Abhörsicherheit der Telefonate. In allen analogen Systemen wurde die Sprache FM-moduliert völlig ungeschützt übertragen. Im C-Netz System gab es zwar eine sogenannte „Verschleierung“ des analogen Signals, in dem man es spektral spiegelte, aber auch dies ließ sich leicht rückgängig machen. 

Bei AMPS, TACS und NMT konnte ein Amateurfunker mit etwas Geschick sich einfach auf einen der Funkkanäle setzen und Gespräche mithören. Angeblich soll das auch geschehen sein. Ein sehr prominentes Beispiel ist ein Telefongespräch welches 1989 aufgezeichnet wurde. Es war ein sehr intimes Telefonat zwischen Prinz Charles und seiner Geliebten Camilla Bowls. Prince Charles hat hierzu ein TACS Telefon verwendet. Diese Aufzeichnung hielt man lange unter Verschluss. Als man sie dann doch 1992 veröffentlichte und führte es zu einem Skandal, der das britische Königshaus erschütterte.

Anders als ein analoges Signal lässt sich ein digitales Signal sehr leicht verschlüsseln. Man braucht einen digitalen geheimen Schlüssel, welcher eine gewisse Länge hat und aus 0 und 1 besteht. Zur Verschlüsselung verknüpft man das digitale Signal mit dieser Folge mit einem logischen XOR, bevor man es überträgt. Auf der Empfängerseite benutzt man wieder ein XOR, um mittels des geheimen Schlüssels die Originalsequenz zurückzuerhalten. Solange der Schlüssel nicht bekannt ist, ist einen Entschlüsselung unmöglich.