Bis Ende der neunziger Jahre fokussierte sich die Entwicklung der Mobiltelefone darauf klein, leicht und preiswert zu sein und dabei immer längere Gesprächszeiten und Standby-Zeiten zuzulassen. Ab der Jahrhundertwende brauchte man nun neue Anreize, um Mobiltelefone zu verkaufen. Solche Anreize bestanden in zusätzlichen Funktionen, die man anbieten wollte. Dies wurde mit neuen Entwicklungen in der Technologie möglich vor allen:
- Display Technologie
- Speicher Technologie
- Computer Anschluss Technologie (USB)
- Kamera Technologie
- Audio (Speicherung und Abspielen von Musik)
- Radioempfang
- Spiele
Schließlich kam eine weitere wireless Technologie hinzu die es z.B. ermöglichte Schnurlose Headsets einzusetzen. Diese nannte man Bluetooth.
Display
Einer der Gründe, warum die Mobiltelefone ab Ende der neunziger Jahre nicht kleiner wurden, sondern eher wieder größer lag an den Displays. Anfangs war es noch völlig ausreichend ein 2 oder 3 Zeilen Display anzubieten in denen man Mobilfunkanbieter, Uhrzeit, Rufnummern, Namen oder Anrufstatus angezeigte. Daneben gab es Icons, welche sich immer mehr ähnelten, welche die Ladezustand der Batterie anzeigten und die Empfangsstärke des Netzes.
Aus Displays mit 2-3 Zeilen Ziffern wurden Grafikdisplays. Diese waren zunächst einfarbig, dann farbig.
Aber im Laufe der Zeit ging man von Zeilenanzeige zu einer Grafikanzeige über. Dies waren zunächst Displays mit 80 x 80 Pixeln Auflösung wie etwa das Nokia 3310. Ein Grafikdisplay hatte viel mehr Vorteile in der Gestaltung der immer komplexer werdenden Benutzer Menüs. Es konnten Icons eingeführt werden, welche das Navigieren in Menüs erleichterten.
1997 war brachte Siemens als erstes Gerät farbige Anzeigen. Allerdings dienten diese eher dazu Texte farbig darzustellen als Bilder zu gestalten. Erst 2001 erschien mit dem Sony-Ericsson T68 das erste Farbdisplay mit einer Auflösung von 101 x 80 Pixeln und 256 Farben. Dies ermöglichte nun die Darstellung von farbigen Bildern und Fotos.

Speicher
Wie bereits oben besprochen setzte man schon in der 2. Generation Mobiltelefon die Flash Technologie ein, um Programme zu speichern und gegebenenfalls zu ändern. Anfangs hoffte man noch, man könne den teureren Flash Speicher durch ein ROM, also einen festen Speicher ersetzen, aber die Programme waren so komplex, dass sie stets Updates benötigten und so blieben die Flash Speicher.
Aber auch Flash Speicher sind Integrierte Schaltungen und unterliegen Moores Law, d.h. sie wurden jedes Jahr kleiner und billiger bzw. sie hatten Jahr für Jahr mehr Kapazität. 1999 waren etwa 256 Mbit Flash Speicher ein gängiges Produkt. So ergab sich auch mehr Speicher für Anwendungen und zusätzliche Funktionen wie z.B. das Speichern von Bildern. Dennoch war gerade für Bilder der interne Speicher der Mobiltelefone lange Zeit sehr begrenzt.

2001 kam mit dem Siemens Telefon SL45 erstmals ein Gerät auf den Markt in welches man eine externe Speicherkarte stecken konnte. Dadurch war es sowohl möglich auf viel Speicher zuzugreifen und diesen auch leicht auszutauschen. Es war seinerzeit viel einfacher etwa Bilder mit Speicherkarten auszulesen, als dass man ein Gerät per Kabel mit einem PC verband.

Universal Serial Bus (USB)
Neue Anwendungen im Telefon machten es notwendig, Daten mit externen Geräten, meistens PCs auszutauschen. So wurde es wichtig Sicherheitskopien von internen Daten des Mobiltelefons zu erstellen, etwa den Einträgen im Telefonbuch oder Kalendereinträge im Mobiltelefonbuch mit solchen auf PCs zu synchronisieren. Hierzu benötigte man eine genormte Schnittstelle für den Datenaustausch.
In der Welt der PCs war gab es anfangs zwei Schnittstellen. Eine parallele Schnittstelle und eine serielle Schnittstelle. Die parallele Schnittstelle diente für schnelle Datenübertragung. Dies gelang dadurch, dass man durch ein ganzes Bündel von Kabeln ganze Datenwörter parallel übertrug. Meist schloss man Drucker über parallele Schnittstellen an. Dies geschah mit extrem dicken Kabeln und breiten Steckern.
Eine serielle Schnittstelle war meist ein „universal asynchronous receiver transmitter“ (UART). In dieser bewährten Schnittstelle wurden die Daten bit für bit seriell übertragen. Hierfür reichte meist eine Zweidraht-Leitung.
Mitte der Neunziger Jahre entwickelte die PC-Industrie (Intel, Microsoft, Compaq, DEC, IBM, Intel, Microsoft, NEC, und Nortel) einen neuen Leitungsstandard, welcher die parallelen und seriellen Schnittstellen ersetzen sollte. Diesen Standard nannte man den Universal Serial Bus (USB). Außerdem sollte es einfacher sein ein solches Interface zu verwenden. Statt dass spezielle SW im PC geladen und/oder aktiviert werden musste, sollte der PC von sich aus erkennen das ein Gerät an einer USB-Schnittstelle angeschlossen war und um was für eine Applikation es sich handelte. Man nannte dieses Konzept „Plug and Play“.
USB war von vornherein bidirektional konzipiert und sollte hohe Bitraten unterstützen. 1996 gab es bereits die ersten USB-Schnittstellen in von Intel. 1998 war die SW (von Microsoft) soweit und man verbaute USB in PCs mit Windows98 als Betriebssystem. Zunächst war die Datenrate noch auf 12 Mbit/s beschränkt.

Ab 1998 setzte man USB-Schnittstellen auch in Mobiltelefonen ein. So erschien eine USB-Schnittstelle erstmals in dem Qualcomm MSM3100 Chipset.
Im Jahre 2000 erschien USB 2.0 welcher die Datenraten dramatisch auf 480 Mbit/s erhöhte auf 480. Neu hinzu kamen auch neue Stecker vor allen mini A Connector. Er eignete sich vor allen um einen PC mit sehr kompakten Geräten wie kompakte digitale Kameras, MP3 Player oder Mobiltelefonen zu verbinden. 2004 war das Motorola Moto Razr V3 das erste Mobiltelefon mit einem MiniUSB Anschluss für Stromversorgung, Datentransfer und Kopfhöreranschluss.

Kamera
Charged Coupled Devices (CCD)
Schon früh war bekannt, dass eine Halbleiterdiode unter Lichteinfluss besondere Eigenschaften hat. Betreibt man eine Diode in Sperrrichtung leitet sie keinen Strom. Fällt jedoch Licht auf die Diode so werden Elektronen „freigeschlagen“ und erzeugen einen Strom, und zwar je mehr Licht, umso mehr Strom.
Wenn man nun Lichtdioden für eine Kamera (statt Filmmaterial) nutzen will, muss man Lichtdioden in einer Matrix anordnen. Z.B. 100 x 100 Dioden auf einer Fläche, die dann mittels einer Optik beleuchtet wird. Jede Diode entspricht einem Lichtpunkt des Bildes den man als Pixel bezeichnet. Pixel ist ein Kunstwort bestehend aus der Abkürzung von Picture (Pix) und Element (el).
Man möchte aber bei einer Aufnahme keine kontinuierlichen Ströme, sondern Spannungswerte. Diese kann man erzeugen in dem man über die Dioden während der Belichtung kleinste Kondensatoren auflädt. Die Ladung des Kondensators entspricht dann der Lichtmenge, die auf das Pixel getroffen ist. Es ist nun recht einfach auf einem Silicium Plättchen eine ganze Matrix von Dioden mit zugehörigen Kondensatoren zu erzeugen aber das Problem ist: Wie kann man die Ladung der Kondensatoren „auslesen“.
Die Lösung kam von zwei Forschern der Bell Laboratories Ende der sechziger Jahre, obwohl sie überhaupt nicht an Lichtdioden arbeiteten, sondern an Speicherelementen. Ihre Namen waren Williard Boyle und George E. Smith. Für ihre Arbeiten bekamen sie 2009 den Nobelpreis für Physik. Auch sie arbeiteten mit Kondensatoren auf Silizium, welche sie laden und auslesen wollten und zwar um bits zu speichern. Boyle und Smith erfanden ein Verfahren wie die Ladung von einem Kondensator zu einem benachbarten (leeren) Kondensator überträgt. Dies geschieht durch Veränderungen von den Spannungen an den entsprechendenKondensatoren. Die unten liegende Zeichnung zeigt das Verfahren.

Man leitet somit die Ladung wie in einer „Eimerkette“ weiter bis sie das Ende der Siliziumfläche erreicht. Hier kann man dann die Ladung etwa mit Hilfe eines Analog Digital Wandlers in einen digitalen Wert umwandeln. Auf diese Art und Weise kann man Ladungen sowohl auf eine Siliziumfläche aufbringen und speichern aber auch wieder auslesen. Dies war der ursprüngliche Plan von Boyle und Smith. Allerdings setzte sich dieses Verfahren nicht für die Speicherung von digitalen Daten durch. Dafür erwies es sich als sehr vorteilhaft um Ladungen, die durch Belichtung erzeugt wurden auszulesen. Somit war ein CCD-Sensor möglich wie er für Kameras gebraucht wird.
Rasch begannen einige Halbleiterfirmen entsprechende CCD-Sensoren zu bauen. Die Firma Fairchild gelang es 1975 einen 100 x 100 Pixel Sensor herzustellen. Diese verbaute man in die ersten digitalen Kameras, welche von Kodak hergestellt wurden. Allerdings konnten man anfangs nur einfache Bilder in Schwarz Weis aufnehmen und das mit geringer Auflösung.
Digitale Kameras
Hochwertigere Kameras entstanden für Satelliten und die Raumfahrt. So erhielt ein Spionagesatellit der Ende 1976 gestartet wurde bereits einen 800 x 800 Sensor. Das erste erfolgreiche Kameraprodukt kam von 1983 Sony und war die Videokamera CCD-G5.
Für Kameras fehlte lange ein geeignetes Speichermedium. Erste Kameras Ende der achtziger Jahre hatten noch statisches RAM als Speichermedium. Erst Ende der neunziger Jahre setzte sich die auswechselbare Flash Karte für digitale Kameras durch, etwa 40MB Flash von Toshiba.

Das erste Mobiltelefon mit eingebauter Kamera wurde 1999 von Kyocera für den Japanischen i-phone Markt produziert. Bemerkenswert war, dass die Kamera in der Front eingebaut war und somit ein „Selfie“ also ein Bild vom Nutzer aufnimmt. Die entsprechenden Fotos übertrug man nicht unbedingt auf einen PC sondern verschickte sie per E-Mail über das mobile Internet.
In Europa dauerte es noch drei Jahre bis die ersten Mobiltelefone mit Kamera erschienen. Eines der ersten war das Nokia 7650 welches 2002 erschien als GPRS bereits eingeführt wurde. Es war auch hauptsächlich ein Telefon für mobiles Internet. Es konnte Bilder mit VGA-Auflösung (640 x 480 Pixel) und 16 Millionen (24 Bit) Farben darstellen. Das Telefon war ein „Slider“. Die Kamera wurde durch Aufschieben des Telefons freigelegt. Das Nokia war auch das erste Mobiltelefon von Nokia mit einem Betriebssystem namens Symbian.

Audio
Moving Picture Expert Group (MPEG)
In den achtziger Jahren gab es Bestrebungen auch Filme bzw. Videos ähnlich wie vorher Audio zu digitalisieren. Bislang konnte man Videoaufnahme nur analog auf Videoband ausführen.
Der japanische Ingenieur Hiroshy Yasuda von Nippon Telegraf and Telefone (NTT) und der italienische Ingenieur Leonardo Chiariglione von Centro Studi e Laboratori Telecomunicazioni (CSELT) in Italien gründete eine Organisation namens Moving Picture Expert Group (MPEG). Sie tagte das erste mal im Mai 1988. Ziel war es einen Standard zu definieren für Video und Audio zwecks Speicherung auf Video CDs, einem Vorläufer der DVD. Dieser Standard trägt den Namen MPEG-1. 1993 wurde der Standard das erste Mal veröffentlicht.
Bei der Entwicklung eines Bildkodierverfahrens konnte MPEG bereits auf einen Standard zurückgreifen welchen die ITU-T (International Telecommunication Union Telecommunication Standardization Sector) bereits 1988 als H.261 spezifiziert hatte. Man setzte ihn in den achtziger Jahren für Videokonferenzen ein.
Für die Audiokodierung gab es verschiedene Verfahren welche man mit als MP Audio Layer 1, MP Audio Layer 2 und MP Audio Layer 3 (kurz MP1, MP2 und MP3) bezeichnete.
Psychoakustik
Der hörbare Bereich für den Menschen geht von 20 Hz bis 16 kHz. Um ein breitbandiges Audiosignal zu quantisieren, muss man mit mindestens 40 ksample/s abtasten mit einer Genauigkeit von 16 bit um den gesamte Dynamikbereich des Hörens zu erfassen. Bei CD-Aufnahmen benutzt man eine Abtastrate von 44100 sample/s. Somit fallen 2 x 440100 x 16 bit (1,4112 Mbit/s) an. Diese Datenraten sind zu hoch, um sie noch neben Videodaten speichern zu können. Ziel einer guten Codierung war stets auf 128 kbit/s zu kommen, um z.B. Audio über digitale Telefonlinien zu transportieren. Somit musste die Audiodatei um mehr als einen Faktor 10 komprimiert werden. Leider kann man hier nicht ähnliche Methoden wie bei Sprachkodierern einsetzten da man nicht von Sprache als Ursprung ausgehen kann.
Es gibt maßgeblich zwei Elemente die eine Kompression der Daten für Audiodateien zulassen ohne das die Qualität der Aufnahme (deutlich) leidet. Ein Element ist die Tatsache, dass verschieden Teilbereiche des hörbaren Spektrums unterschiedlich bedeutsam für das Hören sind. Besonders empfindlich und störanfällig sind Bereiche im tiefen bis mittleren Spektrum, etwa von 60 bis 2000 Hz. Bei höheren Frequenzbereichen ist eine genaue Kodierung nicht mehr so wichtig. Daher lohnt es sich das Audiosignal in Unterbänder einzuteilen und diese unterschiedlich genau zu kodieren.
Das zweite wesentliche Element kommt aus dem Bereich der Psychoakustik. Durch die Anatomie des Hörapparats ist man nicht in der Lage alle Nuancen zu hören welche etwa bei einer spektralen Analyse des Signals sichtbar sind. Wenn z.B. wie in der folgenden Abbildung ein lauter Ton bei 1 kHz gespielt wird, so kann man leisere Töne unterhalb und oberhalb dieser Frequenz, welche unter eine sogenannte Maskierungsschwelle fallen nicht mehr hören. Sie werden maskiert. Wir alle kennen diesen Effekt, etwa beim Staubsaugen oder Haartrocknen. Wenn der laute Motor läuft, können wir z.B. keine Musik mehr im Radio mehr hören, obwohl das Musiksignal eigentlich immer noch da ist und bei einer normalen digitalen Aufnahme auch sichtbar wäre.
Einen ähnlichen Effekt hat man auch im Zeitlbereich. Wenn ein lautes Signal für eine kurze Zeit gespielt wird, kann man kurz davor und danach keine leiseren Töne mehr hören. Man spricht von Vor- und Nachmaskierung.

Diese Maskierungen kann man sich zusätzlich zu den Bandeffekten zu Nutze machen. Man erzeugt dadurch ein neues Signal, welches eventuell zeitlich als auch spektral von dem Original unterscheidet aber sich dennoch genauso anhört.
MP3
Generell wurde in den achtziger Jahren an vielen renommierten Forschungseinrichtungen Weltweit an Audiokodierung unter Einbeziehung von psychoakustischen Effekten geforscht. Man sprach von Adaptive Spectral Perceptual Entropy Coding (ASPEC). Es beteiligten sich vier Gruppen an der Standardisierung von MP3 welches zu noch höherer Kompression bei geringer Komplexität führen sollten.
- ASPEC (Adaptive Spectral Perceptual Entropy Coding):
Frauenhofer Gesellschaft, AT&T Bell Labs, France Telecom und Thomson Brandt (Frankreich) - MUSICAM (Masking pattern adapted Universal Subband Integrated Coding And Multiplexing):
(Matsushita, CCETT (Frankreich), ITT (Deutschland) und Philips (Holland) - ATRAC (Adaptive Transform Acoustic Coding):
(Fujitsu, JVC, NEC und Sony (alle Japan) - SB-ADPCM (Subband Adaptive Differential Pulse Code Modulation):
NTT (Japan)
1991 prüfte und bewertete man diese Verfahren. MUSICAM erwies sich als robust und sehr effizient. Es wurde dadurch generell die Basis für die Sub Band Kodierung.
Basierend auf MUSICAM entwickelte die Firma Philips MP1 als erstes Verfahren zur Kompression von Musik. Philips entwickelte in den Neunzigern eine sogenannte Digitale Compact Cassette (DCC), einen Nachfolger seiner berühmte Compact Cassette aber mit besserer Audioqualität. Die Ingenieure von Philips unterteilten hierzu das Audiosignal in 32 Teilbänder. Dadurch konnte man das Audiosignal für MP1 auf 364 kbit/s reduziert werden bei fast gleicher Audioqualität. Philips nannte das Verfahren PASC (Precision Adaptive Sub-band Coding). Leider wurde die DCC ein Flop. Sie hatte gegenüber den bald folgenden MP3 Playern zu viele Nachteile. Ein Magnetband als Datenspeicher hatte ausgedient.
Der Standard MP2 basierte ebenfalls auf MUSICAM. Er war jedoch so verfeinert, dass man tatsächlich Bitraten von 256 (128kbit/s pro Kanal) erreichte. Ziel für MP2 war vor allen der aufkommende digitale Radiostandard Digital Audio Broadcasting (DAB). MP2 wurde jedoch auch für Digital Video Broadcasting (DVB) verwendet.
Eine Arbeitsgruppe von 6 Forschern von CSELT, AT&T Bell Labs und Frauenhofer übernahmen die Algorithmen von MUSICAM und brachten wesentliche Elemente ihres ASPEC Projektes in die Arbeit ein. Hier war vor allen Karlheinz Brandenburg vom Frauenhofer Institut aktiv. Dieser arbeitete bereits über 10 Jahre an Audio Codierung auf der Universität Nürnberg Erlangen. 1989 erhielt er ein Patent für Audio Codierung welches dann in den finalen Standard von MP3 einging. MP3 erreichte bei einer Bitrate von 128 kbit/s die gleiche Qualität wie MP2 mit 192 kbit/s. 1994 wurde MP3 als Standard veröffentlicht.
Veröffentlicht wurde auch der Quellencode von MP3 und so konnte man auf verschiedenen Rechnersystemen MP3 kodieren und dekodieren. Mit den stets leistungsstärkeren PCs war es bald möglich den Decoder, also das Abspielen von MP3 Daten in Echtzeit durchzuführen. Dies machte MP3 interessant zum Speichern und Abspielen von Musik auf digitalen Speichern. Nur das Kodieren musste lizensiert werden, das Dekodieren war frei. Bald erwarben SW Hersteller Lizenzen für Programme von MP3 Kodierern die man auf dem Markt kaufen konnte.
MP3 Player
1998 erschien mit dem MPMan F10 aus Korea der erste Tragbare MP3 Player mit einem FLASH Speicher. Allerdings nur mit 32 Mbyte Speicher. Dies war der Anfang eines einsetzenden Booms von MP3 Playern. MP3 änderte fortan das Musikgeschäft nachhaltig da durch MP3 Tauschhandel im Internet Nutzerrechte umgangen wurde.

Mit dem Siemens SL45 erschien 2001 das erste Mobiltelefon mit MP3 Player. Leider war dieses Gerät seiner Zeit voraus, da der MP3 Boom noch nicht voll eingesetzt hatte. Es war als „Businessphone“ auch zu teuer für die jugendliche Zielgruppe. Größere Verbreitung gab es etwa 2005 als Sony Ericsson das W800 Walkman Mobiltelefon herausbrachte, das mit 512 Mbyte Flash Memory bereits eine große Anzahl an Musikstücken speichern konnte.
UKW Empfänger
Seit der Einführung des Transistors waren UKW-Empfänger bereits sehr klein und ausreichend für „Taschenradios“. In den achtziger Jahren arbeiteten Ingenieure von Philips in Hamburg an einem winzigen IC, welcher praktisch die gesamte UKW-Funktionalität von der Antenne bis zu Lautsprecher auf wenige Quadratmillimeter vereinigte. Man brauchte nur noch einen externen Regelkondensator für die Frequenzeingabe. Philips verkaufte Millionen dieser Chips vor allen für billige Radiowecker die in Japan gebaut wurden. Bald folgten Chips, deren Frequenz auch digital durch einen Controller gesteuert werden konnten. Das machte sie interessant für einen Einsatz in Mobiltelefonen.
Das Nokia 8310 war 2001 das erste Mobiltelefon mit UKW-Radioempfang.
Spiele
Die Prozessoren der Mobiltelefone Ende der neunziger Jahre wurden stets leistungsfähiger. Es war somit nur eine Frage der Zeit, dass man begann Spiele auf einem Mobiltelefon zu programmieren. Dies wurde dadurch beflügelt, dass wie oben beschrieben die Displays inzwischen einfache Grafiken zuließen.
Nokia war hierbei wieder ein Pionier. 1997 erschien das Nokia 6110 dass das Spiel Snake beinhaltete. Snake war ursprünglich ein frühes Computerspiel aus den siebziger Jahren welches damals auf Konsolen gespielt wurde. Später lief es auch auf einigen Heimcomputern. Auf einem Mobiltelefon war Snake nun ein willkommener Zeitvertreib für (nicht nur junge) Benutzer. Allerdings waren solche Spiele fest einprogrammiert. Es konnten keine weiteren Spiele erworben werden. Dies änderte sich erst mit WAP fähigen Telefonen. Hier konnten Spiele sowohl gekauft als auch heruntergeladen werden. So kamen weitere Spiele wie PacMan, Space Invaders oder Tetris.
Für das Herunterladen von Spielen wurde es auch wichtig, dass die Mobiltelefone entsprechende Betriebssysteme einführten. Beispiele waren JavaMS oder Symbian.

