FAKULTÄT FÜR MATHEMATIK |
Interaktive Kommunikation, Diagnose und Vorhersage in Netzwerken
Darstellung der erreichten Ergebnisse
Erstantrag
I Interaktive Kommunikation
A Interaktive Datenübertragung
1. Informationsflüsse
Unser Vortrag am 23.07.2002 in Konstanz konzentrierte sich auf den Min-Max Satz aus [5] über Informationsflüsse in Netzwerken. Neben dem üblichen Kopieren von Daten ist auch Codieren von weiterem Vorteil und führt zu einem optimalen Ergebnis. Damit ist der Unterschied von Informationsflüssen und Güterflüssen in Netzwerken vollständig verstanden. Während die Multi-user Informationstheorie für die wir den ersten Kanalcodierungssatz bereitstellten ([A12], [A18], []), mit Schwierigkeiten stochastischer Störungen und Korrelationen kämpfte und nur kleine Zahlen von Sendern und Empfängern behandeln konnte, zeigt der neue Satz, dass auch schon für störungsfreie Kanäle echte Probleme entstehen und gelöst werden konnten - und zwar für ganze Netzwerke von Kommunikatoren. Inspiriert durch den Vortrag haben Peter Sanders und seine Koautoren S. Egner und L. Tolhuizen [] den Existenzsatz um einen effizienten Algorithmus bereichert (Vortrag ``Polynomial time algorithms for networks information flow'' am 27.03.2003 in Tübingen). Dieses Ergebnis und die Arbeiten unseres langjährigen Mitarbeiters Ning Cai und Koautoren ([P1], [P2]), die den Min-Max Satz in Standardrichtungen (z.B. für störende aber unabhängige Kanäle) weiterführen, wurden auf dem von den zwei vom DFG geförderten Miniworkshops mit den Teilnehmern diskutiert. Neuere weiterführende Forschungsvorhaben werden in Sektion 3 formuliert. Es wurden 15 Vorträge gehalten, die in Anlage 4 zu finden sind.
2. Konnektoren
Der Beitrag der Kieler Baltz, Jäger und Srivastav [9] über Konnektoren die Bielefelder Gruppe besonders angeregt (Vortrag von Anand Srivastav ``Algorithms and Design for Multicast Networks'' am 27.03.2003 in Tübingen) und zu den Arbeiten [P15] und [P3] geführt. Das Problem des Entwurfs von optimalen Konnektoren (``rearrangeable networks'') geht auf die Pionierarbeiten von Shannon [21], Slepian [22], Clos [12] und Benes [10] zurück. Gegeben , sei ein Digraph, dessen Knotenmenge partitioniert ist in Eingangsknoten , Verbindungsknoten und Ausgangsknoten , so dass , und für jede injektive Abbildung es einen Knoten-disjunkten Pfad gibt, der mit verbindet, für alle . Dann heisst ein -Konnektor.
Ein
-Konnektor heisst
-Konnektor, falls jeder Ausgang von jeden Eingang aus via eines Pfades der Länge
erreicht werden kann.
ist die minimale Kantenanzahl solcher Konnektoren.
Symmetrische Konnektoren, d.h.
-Konnektoren sind
untersucht worden in [19], [20], [14].
Oruc [17] hat als erster
Konnektoren konstruiert. Der anspruchsvolle Fall ist
.
In [9] wird bewiesen, dass ein
Konnektor der die Bedingungen:
Ein Graph mit gegeben durch unsere Konstruktion mit Grad
4. Zufällige Verbreitung in Netzwerken (Random Walks)
Da vom kombinatorischen Standpunkt aus ein Netzwerk ein Graph (Hypergraph) mit gewichteten Kanten ist, ist die Untersuchung von Eigenschaften von Graphen von Interesse. In der aktuellen Arbeit [A194] haben wir gezeigt, wie unser Resultat über die Zahl von gekennzeichneten Hypergraphen angewendet werden kann, um das Volumen des gigantischen -Kerns in einem zufälligen Hypergraphen zu bestimmen. -Kern bedeutet hier, dass jeder Knoten des Hypergraphen inzident mit mindestens Kanten ist. ``Process-Level Large Deviations'' für stückweise homogene Random Walks spielen eine Schlüsselrolle bei der Untersuchung von probabilistischen Eigenschaften der Verbreitung von Daten in Netzwerken. Das normale Schema von zwei Flüssen wird beschrieben durch einen Random Walk in zwei Halbräumen mit unterschiedlichen Dynamiken in jedem Raum. Das Problem der grossen Abweichungen wurde für diesen Fall in [11] gelöst. Gleichzeitig ist dieses Problem im Falle von mehr als zwei homogenen Teilen weitaus schwieriger und nur wenig ist darüber bekannt.
5. Kommunikationskomplexität
In diesem Gebiet sind keine Arbeiten entstanden. In den 80-er Jahren haben wir intensiv auf diesem Gebiet gearbeitet. Erinnert sei an die Arbeiten ([A61], [A81], [A82], [A88], [A93], [A120]). Ferner sei auf inzwischen umfangreiche Lehrbuchliteratur verwiesen.
B Interaktive Codierungstheorie
Bereits im Erstantrag wurde auf eine Erweiterung der algebraischen Codierungstheorie für mehrere Sender und Empfänger hingewiesen. Die Ergebnisse der bereits erwähnten Arbeit [5] legen es nahe Informationsflüsse in Netzwerken zu untersuchen, die oben genannten Typen von Fehlern unterliegen.
1. Unkonventionelle Fehler und Kodierungen
Es gibt verschiedene unkonventionelle Konzepte von Fehlern wie unidirektionale Fehler, Defekte, Löschungen, Einsetzungen, unsynchronisierte Fehler, lokalisierte Fehler usw., die unkonventionelle Codes zur Erkennung und Korrektur benötigen. In der Arbeit [P5] haben wir -äre Codes eingeführt und untersucht, die in der Lage sind alle unidirektionalen Fehler eines gewissen Levels zu korrigieren. Untere und obere Schranken für die Größe dieser Codes werden präsentiert. Wir betrachten eine spezielle Art von asymmetrischen Fehlern in einem -ären Kanal. Das Alphabet besteht aus den ganzen Zahlen und für jeden gesendeten Vektor ist der Ausgang von der Form , wobei `` '' für die Addition von reellen Zahlen steht und , . Wir sagen, dass ein asymmetrischer Fehler vom Level ist, falls . Wir sagen auch, dass asymmetrische Fehler aufgetreten sind, falls für das Hamming-Gewicht gilt. Entsprechend sagen wir, dass unidirektional Fehler aufgetreten sind, falls der Ausgang entweder oder ist. Wir betrachten -äre Codes, die alle asymmetrischen oder unidirektionalen Fehler eines gegebenen Levels korrigieren. Dementsprechend benutzen wir die Abkürzungen -AAEC- und -AUEC-Codes. Für gegebenes sei und die maximale Zahl von Codewörtern in einem -ären Code der Länge , der alle asymmetrischen bzw. unidirektionalen Fehler korrigiert. Es ist klar, dass . Es stellt sich heraus, dass man leicht für alle Parameter und bestimmen kann. Dies trifft jedoch für den Fall von unidirektionalen Fehlern nicht zu.
Theorem 1 (i) Für
gilt
und folglich auch
Zunächst betrachten wir Codes, die über eine gewisse lineare Gleichung über den reellen Zahlen definiert sind. Gegeben und sei
Für gegebene definiere als die maximale Größe eines -AUEC-Codes über dem Alphabet , der durch obige lineare Gleichung definiert wird. Entsprechend benutzen wir für -AAEC-Codes. Theorem 2
Theorem 3
(i) Für
und
, gilt
für eine Konstante
.
Das Problem des Schutzes gegen unidirektionale Störungen entsteht in Systemen mit
optischer Nachrichtenübertragung, beim Entwurf von fehlertoleranten sequentiellen Maschinen,
in asynchronen Systemen usw.
2. Synchronisation und Delay
In [P19] werden Synchronisationscodes mit konstanter Blocklänge besprochen. Es wird eine Konstruktion eines Codes mit Abstand und Blocklänge angegeben. Diese Konstruktion ist optimal für genügend großes und fest gewähltes . Ein binäres deBruijn Netzwerk der Ordnung ist ein ungerichteter Graph , wobei die Knotenmenge ist und ist eine Kante genau dann wenn
C Interaktive Identifikation
1. Allgemeine Theorie des Informationstransfers, gemeinsame Zufälligkeit (Common Randomness), Zufallszahlen
Alle hier dargestellten Ergebnisse wurden in Kooperation mit dem DFG-Projekt AH46/1-1,1-2, 4-1 erzielt. Ausserdem soll die Forschung in einem neubeantragten DFG-Projekt fortgeführt werden. Nehmen wir an, eines von möglichen Ereignissen hat sich zugetragen. Die Shannon'sche Informationstheorie beschäftigt sich mit der Frage ``Welches Ereignis hat sich zugetragen?''. Bei der Identifikation fragt man ``Hat sich Ereignis zugetragen?''. Dabei ist irgendein Element aus . Erlaubt man eine kleine Fehlerwahrscheinlichkeit, so kann man (auch für störende Kanäle) durch randomisierte Strategien die Identifikation mit Bits durchführen, während das herkömmliche, naive Verfahren Bits benötigt. Dieses Phänomen wurde in [A58] entdeckt und analysiert. Genauer wurde gezeigt, daß in erster Näherung mit Bits gerade eines von vielen Objekten identifiziert werden kann. Hierbei ist die bekannte Shannonsche Kanalkapazität, d.h. in erster Näherung kann gerade eine von vielen Nachrichten übertragen werden. Es ist überraschend, daß bei beiden Problemen dieselbe Konstante auftritt, d.h. die Identifikationskapazität 2-ter Ordnung ist gleich Shannon's Übertragungskapazität 1-ter Ordnung.
Die Theorie ist inzwischen in verschiedene Richtungen weit entwickelt
worden. Sie ist von mehreren Autoren (Anantharam, Bassalygo, Bäumer,
Burnashev, Cai, Csiszár, Han, Kleinewächter, Narayan, van der Meulen,
Verboven, Verdu, Yang, Zhang).
Fundamentale Phänomene sind:
Die Theorie der Identifikation fand interessante Anwendungen bei Alarmsystemen ([]) und Wasserzeichen ([], [], []). Wie in [] herausgestellt wurde ist die Kombination von Übertragungscodes und Identifikationscodes nützlich für gewisse Aufgaben der Identifikation über einen ``multiple-access'' Kanal. Dies kann z.B. für öffentliche Notdienste zutreffen, die in einem Gebiet viele Arten von verschiedenen Anfragen einer großen Zahl von Individuen versorgen, die für sich genommen selten eine kurze Nachricht gefolgt von einer Anfrage senden. Unter Wasserzeichensignierung versteht man eine Methode, geheime Information in eine Nachricht (z.B. ein Bild) einzubetten, die weder entfernt noch dekodiert werden kann ohne Zugriff auf den geheimen Schlüssel. Dieses kann zum Schutz von Urheberrechten eingesetzt werden. Eine sehr ausführliche Liste mit Referenzen hierzu findet man in [A186].
2. Watermarking
Wir haben in [P7] die Untersuchungen von Y. Steinberg und N. Merhav fortgesetzt und insbesondere einige ihrer Fragen zur Robustheit bei Watermarking-Identifikations Codes beantwortet. Beim Watermarking geht es darum, eine geheime Information in einer gegebenen Nachricht zu verbergen, so dass diese von jemandem, dem der geheime Schlüssel unbekannt ist, nicht entfernt und entschlüsselt werden kann. Y. Steinberg und N. Merhav regten an, die folgenden Fälle zu untersuchen.
Da die Internet-Technologie sich so schnell entwickelt, ist der Schutz des Urheberrechts offensichtlich von immer größerer Bedeutung. Wir bemerken hier, dass nach unserer Kenntnis der Angriffs-Kanal in [A186] zu den robustesten der in dieser Richtung untersuchten zählt. In der Arbeit [P8] werden Anwendungen von Watermarking ausführlich dargestellt.
3. Identifizierbare Eltern Eigenschaft (IPP, identifiable parent property)
Um gegen Software Piraterie geschützt zu sein, haben H.D.L. Hollmann, J.H. van Lint, J-P. Linnartz, und L.M.G.M. Tolhuizen in [13] Codes mit identifizierbarer Eltern Eigenschaft (IPP) wie folgt eingeführt. Es sei ein endliches Alphabet. Wir sagen eine Folge ist ein Nachkomme der Folgen oder und sind Eltern von , falls für . Eine Teilmenge heisst IPP-Code, falls für jeden Nachkommen eines Paars von Folgen aus zumindest eine Eltern-Folge identifiziert werden kann (ohne Fehler). Die obigen Autoren waren an der maximalen Größe von IPP-Codes interessiert. Mit elegeanten Ideen konnten sie Schranken für einige der Parameter herleiten. Jedoch ist im allgemeinen das Problem weit offen, sogar was die asymptotischen Raten betrifft. R. Ahlswede und N. Cai [P9] bemerkten, dass das Problem in [13] als das folgende Kommunikationsproblem für Multiple-Access Kanäle (MAC) umformuliert werden kann. Sei ein MAC für den beide Eingangsalphabete und das Ausgangsalphabet darstellt und genau dann, wenn ist, für alle . Dann hat ein Code die IPP Eigenschaft genau dann, wenn der Dekodierer des MAC wenigstens eins der Codewörter und mit Wahrscheinlichkeit bestimmen kann, falls die Sender unabhängig voneinander und beliebig Codewörter und aus auswählen und sie über den Kanal schicken. R. Ahlswede und N. Cai haben wie folgt ein alternatives Modell ``mit zwei Geschlechtern'' betrachtet. Gegeben ein MAC dessen Eingangsalphabete und und Ausgangsalphabet nicht notwendigerweise gleich sind. Sie suchten ein Paar von Codes und mit maximaler Summe der einzelnen Raten , so dass der Empfänger wenigstens eines der Codewörter und mit beliebig kleiner durchschnittlicher Fehlerwahrscheinlichkeit oder mit Null-Fehlerwahrscheinlichkeit dekodieren kann, falls die zwei Sender und über den Kanal schicken. In der Variante mit zwei Geschlechtern bestimmten R. Ahlswede und N. Cai die optimale Summe der Raten oder die Kapazität für beliebig kleine durchschnittliche Fehlerwahrscheinlichkeit in [P9]. Die zwei Gründe für den Erfolg sind:
D Broadcasting
In [P10] betrachten wir ein Kommunikationssystem mit einem Sender (oder Kodierer) und zwei Empfängern (oder Dekodierern) und mit störungsfreiem Feedback und ungleichem Fehlerschutz. Der Sender möchte simultan eine Nachricht an (Dekodierer 1) und eine Nachricht an (Dekodierer 2) schicken und er kodiert jedes Paar von Nachrichten in eine binäre Folge der Länge . Diese Folge wird an die zwei Empfänger über zwei unabhängige Kanäle geschickt. Wegen der Störung des Kanals kann die Ausgabefolge, die von den zwei Empfängern erhalten wurde, in höchstens bzw. Bits Fehler enthalten. Desweiteren nehmen wir an, dass es störungsfreien Feedback gibt. Das heisst, der Sender darf das -te Bit der Eingabe abhängig von den ersten Bits beider Ausgabefolgen wählen. Wir nennen den Code einen binären Feedback Code (oder kurz einen FB-Code) für den Broadcast Kanal wenn für . Ein Codewort ist von der Form , wobei eine Funktion für den -ten Code-Buchstaben ist, welche abhängt von der Nachricht die wir übermitteln möchten und den Bits die von Dekodierer 1 und 2 erhalten wurden, wobei . Zudem nennen wir eine gemeinsame Strategie (des Senders und der Empfänger). Wir präsentieren einen Code der eine bessere Rate als der in [8] gibt, wobei Feedback nur einmal während der gesamten Übertragung benutzt wird. Die Idee ist es, die Bits in zwei Runden zu schicken. Zuerst übermittelt der Sender Bits (die binäre Darstellung der Nachricht für ). In der zweiten Runde kodiert er das Fehlermuster der ersten Runde und die Nachricht für . Die Idee erst die Bits für zu schicken ist ähnlich zur Idee die in [2] benutzt wird. Wir präsentieren zudem eine äußere Schranke für die Ratenregion. Wir leiten diese äußere Schranke her indem wir die Idee des Isoperimetrischen Satzes für Hammingräume benutzen. Wir leiten eine untere Schranke für die Anzahl der möglichen Ausgabefolgen für jede Familie von Kodierfunktionen und jede Menge von Fehlermustern eines Feedback Codes her. Weitere Probleme aum Broadcasting sollen im neubeantragten Projekt ``Informationsflüsse'' untersucht werden.
II Diagnose
Die in diesem Abschnitt beschriebenen Suchprobleme sollen in einem neubeantragten Projekt weiter untersucht werden. 1. Diagnose als Suchen mit beschränkten Mengen
Bei der Analyse der Arbeit [15] zur Überdeckung von Knoten für die Fehlerdiagnose im Hyperkubus haben wir bemerkt, dass die Essenz ein Suchproblem darstellt mit Restriktionen an die Teilmengen , die als Fragen gestellt werden, ob sie das unbekannte Element enthalten. Schon Renyi fragte nach dem minimalen trennenden System mit für . Katona gab eine Entropieschranke als untere Schranke für an und eine etwas andere obere Schranke, die von Wegener verbessert wurde (siehe Ahlswede/Wegener Suchprobleme). Überraschenderweise - diese Resultate nun schon seit mehreren Dekaden kennend - interessierte uns nun, ob diese Entropieschranke scharf ist, wenigstens approximativ und wir waren in der Lage dies zu beweisen ([P28]). Während eine standardmäsige zufällige Wahl der Menge selbst bei nicht beschränkten Mengen bekanntlich ([]) um einen Faktor 2 vom Optimum entfernt ist, gelingt jetzt die Lösung mit nur einigen Experten bekannten Expurgationstechnik der Informationstheorie. Ferner, wenn die Teilmengen durch Hammingkugeln in ersetzt werden, gelangen wir immer noch zur Entropieschranke. Dieses löst das obige Problem zur Fehlerdiagnose.
2. Delay
Als nächstes fassen wir die Ergebnisse der Arbeit [P11] zusammen.
Das wird in Kapitel 3 des Buches [] von R. Ahlswede und I. Wegener beschrieben. Dort werden auch Ahlswedes Kodierungsschema für den DMC und auch für beliebig variierende Kanäle (AVC) beschrieben, die die Kapazitäten erreichen. Das letztere kann als robustes Modell der Suche angesehen werden. In [P11] haben wir für -Verzögerungs binäre Such Codes eine Ungleichung vom Kraft-Typ gefunden, die mit obiger äquivalent ist.
3. Sequentielle Suchmodelle mit Fehlern
4. Monotonicity Testing and Property Testing
III Vorhersagetheorie in Netzwerken
Lars Bäumer, dessen Dissertation Vorhersagetheorie in Verbindung mit Identifikation behandelte, hat nicht wie bei der Antragsstellung geplant an diesem Projekt mitgearbeitet, da er mein Forschungsprojekt am Zif als Assistent unterstützt. Er hat sich dort biologischen Fragestellungen zur Evolution von Sprachen und zur Tierkommunikation gewidmet. Vorhersagetheorie wurde deshalb in diesem Projekt nicht betrieben. Die BAT IIa-Stelle dieses Projektes hatte durchgehend Harout Aydinian inne.
IV Zwischenspeicher Managementstrategien in Netzwerken und Creating Order
Christian Wischmann wird dieses Thema in seiner Doktorarbeit behandeln. Seine ersten Ergebnisse präsentierte er auf dem Jahreskolloquium in Aachen 2006.
1.Fortsetzungsantrag
I Interaktive Kommunikation
A Interaktive Datenübertragung
1. Informationsflüsse
Unsere Arbeit [A155] aus dem Jahre 2000 hat mittlerweile eine neue Forschungsrichtung begründet. Dies wird deutlich, wenn man sich die ``Network Coding Home Page'' von Ralf Koetter (``http://tesla.csl.uiuc.edu/ koetter/NWC/index.html''), unser Buch [6] oder auch die Kapitel 11 und 15 des Lehrbuches [23] anschaut. Nach der Datenbank von R. Koetter wurden weltweit nur eine handvoll Arbeiten in der Netzcodierung vor dem Jahr 2001, aber dann 8 Arbeiten 2002, 23 Arbeiten 2003 und über 25 Arbeiten in der ersten Hälfte von 2004 veröffentlicht, usw. Die Forschung zur Netzcodierung wächst schnell. Microsoft, IBM und andere Firmen haben Abteilungen eingerichtet, die dieses neue Gebiet erforschen. Einige amerikanische Universitäten (Princeton, MIT, Caltech und Berkeley) haben auch Forschungsgruppen in der Netzcodierung aufgebaut. Der heilige Gral in der Netzcodierung soll (auf eine automatisierte Art und Weise) Netzflüsse (wobei Netzcodierung verwendet wird) in einer durchführbaren Weise planen und organisieren. Die meisten gegenwärtige Forschungen behandeln dieses schwierige Problem noch nicht. Wir berichten hier über die Arbeit [P14], in der weitere grundlegende Erkenntnisse gewonnen wurden. Wir zeigen, daß die Aufgabe des Entwerfens von leistungsfähigen Strategien für Informationsnetzflüsse (Netzcodierungen) eng mit dem Konstruieren von fehlerkorrigierenden Codes zusammenhängt. Siehe dazu insbesondere unten die Proposition 3 in der eine Bijektion zwischen Netzwerkflüssen und einer Klasse fehlerkorrigierender Codes gezeigt wird. Diese Verbindung überrascht, da sie für Netze auftritt, in denen keine Fehler vorkommen! Erinnert sei an die traditionelle Verwendung dieser Codes zum Rückschluss auf Nachrichten, die durch unbekannte Fehler gestört sind. Um in den Reichtum dieser Ideen einzuführen, zeigen wir, dass die Lösung für Flussprobleme für bestimmte einfache Netze mathematisch gleichwertig ist mit der Beantwortung der Frage nach der Existenz orthogonaler lateinischer Quadrate, bei der sich bekanntlich Euler gründlich irrte. Eine vollständige Lösung wurde erst in der zweiten Hälfte des 20ten Jahrhunderts gefunden (``The Euler spoilers'' Bose/Parker/Shrikhande). Gegeben sei das folgende Netz:
Proposition 1 Es gibt eine Bijektion zwischen den Lösungen dieses Flussproblems und den Paaren der orthogonalen lateinischen Quadrate der Ordnung . Proposition 2 (Korollar zur Lösung von Eulers Problem): Das Flussproblem in der Abbildung hat eine Lösung genau dann, wenn das zugrundeliegende Alphabet nicht 2 oder 6 Elemente hat.
Netzcodierung und seine Verbindungen zu fehlerkorrigierenden Codes
Betrachten wir sodann das folgende Flussproblem:
Jeder Kanal in diesem Netz hat die Kapazität eine Nachricht (pro Zeiteinheit) zu übertragen. Nehmen wir an, die Aufgabe sei, zwei Nachrichten von dem oberen Punkt zu jedem der 10 unteren Punkte zu schicken. Es kann gezeigt werden, dass dieses Flussproblem eine Lösung über dem Alphabet hat genau dann, wenn ein -ärer fehlerkorrigierender Code existiert. Es ist bekannt, dass solche Codes existieren, genau wenn . Das Flussproblem kann verallgemeinert werden. Betrachten wir ein Netz , das aus Nachrichten besteht, die von einem Quellpunkt aus übertragen werden. Der Quellpunkt wird mit einer Menge verbunden, die Punkte enthält, und für jede -elementige Teilmenge (es gibt viele), haben wir einen Terminalpunkt. Die Aufgabe ist es, jede Nachricht in jedem der Terminalpunkte zu reproduzieren. Das vorhergehende Netzflussproblem entspricht . Allgemeiner kann gezeigt werden: Proposition 3 Das Flussproblem hat genau dann eine Lösung, wenn ein -ärer fehlerkorrigierender Code existiert. Diese Codes sind gerade die -ären Maximalabstand Codes von Singleton 1964. Ferner kann man zeigen, dass das Informationsfluss Problem keine lineare Lösung über hat, während eine nicht lineare Lösung existiert. Sind solche Phänomene nur sporadisch oder weitverbreitet? Für ein anderes Netz mit horizontalen und vertikalen Flüssen kann gezeigt werden, dass optimale vertikale Flüsse einem optimalen Minimalabstand Code entsprechen. Diese wurden in [1] Anticodes genannt und vollständig charakterisiert. Dieses Beispiel ist ein Schlüsselbeispiel, das zeigt, dass die klassische Theorie der fehlerkorrigierenden Codes weiter entwickelt werden muss, um als Grundlage für die Netzcodierung zu dienen. Schlechteste Codes traten schon früher in der Kryptographie auf ([3],[4]). Dieses von uns begründete Forschungsgebiet soll in einem neu beantragten DFG-Projekt ``Informationsflüsse'' weiter erforscht werden.
2. Konnektoren
Ein -Konnektor der Tiefe ist ein azyklischer Digraph mit Eingängen und Ausgängen, in dem für jede injektive Abbildung der Eingangsknoten in die Ausgangsknoten, knotendisjunkte Wege der Länge höchstens existieren, die jeden Eingang mit seinem entsprechenden Ausgang verbinden. In Fortsetzung der Arbeit [P3] haben wir wiederum das Problem betrachtet, zwei Konnektoren mit und geringer Tiefe zu konstruieren.
In Verfolgung unseres Zieles, den Schattensatz von Kruskal/Katona
für die Posets, die Familien der Teilmengen
einer endlichen Menge sind, durch Schattensätze in anderen Posets zu ersetzen,
kamen wir auf den Satz von Leeb für Posets des Produktes von Sternen und waren damit
erfolgreich. Eine einfache Konstruktion liefern Konnektoren der Größe
([P15]).
Die vorher besten Resultate über die Größe von Konstruktionen von
-Konnektoren waren
-
für
von Hwang/Richards 1985,
-
für beliebiges
von Baltz/Jäger/Srivastav 2003,
-
für alle
von Ahlswede/Aydinian 2003 ([P3]).
Ein einfaches probabilistisches Argument (Baltz/Jäger/Srivastav, 2003) zeigt die Existenz derartiger Konnektoren der Größe , wenn . Eine genauere Rechnung liefert für alle und O ([P15]).
3. Interaktive Datenübertragung zum Zwecke des Rechnens
Es wird folgendes Modell zugrunde gelegt. Prozessoren führen Rechnungen durch und kommunizieren dabei über ein vorgegebenes Netzwerk. Prozessor kennt das -te Argument von und möchte den Funktionswert berechnen . In jedem diskreten Zeitpunkt kann er ein Bit an andere Prozessoren übertragen. Diese Bits stehen in Beziehung zu seiner Rechnung oder können auch zufällig erzeugt werden. Die Rechnung heißt privat, wenn kein Prozessor irgendwelche Informationen über die Argumente der anderen bekommen hat. Ziel ist es die Übertragungsdauer für die Berechnung zu minimieren.
In der Diplomarbeit ([P16])
von Frau Laumann wurde unter Anderem ein Algorithmus von Chor und Kushilevitz
für die
-private Berechnung der
-Funktion
angegeben. Obere und untere Schranke stimmen überein falls
ungerade ist.
Eine kleine Lücke bleibt falls
gerade ist. Frau Laumann gelang es
durch Verfeinerung des Algorithmus diese Lücke zu schließen.
4. Zufällige Verbreitung in Netzwerken (Random Walks)
Das im Fortsetzungsantrag 2003 vorgeschlagene Problem wurde gelöst. In [P17] wird die asymptotische Formel für die Anzahl der skalierten Schrittfunktionen mit Einschränkung der Länge und Höhe der Schritte des gegebenen Bereichs in der Nachbarschaft einer gegebenen Kurve (Formen der Young Diagramme) angegeben. Dies erlaubt uns, die Asymptotik der Anzahl solcher Funktionen zu finden.
5. Kommunikationskomplexität
B Interaktive Codierungstheorie
1. Unkonventionelle Fehler und Kodierungen
Das Problem des Schutzes gegen unidirektionale Störungen entsteht in Systemen mit
optischer Nachrichtenübertragung, beim Entwurf von fehlertoleranten sequentiellen Maschinen,
in asynchronen Systemen usw.
Wir setzten diese Arbeit in [P18] fort und
betrachteten wieder Codes über dem Alphabet
zur Kontrolle von unidirektionalen Störungen des Niveaus
.
Das heißt, dass der Übertragungskanal so gestaltet ist, dass das empfangene Wort
nicht gleichzeitig eine größere und eine
kleinere Komponente als das übertragene Wort enthalten kann.
Außerdem ist der Absolutwert der Differenz zwischen einer übertragenen Komponente und
seiner empfangenen Version höchstens
.
Wir studieren die
-ären Codes, die alle unidirektionalen Störungen des Niveaus
beheben
(
-UEC Codes).
Wir geben neue Konstruktionen und Schranken für solche Codes an.
sei die maximale Größe eines solchen
-ären
-UEC Codes für
.
Unsere Hauptresultate sind die folgenden.
Theorem 1. Für jedes und existiert eine positive Konstante , so dass für jedes gilt
wobei
Darüberhinaus studieren wir die Klasse der
-UEC Codes, genannt VT-Typ Codes
(Varshamov-Tennengolts Typcodes),
die mittels einer linearen Gleichung über den reellen Zahlen definiert werden.
Sei
die maximale Größe solcher Codes, wenn die Parameter
,
und
gegeben sind.
Wir geben eine Konstruktion für optimale Codes (Codes, die die obere Schranke erreichen)
für eine große Klasse der Parameter
,
und für beliebige Längen
an.
Die konstruierten Codes haben den Vorteil eines sehr einfachen Decodierungsalgorithmus.
Theorem 2. Sei für . Dann gilt für jedes
Die unkonventionellen Fehler sollen auch in dem neubeantragten Projekt fortgesetzt werden.
2. Synchronisation und Delay
In [P20] verallgemeinern wir die Resultate von Ahlswede, Balkenhol, Partner
(siehe Fortsetzungsantrag 2003). Wir geben eine Konstruktion f''ur
-Verschiebungs-Synchronisationscodes an. Es werden untere und obere
Schranken f''ur die maximale Gr''oße solcher Codes bewiesen. Man erh''alt so eine
unendliche Familie von konstruierten Codes, die sich als optimal erweisen.
Alle S''atze gelten auch f''ur beliebige
-''are Alphabete.
In ([P21]) erzielten wir einen wesentlichen Fortschritt im Beweis der -Vermutung von Ahlswede, Balkenhol, Khachatrian [A118] für fixfree Codes im -ären Fall. Der Beweis basiert auf einer Verallgemeinerung der deBruijn-Netzwerke. Wir erhalten folgendes Theorem 1. Sei eine Folge nicht-negativer ganzer Zahlen mit . Setze und . Falls , und , dann existiert ein fixfree Code mit Codewörtern der Länge .
Theorem 2.
erfülle
und
(i) Angenommen für ein und es existiert ein -regulärer Untergraph in dem deBruijn-Netzwerk mit Knoten, dann gibt es auch einen fixfree Code zur Folge (ii) Wenn ist, dann existiert ein fixfree Code zur Folge .
C Interaktive Identifikation
1. Allgemeine Theorie des Informationstransfers, gemeinsame Zufälligkeit (Common Randomness), Zufallszahlen
Alle hier dargestellten Ergebnisse wurden in Kooperation mit dem DFG-Projekt AH46/1-1,1-2, 4-1 erzielt. Ausserdem soll die Forschung in einem neubeantragten DFG-Projekt fortgeführt werden. Störungsfreie Identifikation für Quellen Wir kommen nun zu einem der Höhepunkte unserer Ergebnisse, nämlich der Entdeckung einer neuen Entropie, die wir Identifikationsentropie nennen. In [P24] haben wir fehlerfreie Quellencodierung für Identifikation eingeführt, verschiedene Gütemaße definiert und erste Ergebnisse hergeleitet. Vor der Beschreibung unseres Modells erinnern wir zunächst an den 1. Fundamentalsatz der Informationstheorie. Shannon hat 1948 gezeigt, dass eine Quelle mit Prob mit einem Präfixcode codiert werden kann, so dass für Boltzmanns Entropie gilt
wobei die Länge des Codewortes ist.
Für die Quelle und den Präfixcode definieren wir nun eine
Zufallsvariable
mit
, falls
.
Wir benutzen den Präfixcode für die störungsfreie Identifikation, das heißt, dass ein Benutzer, der etwa wissen möchte, ob der Quellausgang ist, also ob ist, oder nicht, dieses feststellen kann. Er überprüft wiederholt, ob mit im ersten, zweiten usw. Buchstaben übereinstimmt und stoppt, wenn der erste verschiedene Buchstabe auftritt, oder wenn ist. Wie groß ist die erwartete Anzahl der Überprüfungen? Hiermit in Verbindung stehende Größen sind
die erwartete Anzahl von Tests für eine Person im ungünstigsten Fall, falls der Code verwendet wird. Weiterhin ist
die erwartete Anzahl Tests im ungünstigsten Fall für den besten Code. Schließlich, falls Benutzerinteresse per Zufallsvariable unabhängig von gewählt wird und Prob für definiert wird (siehe [P6], Abschnitt 5), betrachten wir
die durchschnittliche Anzahl der erwarteten Tests, wenn der Code verwendet wird, und auch
die durchschnittliche Anzahl der erwarteten Tests für einen besten Code. Ein natürlicher Spezialfall ist die mittlere Anzahl der erwarteten Tests
Dies entspricht , falls und
Ein anderer mathematisch interessanter Spezialfall ist der Fall . Hier schreiben wir
So wie Shannon sich für die Abschätzung der Größe interessierte, so interessiert uns jetzt die Abschätzung der soeben definierten Größen. Instruktiv sind dabei Huffman Codes, die unter dem Shannon Kriterium, der mittleren Codewortlänge, alle strikt optimal sind. Bei der Identifikation erhält man ein differenzierteres Bild.
Beispiel:
,
Gleichverteilung. Es gibt
Huffman Codes.
unit=0.7cm
In diesem Fall gilt und , da Einer der 16 besten Huffman Codes sieht folgendermaßen aus:
unit=0.7cm
In diesem Fall gilt: und , weil Eine Entdeckung unserer Arbeit ist die Identifikationsentropie, nämlich die Funktion
für die Quelle
, wobei
und
eine
Wahrscheinlichkeitsverteilung ist.
Die Bedeutung von in der Identifikationsquellencodierung ist sehr ähnlich der klassischen Entropie in der fehlerfreien Codierung von Daten: Sie dient als gute Schranke. Wir haben die folgenden Hauptresultate erzielt: Theorem 1. Für jede Quelle gilt
Theorem 2. Für gilt
Theorem 3. Für mit 2-er Potenzen als Wahrscheinlichkeiten gilt
Theorem 4.
Für ergibt dies die obere Schranke , die besser ist als die Schranke in Theorem 2 für die Gleichverteilungen. Schließlich erhalten wir Korollar.
Es zeigt, dass die unterere Schranke von und die obere Schranke nahe zusammen sind. Dies ist eine operationale Rechtfertigung des neuen Entropiebegriffes. Ferner wurde schon in [P6] gezeigt Theorem 5.
gilt für alle Quellen.
Die Erweiterung auf den allgemeinen -ären Fall gibt die Identifikationsentropie
und entsprechende Verallgemeinerungen der Theoreme. In [P25] zeigen wir, dass und dass für einen Blockcode gilt, wobei die Gleichverteilung auf ist. Daher gilt für einen Blockcode . Andererseits gilt für , . Weiterhin erklären wir in [P25] die codierungstheoretische Bedeutung der beiden Faktoren in der Entropieformel.
Korrelationen von pseudo-zufälligen binären Folgen Im folgenden wird nun über die Arbeit [P27] berichtet. In einer Reihe von Arbeiten untersuchten Mauduit und Sárközy (teilweise mit mehreren Koautoren, unter ihnen die Bielefelder Ahlswede und Khachatrian) endliche pseudo-zufällige binäre (und allgemeiner auch -äre) Folgen
Insbesondere führten sie folgende Pseudo-Zufälligkeitsmaße ein. Das Wohlverteilungsmaß von
wobei das Maximum über alle mit (= die Menge der positiven ganzen Zahlen) und genommen wird. Das Korrelationsmaß der Ordnung von
Hier erstreckt sich das Maximum über alle und , wobei nichtnegative ganze Zahlen sind, für die gilt. Die Folge wird als ``gute'' pseudo-zufällige Folge betrachtet, wenn die Werte und (zumindest für kleine Werte von ) ``klein'' in Abhängigkeit von sind (insbesondere sind die beiden Werte , wenn ). Die verwendete Terminologie ist dadurch berechtigt, dass für ``wirklich zufällige'' gilt: Mit Wahrscheinlichkeit ``nahe an 1'' sind die beiden Werte und (für fixiertes ) ungefähr gleich . In der Arbeit von C. Mauduit und A. Sárközy ``On finite pseudorandom binary sequences I. Measure of pseudorandomness, the Legendre symbol'', Acta Arith. 1997 wird erklärt, warum das Wohlverteilungsmaß und das Korrelationsmaß als Maße für Pseudo-Zufälligkeit verwendet werden können. Es ist jedoch zu erwarten, dass es Anwendungen gibt, bei denen es genügt, nur einige statt aller pseudo-zufälligen Maße zu kontrollieren. Eine der wichtigsten Anwendungen der Pseudo-Zufälligkeit ist die Kryptographie. Wenn wir z.B. eine binäre Folge (nach der Umformung in eine Bit-Folge) als Schlüssel-Strom (key stream) im Standard-Vernam-Chiffre verwenden möchten, dann soll bestimmte Pseudo-Zufälligkeits-Eigenschaften besitzen. Soll ein kleines Wohlverteilungsmaß und für kleine Werte von ein kleines Korrelationsmaß der Ordnung haben? Mit anderen Worten, kann der Gegner diese Tatsache ausnutzen und den Code brechen, wenn , bzw. (für irgendeinen kleinen fixierten Wert von ) groß ist? Die natürlichste Vorgehensweise ist die vollständige Suche (exhaustive search): Der Angreifer kann alle binären Folgen mit großen Werten von , bzw. als potentiellen Schlüssel-Strom überprüfen. Offensichtlich ist diese Art des Angriffs tatsächlich nur bedrohend, wenn die Anzahl der Folgen mit
Für und definiere
Theorem 1. Für jedes mit und jedes gibt es ein und ein , so dass für gilt
Wir verschärfen das Theorem in dem Spezialfall, wo die Ordnung der Korrelation 2 ist. Theorem 2. Falls , , und , dann gilt
2. Watermarking
3. Identifizierbare Eltern Eigenschaft (IPP, identifiable parent property)
D Broadcasting
II Diagnose
Die in diesem Abschnitt beschriebenen Suchprobleme sollen in einem neubeantragten Projekt weiter untersucht werden. 1. Diagnose als Suchen mit beschränkten Mengen
2. Delay
3. Sequentielle Suchmodelle mit Fehlern
Eine der wichtigsten Fragen in Multiprozessor Systemen ist die Verlässlichkeit. Die Fehler Diagnose (Identifikation der fehlerhaften Prozessoren) ist ein Bestandteil bei Erreichung der Fehler-Toleranz. Preparata/Metze/Chien (1967) führten ein graphentheoretisches Modell für selbstdiagnostizierende Systeme ein. Hierbei geht es um automatische Fehler Diagnose in Multiprozessor Systemen. Ein System ist als ein Graph modelliert, wobei die Menge der Elemente (Prozessoren) und die Menge der Verbindungen ist.
Die Prozessoren führen Tests über ihre Nachbarn durch und senden die
Testergebnisse (``fehlerhaft'' oder ``intakt'') zu dem zentralen
Kontrolleur, dessen Aufgabe ist, die defekten Prozessoren aufgrund der
vom System erzeugten Testergebnisse zu identifizieren.
Diagnostizierbarkeit Maximum , so dass das System -diagnostizierbar ist.
Diagnose Probleme
In [P29] geben wir einen Diagnosealgorithmus an, der für beliebige zusammenhängende Graphen angewendet werden kann.
Die Diagnostizierfähigkeit des Algorithmus erfüllt
Die Komplexität des Algorithmus ist . Dies verbessert die Resultate von Khanna/Fuchs (1996): für beliebige zusammenhängende Graphen, für -Bäume, für würfel-zusammenhängende Zykel (cube connected cycles). Der Algorithmus ist optimal für ``schlechte'' Graphen: Es gibt Graphen (Bäume) mit . Für den -Würfel haben wir . Ist die Anzahl der Fehler , dann kann der Status von mindestens Prozessoren durch den Algorithmus identifiziert werden. Obere Schranke: .
Frühere beste untere Schranke:
Friedman (1975) führte den Begriff der -Diagnose ein. Ein System wird -diagnostizierbar genannt, wenn alle fehlerhaften Einheiten in einer Menge von höchstens Einheiten isoliert werden können, vorausgesetzt die Zahl der fehlerhaften Einheiten übersteigt nicht . Die Motivation für diese Diagnose Strategie (auch pessimistische Diagnose Strategie genannt) ist es, die Diagnostizierbarkeit eines Systems zu erhöhen (im Bezug auf die Ein-Schritt Diagnose Strategie) und gleichzeitig das Delay zu verringern (der Nachteil einer sequentiellen Diagnose Strategie) bei der Fehleridentifikation in den Großrechnersystemen. Sei , der Grad eines Systems ist das maximale für das es -diagnostizierbar ist.
Den Grad der Diagnostizierbarkeit eines Systems festzustellen (bei gegebenem
) ist sogar eine schwierige Aufgabe
für Systeme mit einer regelmäßigen Topologie.
Chwa und Hakimi (1981) charakterisierten die
-Diagnostizierbarkeit und gaben einen
leistungsfähigen Diagnosealgorithmus für solche Systeme an.
Kavianpour und Kim (1991) zeigten, dass der Grad der
-Diagnostizierbarkeit des
-dimensionalen Würfels
für
ist.
In [P30] ermitteln wir den Grad der
-Diagnostizierbarkeit des
-dimensionalen Würfels
für
.
Theorem.
Wir beschreiben auch einen einfachen Algorithmus für die -Diagnostizierbarkeit im -dimensionalen Würfel, wobei . Der Algorithmus hat lineare (in der Anzahl der Kanten) Komplexität und kennzeichnet die fehlerhaften Einheiten in einer Menge (von höchstens Einheiten), die höchstens fehlerfreie Einheiten enthält. In Kooperation mit dem DFG-Projekt ``Informationstheorie und Kombinatorik'' wurden Suchmodelle mit verschiedenen Fehlerkonzepten betrachtet. Das Rényi-Berlekamp-Ulam Spiel ist ein klassisches Modell zur Bestimmung der Mindestanzahl von Fragen, um eine unbekannte Zahl in einer Menge zu finden, wenn eine begrenzte Anzahl der Antworten fehlerhaft ist. Wir haben über Arbeiten zu diesem Problem im Fortsetzungsantrag 2003 berichtet. Durch die Einführung neuer Fehlertypen ist es uns gelungen, wie im Antrag 2003 als Ziel formuliert, das Spiel für weitere Restriktionen zu lösen. In der Variante, die wir in [P33] betrachten, werden Fragen mit vielen möglichen Antworten gestellt, die Lügen werden durch einen gewichteten bipartiten Graphen bewertet und eine begrenzte Zahl von Lügen mit Gesamtgewicht ist erlaubt. Wir geben eine scharfe asymptotische Schranke für die Anzahl der Fragen an, die benötigt werden, um das Problem zu lösen. Unsere Resultate sind konstruktiv. Die Strategie besteht aus adaptiven Fragen ( ist das minimale Kantengewicht ungleich Null) und dann, nur abhängig von den Antworten zu diesen Fragen, einem Bündel von Fragen. In [P31] geben wir eine optimale Strategie in zwei Stufen für den ungewichteten Fall an (alle Kanten haben Gewicht 1). In [P32] leiten wir eine obere und eine unterere Schranke für die Rate eines nichtbinären fehlerkorrigierenden Codes mit Rückkopplung her. Die Schranken stimmen für große Raten überein. Dies sind Verallgemeinerungen der Schranken von Berlekamp, Schalkwijk und Zigangirov im binären Fall. Wir konnten auch zeigen, dass die Hammingschranke eine obere Schranke für -äre fehlerkorrigierende Codes mit Rückkopplung und lokalisierten Fehlern ist. Offensichtlich ist diese Grenze für den binären Fall ( ) scharf.
4. Monotonicity Testing and Property Testing
Das ``Monotonicity Testing'' ist ein Sortierproblem, das wie folgt definiert wird: Gegeben sei eine (endliche) partiell geordnete Menge versehen mit einer unbekannten reellwertigen Funktion . Man finde heraus, ob diese Funktion monoton wachsend ist, d.h. ob für alle in . In [P35] studieren wir das ``worst case'' Verhalten von ``Monotonicity Testing'' Algorithmen. Diese Untersuchungen wurden schon in den Zielen des Fortsetzungsantrags 2003 angekündigt. Zwei Modelle werden betrachtet: das Vergleichsmodell und das lineare Modell.
Ein eher überraschendes Resultat für das Vergleichsmodell ist das
Beispiel einer teilweise geordneten Menge (Poset) mit 9 Elementen und
strikt kleinerer ``monotonicity testing''
Komplexität als einige ihrer Subposets.
Der Beweis ist schwierig und nimmt 20 Seiten ein.
Ein anderes interessantes Resultat (für das Vergleichsmodell) ist das
Theorem 1.
Wenn eine Poset
in Subposets
partitioniert werden kann mit
für
und
für
und
ist mit
unvergleichbar, falls
, dann hat die Poset
folgende
``monotonicity testing'' Komplexität:
, wobei
.
Aus dem Resultat folgt, dass die Komplexität zur gleichzeitigen Feststellung, ob in , das Minimum und das Maximum ist, den Wert hat.
Yao (1975) (siehe auch Aigner ``Combinatorial Search'', Kapitel 4, 1988)
fragte nach der Komplexität des simultanen Findens
des Minimums und des Maximums in einer Folge von
reellen Zahlen im linearen Modell.
Eine neue unterere Schranke wird für diese Komplexität hergeleitet.
Theorem 2. Um das Maximum und das Minimum in einer Folge von reellen Zahlen gleichzeitig zu finden benötigt man mindestens 1.168 lineare Vergleiche für genügend große . Alle Ergebnisse und der Stand der Forschung werden ausführlich in der Arbeit [P36] dargestellt.
III Vorhersagetheorie in Netzwerken
Lars Bäumer, dessen Dissertation Vorhersagetheorie in Verbindung mit Identifikation behandelte, hat nicht wie bei der Antragsstellung geplant an diesem Projekt mitgearbeitet, da er mein Forschungsprojekt am Zif als Assistent unterstützt. Er hat sich dort biologischen Fragestellungen zur Evolution von Sprachen und zur Tierkommunikation gewidmet. Vorhersagetheorie wurde deshalb in diesem Projekt nicht betrieben. Die BAT IIa-Stelle dieses Projektes hatte durchgehend Harout Aydinian inne.
IV Zwischenspeicher Managementstrategien in Netzwerken und Creating Order
Christian Wischmann wird dieses Thema in seiner Doktorarbeit behandeln. Seine ersten Ergebnisse präsentierte er auf dem Jahreskolloquium in Aachen 2006.
Weitere Literaturhinweise im Ergebnisbericht
|