-
Algebraische Strukturen und Vektorräume
Algebraische Strukturen
Eine algebraische Struktur ist eine nichtleere endliche oder
unendliche Men-ge von Elementen mit einer (oder mehreren) darin
definierten Operation(en) samt den dazugehörigen
Verknüpfungsvorschriften.
Gruppe
Eine Gruppe G ist eine algebraische Struktur, bei der genau eine
Verknüp-fungsvorschrift definiert ist, welche den Axiomen Gl bis G4
genügt. DieMen-ge der Elemente sei A = { a1 , a2 , a3 , ... } . Die
Verknüpfungsvorschrift für die Elemente von A wird i.allg. durch
plus ( +) oder mal ( ·) dargestellt und als Addition bzw.
Multiplikation bezeichnet, obgleich sie nicht der gewöhnlichen
Addition und Multiplikation von Zahlen zu entsprechen braucht.
Axiom Gl: Abgeschlossenheit Wird die Verknüpfungsvorschrift auf
zwei beliebige Elemente der Gruppe an-gewendet, dann ist das
Ergebnis definiert und wieder ein Element der Gruppe: Additive
Gruppe (Summe) Vi,j. ai + ai = ak, Multiplikative Gruppe (Produkt)
Vi,j. ai · ai = ak .
Axiom G2: Assoziatives Gesetz Für drei beliebige Elemente gilt:
bei einer additiven Gruppe Vi,j, k. (ai + ai) + ak = ai + (ai + ak)
, bei einer multiplikativen Gruppe Vi,j, k. (ai · ai) · ak = ai ·
(ai · ak). Axiom G3: Neutrales Element In einer Gruppe gibt es
genau ein neutrales Element. Bei einer additiven Grup-pe ist dies
das Nullelement: \Ii. ai + 0 = 0 + ai = ai ; bei einer
multiplikativen Gruppe ist dies das Einselement:
-
270 Algebraische Strukturen und Vektorräume
Vi. ai · 1 = 1 · ai = ai . Axiom G4: Inverses Element Zu jedem
Gruppenelement existiert ein inverses Element. Die Verknüpfung
beider Elemente liefert das neutrale Element. Bei einer additiven
Gruppe be-zeichnet man das zu ai inverse Element -ai: Vi. ai + (
-ai) = ( -ai) + ai = 0; bei einer multiplikativen Gruppe mit a;1:
\../" -1 -1 1 vz. ai · ai = ai · ai = . Gilt zusätzlich zu den
Gruppenaxiomen das kommutative Gesetz bei einer additiven Gruppe
Vi,j. ai + ai = ai + ai, bei einer multiplikativen Gruppe Vi, j. ai
· ai = ai · ai , dann heißt die Gruppe kommutativ oder abelsch.
Ring
Ein RingRist eine algebraische Struktur, für dessen Elemente
zwei Verknüp-fungsvorschriften definiert sind, die Addition und die
Multiplikation. Die fol-genden Axiome müssen erfüllt sein.
Axiom Rl: Abelsche Gruppe bzgl. der Addition Die Elemente aus A
bilden eine Gruppe bzgl. der Addition. Die Gruppe ist abelsch.
Axiom R2: Abgeschlossenheit bzgl. der Multiplikation Das Produkt
zweier beliebiger Elemente aus A existiert und ist wieder ein
Ele-ment aus A: Vi, j. ai · ai = ak . Axiom R3: Assoziatives Gesetz
bzgl. der Multiplikation Für drei beliebige Elemente aus A gilt:
Vi,j, k. (ai · ai) · ak = ai · (ai · ak). Axiom R4: Distributives
Gesetz Für drei beliebige Elemente aus A gilt: ai · (ai + ak) = ai
· ai + ai · ak und (ai + ai) · ak = ai · ak + ai · ak. Gilt für
beliebige Elemente eines Ringes zusätzlich das kommutative Gesetz
bzgl. der Multiplikation, d.h. Vi,j. ai · ai = ai · ai, dann heißt
der Ring kom-mutativ.
Körper
Ein Körper K erfüllt die Axiome K1 bis K4.
Axiom Kl: Kommutativer Ring
-
Algebraische Strukturen und Vektorräume 271
Die Elemente eines Körpers bilden einen kommutativen Ring.
Axiom K2: Einselement Es existiert ein Einselement, so daß für
ein beliebiges Element des Körpers gilt: Vi. ai · 1 = 1 · ai .
Axiom K3: Inverses Element Jedes von Null verschiedene Element
eines Körpers besitzt ein multiplikatives Inverses: Vi. ai · a;1 =
a;1 · ai = 1 mit ai =I= 0. Die von Null verschiedenen Elemente eine
Körpers genügen allen Gruppenaxi(}-men bzgl. der Multiplikation und
bilden daher eine multiplikative Gruppe.
Vektoren und Vektorräume
Einen n-Thpel (a1 a2 ... an), der aus der geordneten Menge von n
Elemen-ten eines beliebigen Körpers K besteht, bezeichnet man als
Vektor v: v = (a1a2 ... an). Man sagt, ein solcher n-stelliger
Vektor hat die Längen.
Eine nichtleere Menge V= { v1 , v2, ... }, deren Elemente
Vektoren vi sind, heißt ein linearer Vektorraum über einem
beliebigen Körper K, dessen Elemente aij Skalare genannt werden,
wenn die folgenden Axiome erfüllt sind.
Axiom Vl: Abelsche Gruppe bzgl. der Addition Die Menge V ist
eine abelsche Gruppe bzgl. der Addition.
Axiom V2: Multiplikation eines Vektors mit einem Skalar Zu jedem
Vektor v3 und einem beliebigen Körperelement ai ist ein Produkt
aivj definiert, welches wieder einen Vektor darstellt: aivj = ai
(ajl a32 ... ajn) = (aiajl aiaj2 ... aiajn)
= (akl ak2 ... akn) = Vk. Axiom V3: Distributives Gesetz der
Multiplikation mit einem Skalar bzgl. der vektoriellen Addition
Sind v3 und vk Vektoren aus V und ist ai ein Skalar, dann gilt:
ai(vj + vk) = aivj + aivk. Axiom V 4: Distributives Gesetz der
Multiplikation mit einem Skalar bzgl. der skalaren Addition Ist vk
ein Vektor und sind ai und a3 Skalare, dann gilt: (ai + a3)vk =
aivk + a3vk. Axiom VS: Assoziatives Gesetz der Multiplikation mit
einem Skalar Ist Vk ein Vektor und sind ai und a3 Skalare, dann
gilt: (aiaj)vk = ai(ajvk).
-
Lösungen der Aufgaben
Abschnitt 2 Abschn. 2.2.1
1. a) Hm = 2, 06 bitjZeichen b) Ho= 2, 58 bitjZeichen
2. Ho= 14,3 · 103 bitjSeite 3. a) Ho = 6, 65 bitj Meßwert
b) Ho= 9, 96 bitj Meßwert 4. a) Hm = 1, 875 · 105 bitj Bild
b) Ho= 2, 32 · 105 bitj Bild 5. a) Hm = 6,07
bitjAmplitudenwert
b) Ho= 6,80 bitjAmplitudenwert 6. a) Hm = 6, 51 bit/Zahl
b) Ho= 6,64 bit/Zahl
Abschn. 2.2.2
1. a) p(x1) = p(x2) = 0, 25, p(xa) = 0, 50 b) HM = 1, 28
bitjZeichen
2. a) p(zl) = 0,30, p(z2) = 0,66, p(za) = 0,04 b) HM = 0, 94
bit/Zustand
3 )- ....E.._ - ~ . a Pl = ~+JL' P2 = ~+JL
b) HM = Pl ((1- .\) ld 1 ~~ + ,\ ld t) + P2 (tLld ~ + (1- J.L)
ld l~JL) Abschn. 2.2.3
1. a) H(A) = 1, 54 bitjZeichen, H(B) = 1, 57 bitjZeichen b)
H(AIB) = 1,45 bitjZeichen, H(BIA) = 1,48 bitjZeichen c) H(A, B) =
3, 02 bitjZeichenpaar
2. a) H(X) = 1, 55 bitjZeichen, H(Y) = 2, 29 bitjZeichen b)
H(XIY) = 1, 39 bitjZeichen c) 1. H(X, Y) = 3, 68
bitjZeichenpaar
2. H(X, Y) = 2, 29 bitjZeichenpaar
-
Lösungen der Aufgaben 273
Abschn. 2.3
1. Hrel = ld 2ae
Abschnitt 3
Abschn. 3.2 und 3.3
1. a) Eindeutig dekodierbar: K1, K3, K4 b) lm = 2,5 BZ/QZ für K1
und K3 c) RK = 0, 08 bit/QZ
2. H(X,X) = H(X) + H(X) = 2 · H(X) (vollständige
Unabhängigkeit), allgemein: H(Xm) = H(X) + H(X) + ... + H(X) = m ·
H(X)
mmal
Abschn. 3.4.2.1 und 3.4.2.2
1. a) lm = 3, 16 BZ/QZ, RK = 0, 38 bitfQZ b) lm = 2,84 BZ/QZ, RK
= 0,06 bitfQZ c) lm = 2,81 BZ/QZ, RK = 0,03 bitfQZ
2. a) Optimalkode b) lm = 2, 97 BZ/Amplitudenwert c) lll = 1,13
BZ/Amplitudenwert
3. a) Hm = 7, 95 bitf Signalwert b) lm = 8,50 BZ/Signalwert c)
llRK = 1, 50 bitf Signalwert
Abschn. 3.4.2.3
1. a) RK = 0, 53 bit/QZ b) RK = 0,18 bitfQZ c) RK = 0, 06
bit/QZ
2. m = 1 : RK = 0, 10 bit/QZ m = 2: RK = 0,04 bit/QZ
3. a) Optimalkode einer erweiterten Quelle für m = 3 b) 27,3%,
da lm = 0, 727 BZ/QZ für m = 3 c) nein, weil Hm = 0, 723 bitfQZ ~
lm
Abschn. 3.4.2.4
1. a) Teilkodes mit lml = 1, 9, lm2 = 1, 5, lm3 = 1, 6, lm4 = 1,
0 b) RK = 0, 21 bit/Zustand c) lll = 0, 45 BZ/Zustand
Abschnitt 5 1. a) HT = 0,53bit/KZ
b) HT = 0,36bit/KZ
-
27 4 Lösungen der Aufgaben
2. f(O) = 0 bitj KZ, f(O, 5) = 1 bitf KZ 3. a) Hr = 0,31bit/KZ,
H(X) = 1bitfZ
b) Hr = 0, 17bitfKZ, H(X) = 0, 72bit/Z c) Hr = 0,27bit/KZ, H(X)
= 0, 72bitjZ
4. a) p(xi) = 0, 63, p(x2) = 0, 37 b) Hr = 0,55bitjKZ c) Hr =
0,61bit/KZ
5. Hr = 0, 75bit/KZ, Hrero = 0, 71bit/KZ 6. Hr = 1,36bit/KZ 7.
a) Hr = ldN- PF ld (N- 1) + ppldpp + {1- PF) ld {1- PF)
b) Max.: PJ = 0, Hrmaz = ldN N-1
Min.: PF = ~' Hrmin = 0 8. gesichert: !Q = 258QZ/s, ungesichert:
!Q = 300QZ/s Abschnitt 6
tl.C 1. a) C ~58%
tl.C b) c ~ 10%
2. a) C ~ 3 ·104 bitfs b)r=45dB c) t = 33s d) t = 167 s
3. B ~ 5,2MHz 4. a) sv ~ 105 bitfern
b) C ~ 1,9·106 bit/s
Abschnitt 7 1. Optimale Kennlinie: Hrelopt = ld {2a), lineare
Kennlinie: Hrellin = ld {1, 65a)
tl.H = Hrelopt - Hrellin = 0, 28 bitj PW 2. a) N = 32
b) tü = 12 s c) tü ~ 4s
3. a) f 9 = 6,25kHz b) tu< 0, 08ms cl) B ~50kHz c2) B
~25kHz
4. a) ungesichert: v8 = 1, 4 · 104 K Z / s, gesichert: v8 = 1,
63 · 104 K Z / s b) ungesichert: B ~7kHz, gesichert: B ~ 8,15kHz c)
ungesichert: Ir~ 1,2 ·104 bitjs, gesichert: Ir= 1,4 ·104 bitfs
5. a) l = 7 Kanäle b) 5% der Gesamtmenge c) Q = 70bit
-
Lösungen der Aufgaben 275
6. a) l:l.U = 15,6mV b) Vü = 1600 bitj S
7. Intervall 1 2 3 4 5 6 7 a) WK. 0,032 0,030 0,054 0,089 0,121
0,113 0,061 b) WK. 0,227 0,124 0,068 0,037 0,020 0,011 0,013 c)
Hapt = 7,64bit/PW, Hlin = 7, 12bit/PW
Abschnitt 8 Abschn. 8.1.3
1. k = 10 2. k = 6 -4 Tk = 0, 095 ; R = 0, 905 3. n = 15, k = 5
(Anwendung Gl. (8.13));
dmin = 3 : fk = 1 bzw. fe = 2 oder dmin = 4: fk = 1, /e = 2 bzw.
/e = 3 (Anwendung Gl. (8.10))
Abschn. 8.2.1.2
1. ai = (101101), a2 = (001100), a3 = (010111); Tk = 0,167
2.
1 0 0 1 0 1 0 0 1 0 1 1 0 0 0 1 1 0 1 1 1 0 1 1 1 1 0 0 0 1 0 1
-4 Tk = 0,333; 0 0 0 0 1 0 1 0 0 1 0 1 0
1 0 0 1 1 0 0 1 0 so= 0 0 1 0
t Abschn. 8.3.2
1. a) Nein! b) dmin = 2
2. a) a4 = (0 10 111 0), as = (1 0 111 0 0), a5 = (111 0 0 1 0),
a7 = (0 11100 1), ao = (0000000)
0 0 1 1 0 0 0
so 0 0 0 1 0 0 1
f-
b) Vgl. Gruppenaxiome G1 bis G4 (s. Algebraische Strukturen und
Vektorräume)
Abschn. 8.3.3
1. Wegen v4 = VI E9 v2 E9 v3 und vs = VI E9 v4 gehören die
Vektoren VI, v2, ... , vs zu einem Unterraum der Dimension l = 3
eines Vektorraumes der Dimension n = 7.
2. Nein!
Abschn. 8.3.4
1. 9I(GI) = 9I(G2)• 92(GI) = 9I(G2) E9 92(G2)• 93(GI) = 92(G2)
E9 93(G2)
(1011100)
2. H = 1101 0 1 0 , dmin = 3 0111001
-
276 Lösungen der Aufgaben
3. a) b3 = 92 EEl 93 E A b) s = H · bf = 0
4. l k (n, l)-Kanalkode 5 4 (9,4)-Kanalkode 7 4
(11,4)-Kanalkode
11 4 (15,4)-perfekter Kanalkode 17 5 (22,17)-Kanalkode
Abschn. 8.4
1. a) k = 3 b) s. Beispiel 8.4.2 c) b1 E A, b2,korr = (0011110),
b3,korr = (1010101)
2. a) l = 5, dmin = 3: k = 4 (Gl. (8.10)) -+ verkürzter (9,
5)-HAMMING-Kode -+ erweiterter ((n + 1, l, dmin + 1) = (10, 5,
4))-HAMMING-Kode (Bestimmungsgleichungen für die Kontrollelemente
s. Abschn. 8.4.3)
b) a* = (10101) -+ averkürzt = (110101100) -+ aerweitert =
(1101011001)
Abschn. 8.5.1
1. P5(x) irreduzibel, P3(x) primitiv 2. Pmax = 255 = 3 · 5 ·17
fj_ IP': x17,x5l,x85 ,x255modM(x) = 1 -+ n = 17 3. n =p= 9:
m1(x) = (x+a 1)(x+a2)(x+a4)(x+a8)(x+a7)(x+a5) = x6 +x3+1 = M(x),
m3(x) = (x + a 3 )(x + a 6 ) = x2 + x + 1, f(x) = mo(x) m1(x) m3(x)
= (x + 1)(x6 + x3 + 1)(x2 + x + 1) = x9 + 1
4. M(x) primitiv-+ Zyklus i = 3: a 3,a6,a12,a9 -+ m3(x)Polynom
4. Grades, m3 ( x) = x4 + x3 + x2 + x + 1
Abschn. 8.5.2
1. Nein! 2. L = 23 Kanalkodewörter, Verfahren s. Abschn.
8.5.2.2, 8.5.2.3 3. a) ai = (11 0 0 0 10 11 0 1)
b) a2 = (0 1 0 11 0 11 0 0 1) c) a3 = ( 1 0 0 0 111 0 0 0 1)
(1110100)
4. H = 0 1 1 1 0 1 0 1101001
5. grade(x) < grad9(x) (zyklische Verschiebung
unberücksichtigt) 6. a) b1 fj_ A: Zweifachfehler, nicht
korrigierbar
b) b2 fj_ A: Einfachfehler, b2,korr = (0 10 0 111) c) b3 E A
7. 9(x) = x + 1
-
Lösungen der Aufgaben 277
Abschn. 8.5.3
1. verkürzter primitiver (427,400,7)-BCH-Kode 2. g(x) =
kgV{m1(x),m2(x), ... ,md8 =5(x)}
a) k1 = gradM(x) = 6 erfüllt Gl. (8.28) ~ verkürzter primitiver
(38,20, 7)-BCH-Kode, R = ~g ~ 0, 53
b) aus Tabelle (s. Beispiel 8.5.12) Wahl von p = n und
Zyklenbildung: p = 45: ß\ß2,ß4,ß8,ß161 ß32 1 ß64(mod45) = ß19 1 ß38
1 ß31 1 ß17 1 ß34 1 ß23
ß3, ß6, ß12, ß24 ~~ ß10, ß20, ß40 1 ß35 1 ß25
(~ k1 = gradmi(x) = 12, d.h. mi(x) im GF(212) definiert)
~verkürzter nichtprimitiver (42,20,7)-BCH-Kode, R = ~g ~ 0, 48
3. a) p = 63, k = 24 : 4 Nullstellen-Zyklen ~ dmin = 9, fk = 4
b) erweiterter nichtprimitiver (36, 11, dmin + 1 )-BCH-Kode ~
nichtprimitiver
(35, 11, dmin)-BCH-Kode: p = 35, k = 24: 2 Nullstellen-Zyklen ~
dmin = 5, fk = 2
4. Welches Modularpolynom (m1(x),m7(x) oder mu(x)) liefert die
größtmögliche Anzahl aufeinanderfolgender Nullstellen und damit
maximalen Abstand? M(x) = m1(x): dmin = 3 M(x) = m7(x): mi(x) =
m7(x) mit ß1 = o?
ß1 ,ß2, ß\ß8, ß16 ß1 = a.1 c/, a14, a28, a25, a19 ß3 ,ß6, ß12,
ß24, ß17 ß3 = (a7)3 = a21 0!21, 0!11, 0!22, 0!13, 0!26 ß5, ß10 1
ß20 1 ß19 1 ß18 ß5 = (a7)5 = a4 0!4, 0!8, 0!16, 0!1, 0!2 g(x) =
mi(x)m3(x)m5(x) ~m7(x)mu(x)m1(x), dmin = 7
M(x) = mu(x): dmin = 5 5. !b ~ 12,dE = 6: g(x) =
m1(x)m3(x)ms(x), k1 = gradm1(x) = 5
~verkürzter primitiver (25,10,7)-BCH-Kode mit fb ~ 15, fe ~
6
Abschn. 8.5.4
1. a) a* = (a5a6a4) ~ a = (a5a6a4a5a2a2a6)
b) azykl = (0!60!40!50!20!20!60!5) E A
Die Division azykl(x) : g(x) liefert den Rest r(x) = 0. c) b E
A? (Ausführung der Division in Koeffizientenschreibweise):
a3a a5 0 a4a61 : 1a3 1aa3 = a3a5a4 0!30!60!30!40!6
0!50!20!40!30!6 0!5 0! 0!5 0!6 0!
0!4 1 0!40!51 0!4 1 0!40!51
0 ~ bEA
-
278 Lösungen der Aufgaben
Abschn. 8.5.5
1. b(x) = x14 + x13 + x12 + x9 + x6 + x3 + x2 + x + 1 0. bf/. A
1. 8t = b(x = a 1) = (a14 +a13 +a12 +a9 +a6+a3 +a2 +a+ 1}modM(a) =
a,
82 = 8~ = a 2,83 = b(x = a 3) = 1,84 = 8~ = a4, 85 = b(x = a 5)
= 1, 86 = 8~ = 1
2. a a3 + a 2a2 + a1 = a4 a 2a3 + a2 + a 4a1 = 1
0"3 + a 4a2 + a1 = 1 --+ a(x) = x3 + ax2 + a9x + a 11 3. Xt = a
3,x2 = a 10,x3 = a 13
e(x) = x13 + x10 + x3 bkorr(x) = x14 + x12 + xlO + x9 + x6 + x2
+ x + 1
2. b1 = (a4000000) 0. b1 f/. A 1. 81 = b(x = a 1) = a 3,82 = b(x
= a 2) = a 2 2. a 3a1 = a 2 --+ a(x) = x + a6 3. x1 = a6 --+ e(x) =
Y1X6 4. 8t = Y1 x1 --+ e(x) = a 4x6
bt,korr = (0000000} E A b2 = (a40000a20) 0. b2 f/. A 1. 81 = b(x
= a 1) = 0,82 = b(x = a 2) = a 2. Oa1 = a --+ nicht lösbar,
Dekodierversagen
3. b = (OOOOOOOOOOOa0a 0a 0a 0) o. bf/. A 1. 8t = a 12,82 = a 9
,83 = a 12,84 = a 3,85 = 1,86 = a 9 2. a(x) = x3 + a 12x2 + a 9x +
a 12 3. Für alle x E GF(24) ist a(x) =F 0. Es liegen mehr als fk
Fehler und damit
Dekodierversagen vor. 4. a) b = (a20a50a40a2), p = 2, fk = 2, U
= (a3,a)
0. bf/. A 1. 81 = a 5, 82 = a, 83 = 1, 84 = a 6 2.
Abarbeitungsprotokoll:
r ll.r A(x) l b(x) t(x) 1 0 0
1 1+a3x 1 1 + a 3x 2 1 +x +a4x2 2 1 +x+a4x2 3 a 5 1 + a4x + x2 +
a 2x3 3 a 2 + a 2x + a 6x2 1 + a 4x + x 2 + a 2x3 4 0 a 2x + a 2x2
+ a6x3
--+ Ausgabe: A(x)BM = 1 + a4x + x2 + a 2x3 ; v = 3. --+ a(x) =
x3 + a4x 2 + x + a 2 (Anwendung Gl. (8.37))
3. X3 = a 5
-
4. o 5 = o Y1 + o 3y2 + o 5y3 o = o 2y1 + o 6y2 + o 3y3 1 = o
3y1 + o 2y2 + o Y3 --+ Y1 = o 5, Y2 = o 6, Y3 = o 6
Lösungen der Aufgaben 279
--+ bkorr = b + e = (o20o50o40o2) + (Oo60o60o50) = (o2o 6o 5o 6o
4o5o2) b) b = (o3o 3o 4o 31o4o 3)
0. b tf. A 1. s1 = 1,s2 = o 2,s3 = o 3,s4 = o 6
2. PZG:
1 0"2 + o 2a1 = o 3 020"2 + 030"1 = 06 --+ a(x) = x 2 + o 2x + o
6
BERLEKAMP /MASSEY:
r Ar A(x) l b(x) t(x) 1+x 1 1
2 06 1 +o2x X 1+o2x 3 06 1 + o 2x + o 6x 2 2 o +o3x 1 + o 2x + o
6x 2
4 0 ox + o 3x2
--+ A(x)BM = 1 + o 2x + o 6x 2 ; v = 2 --+ a(x) = x 2 + o 2x + o
6
EUKLID: i ri(x) q(x) wi(x)
( -1) x4 0 0 o 6x 3 + o 3x2 + o 2x + 1 1 1 x2 + o3x +o5 ox+o5
ox+o5 2 0 o6x + o5 x 2 + o 3x + o
--+ A(x)EUKL = (x2 + o 3x + o)o-1 = o 6x 2 + o 2x + 1 = A(x)BM
3. X1 = 1, X2 = 0 6 4. Yl = o 5,y2 = o 5 --+ e(x) = o 5x6 + o 5
--+ bkorr = b + e = (o2o 3o 4o 31o4o 2)
Abschn. 8.6.1
1. a) G 2 ist katastrophal (Nullschleife im Zustand "11") b)
Beispiel: Zustandsübergangstabelle
u(r) z(r) z(r + 1) v(r) 0 0,0 0,0 0,0 1 0,0 1,0 1,1 0 1,0 0,1
1,1 1 1,0 1,1 0,0 0 0,1 0,0 0,1 1 0,1 1,0 1,0 0 1,1 0,1 1,0 1 1,1
1,1 0,1
-
280 Lösungen der Aufgaben
c) a = (00 110001101011 01)
2° a) ~ v1(t)
u(t)
+-------+--~ v2(t)
l..,_----ttt--- v3(t)
b)K=k+1=3, R=!,dt=6 c) a = (111 011110001101111100 101)
Abschno 80602
1. P = (~ ~~) ~ ap = (1111001011100) 0 101
Einfluß von P bedarf einer Untersuchung von dt bei gleicher
Koderate Rp und Einflußlänge Ko
Abschno 80603
1. a) b = (lH 0~1 ~q 00~ 101 H1 Ho 101), Anwendung von GI.
(8.42) ML-Dekodierung:
2 3 4 5 6 7
()()() ------ -'
10
01
0 0
8
11 : ...... . · . . . . . . ............ -110
b t-1.1 7 7
~1 7
_§t...! 7 7 ~
7
b* 1 1 0
Anmerkung: Der besseren Übersichtlichkeit
Zä~ler die Knoten nur mit "Zähler" bewertet!
101 ...!.1 t 7 7
0
wegen sind
b) a = (111 011110001101111100 101) ~ b=ap=(1110 00011
11001)
MD-Dekodierung:
_§_!0 7 7
101
0 0
anstelle A~+l =
-
()()()
-------'
110
Abschn. 8.6.4
1. Ansatz:
b 111 0 0,5 0,5 0,50,5
b* 1 1 1
Lösungen der Aufgaben 281
7 8
00 1 1 0,5 0,5 0,5 0,5 1 100 1 0,5 0,5
0 0 0 0
Anzahl Knoten im minimalen Trellis ~ 2min(l,k) = 2min(3,4) = 23
= 8, L = 2 = 8 Kanalkodefolgen.
0
1
2
3 :0011
4 :o1oo
5 :o101
6 :0110
7 :o111
8 :1000 9 :1001
10 :ww 11 )Oll
12 :1100
13 :1101
14 ) 110
15 :1111
...
-
282 Lösungen der Aufgaben
Minimales Syndromtrellis:
4
5
1 :out : . · ·
s :tooo !··· 9
13 :uo1 : ...... : ....... : .. . 14 :1110 ! .... .. : ....... :
... .
. . . . 15 :1111 : .....
-
Literatur
(AMT 94) U. Ammon, K.-H. Tröndle. Mathematische Grundlagen der
Codie-rung. München: Oldenbourg Verlag, 1974.
(BAC 74) L. Bahl, J. Cocke, F. Jelinek, J. Raviv.
Optimaldecoding of linear codes for minimizing symbol error rate.
IEEE Trans. on Inform. Theory, 1974, 284-287.
(BEG 93) C. Berrou, A. Glavieux, P. Thitimajshima. Near Shannon
Limit Error-Correcting Coding: Turbo Codes. Proc. 1993 IEEE Intern.
Conf. on Com., Geneva, May 1993.
(BOS 98) M. Bossert. Kanalcodierung. Stuttgart: Teubner-Verlag,
1998.
(CAC 79) J.B. Cain, G.C. Clark, J.M. Geist. Punctured
convolutional codes of rate (n- 1)/n and simplified maximum
likelihood decoding. IEEE Trans. on Inform. Theory, 1979,
97-100.
(COH 98) D.J. Costello, Jr., J. Hagenauer. H. Imai, S.B. Wicker.
Applications of Error-Control Coding. IEEE Trans. on Inform.
Theory, 1998, 2531-2560.
(DOP 88) W. Dörfler, W. Peschek. Einführung in die Mathematik
für Infor-matiker. München, Wien: Carl Hanser Verlag, 1988.
(DUD 93) Duden Informatik. Mannheim, Leipzig, Wien, Zürich:
Dudenverlag, 1993.
(FEY 68) P. Fey. Informationstheorie. Berlin: Akademie Verlag,
1968.
(GAL 63) R.G. Gallager. Low density parity check codes.
Cambridge, MA: MIT Press, 1963.
(HAG 88) J. Hagenauer. Rate-Compatible Punctured Convolutional
Codes (RCPC Codes) and their Applications. IEEE Trans. on Com.,
1988, 389-400.
-
284 Literatur
[HAH 89) J. Hagenauer, P. Hoeher. A Viterbi Algorithm with
Soft-Decision Outputs and its Applications. IEEE, Globecom 1989,
1680-1686.
[HAG 94) J. Hagenauer. Soft is better than hard. In: R.E.
Blahut, D.J. Co-stello, U. Maurer, T. Mittelholzer (Hrsg.):
Communications and Cryptography- Two Sides of One Tapestry, 1994,
155-171.
[HAO 96) J. Hagenauer, E. Offer, L. Papke. Iterative Decoding of
Binary Block and Convolutional Codes. IEEE Trans. on Inform.
Theory, 1996, 429-445.
[HAM 50) R.W. Hamming. Error Detecting and Correcting Codes.
Bell Syst. Tech. J. 29(1950), 147-160.
[HAM 87) R.W. Hamming. Information und Codierung. Weinheim: VCH
Ver-lagsgesellschaft, 1987.
[HAR 28) R.V. Hartley. Transmission of Information. Bell Syst.
Tech. J. 7(1928), 535-563.
[HEQ 95) Heise, W.; Quattrocchi, P.: Informations- und
Codierungstheorie. 3. Auflage. Berlin, Heidelberg, New York:
Springer-Verlag, 1995.
[HOE 97) P. Hoeher. New Iterative (,,Turbo'1 Decoding
Algorithms. Proc. of Int. Symp. on Thrbo Codes, Brest, France,
1997, 63-70.
[HÖH 75) E. Hölzler, H. Holzwarth. Pulstechnik. Berlin,
Heidelberg, New York: Springer-Verlag, 1975.
[KAD 91) F. KaderalL Digitale Kommunikationstechnik I.
Netze-Dienste-Informationstheorie-Codierung. Braunschweig,
Wiesbaden: Vie-weg-Verlag, 1991.
[KÄM 71) W. Kämmerer. Einführung in mathematische Methoden der
Ky-bernetik. Berlin: Akademie Verlag, 1971.
[LEZ 77] A. Lempel, J. Ziv. A Universal Algorithm for Sequential
Data Com-pression. IEEE Trans. on Inform. Theory, 23(1977)3.
[MKN 96) D.J.C. MacKay, R.M. Neal. Near Shannon Limit
Performance of Low Density Parity Check Codes. Electronics Letters
12.07.1996.
[MAN 74] D.M. Mandelbaum. An adaptive-feedback coding scheme
using in-cremental redundancy. IEEE Trans.lnform.Theory, 1974,
388-389.
-
Literatur 285
[MEY 99] M. Meyer. Kommunikationstechnik. Braunschweig,
Wiesbaden: Vieweg-Verlag, 1999.
[PAR 96] L. Papke, P. Robertson, E. Villebrun. Improved Decoding
with the SOVA in a Parallel Concatenated (TUrbo-Code) Scheme. IEEE
Int. Conf. on Com., 1996, 102-106.
[PEW 91] W.W. Peterson, E.J.Weldon. Error-Correcting Codes.
Eleventh printing 1991. Cambridge, Mas., and London: The MIT Press,
1991.
[REI 97] U. Reimers. Digitale Fernsehtechnik. Datenkompression
und Über-tragung für DVB. Berlin, Heidelberg: Springer-Verlag,
1997.
[SAL 97] D. Salomon. Data Compression. New York:
Springer-Verlag, 1997.
[SCH 92] 0. Schmidbauer. Sprachspezifisches Wissen in
Spracherkennungs-systemen. In: Mustererkennung 1992. 14.
DAGM-Symposium in Dresden. Berlin, Heidelberg, New York:
Springer-Verlag, 1992.
[SHA 48] C.E. Shannon. A Mathematical Theory of Communication.
Bell Syst. Tech. J. 7(1948), 379-423, 623-656.
[SHW 76] C.E. Shannon, W. Weaver. Mathematische Grundlagen der
Infor-mationstheorie. München: Oldenbourg Verlag, 1976.
[STR 02] T. Strutz. Bilddatenkompression. Braunschweig,
Wiesbaden: Vieweg-Verlag, 2002.
[VIT 87] J.S. Vitter. Design and Analysis of Dynamic Hufiman
Codes. J. ACM, 34(1987)4, 825-845.
[VUY 01] B. Vucetic, J. Yuan. Thrbo Codes. Principles and
Applications. Bo-ston, Dordrecht, London: Kluwer Academic
Publishers, 2001.
[WEB 98] Ch. Weiß, Ch. Bettstetter, S. Riedel. Thrbo Decoding
with Tail-Biting Trellises. in: Proc. 1998 URSI Int. Symp. on
Signals, Systems, and Electronics (ISSSE'98), Pisa, 1998,
343-348.
[WEL 84] T.A. Welch. A Technique for High Performance Data
Compression. IEEE Computer, 17(1984)6.
[VAL 99] M.C. Valenti. Iterative Detection and Decoding for
Wireless Com-munications. Diss., Virginia Politechnic Institute and
State Univer-sity, 1999.
-
Sachverzeichnis
Äquivokation, 78, 79 Übertragung
Übertragungsgeschwindigkeit, 83 gesicherte, 87 ungesicherte,
87
ABRAMSON-Kode, 181, 182, 234 Abtasttheorem, 73 Alphabet, 14
Kanal-, 130 Kode-, 130, 144 Quellen-, 130
Analog-Digital-Umsetzer (ADU), 122
Bündelfehler, 141, 174, 234 Bandbreite, 72, 73, 76 Basisvektoren
eines Vektorraumes, 144,
145 linear unabhängig, 144 Linearkombination, 144
BCH-Kode, 162, 175 erweiterter, 181 Fehlerkorrektur, 186
Generatorpolynom, 175 nichtprimitiver, 179 primitiver, 175
verkürzter, 178
BCJR-Algorithmus, 223 Bewertung
kanalabhängig, 254 kanalunabhängig, 251
Binärquelle, 18 Blockfehlerwahrscheinlichkeit, 254
CRC-Verfahren, 182
Datenkompression, 53, 59 Kompressionsrate, 64
Dekodierer Kanal-, 83, 131 Quellen-, 83
Dekodierung Dekodierungsbedingungen, 41, 44 hard decision-, 126,
199, 209 iterative, 218, 238 soft decision-, 126, 141, 199, 209
unverzögerte, 42
Dimension einer Matrix, 145 eines Vektorraumes, 144
Distanz, siehe HAMMING-Distanz EUKLDische, 213 freie Distanz,
200, 203, 252
Entropie, 16, 78, 79 bedingte, 28 MARKOW-, 25, 31 maximale, 16
relative, 34
Entropiemodell, 77 Entwurfsabstand, 162, 175, 182 Ereignis, 12,
13
bedingtes, 20 Verbund-, 27
Erweiterungskörper, 162, 164 (Erweiterungs-)Elemente, 165
äquivalente, 179 irreduzibles Polynom, 164 konjugierte Elemente,
165
Zyklus der, 166
-
Minimalpolynom, 167 Ordnung, 166
Kodewortlänge, 166 primitives Element, 166
Faltungskode, 141, 199 Begrenzung von Eingangsfolgen, 205
Beschreibungsformen, 200 Bewertung, 252, 266 Dekodierung, 209
Faltungskodierer, 200
Eigenschaften, 206 Einflußlänge, 200 Gedächtnis, 200
Generatormatrix, 200 Punktierung, 201, 208
FANO-Algorithmus, 210 Fehlererkennung, 133, 151, 173, 252,
254
' siehe Fehlerkorrektur durch Wie-
derholung Fehlerkorrektur, 151, 252, 258
durch Rekonstruktion, 127, 134, 152 Rekonstruktionsergebnisse,
128
durch Wiederholung, 127 Fehlermuster, 131, 151 Fehlersyndrom,
152, 153 Fundamentalsatz der Algebra, 165
Generatormatrix, 145 kanonische Staffelform, 146
Konstruktionsprinzip, 150
Generatorpolynom, 162 GOLAY-Kode, 181 Grenzfrequenz, 72, 73,
76
HAMMING-Distanz, 212 -Abstand, 132, 175 Minimalabstand, 133
minimale, 133, 151
HAMMING-Kode, 140, 155 dichtgepackter, 155 erweiterter, 159
verkürzter, 158
Sachverzeichnis 287
zyklischer, 182 HAMMING-Schranke, 136 Hauptpolynom, 168
Impulsfolge, 70 Information, 11, 12
Entscheidungsgehalt, 18 mittlerer Informationsgehalt, 16
semantischer Aspekt, 9 statistischer Aspekt, 9 1rans-, 80, 82,
137
Informationsübertragung, 68 Informationsfluß, 83
Kanal-, 84 Kanalkode--, 84 Quellen-, 84 Quellenkode--, 84, 137
1rans-, 84, 137
Informationsquelle, 13 m-fach erweiterte, 48, 53 diskrete
Quelle, 15, 20 kontinuierliche (analoge), 33 mit Gedächtnis, 20
Verbundquelle, 27
Informationsrate, siehe Koderate Interleaving, siehe
Kodespreizung Irrelevanz, 78, 79 Iterative Dekodierung, 231
Iterative soft decision-Dekodierung,
231, 238
Kanal, 68, 75, 77 -kapazität, 83, 89 -modell, 77 analoger, 77,
102 Binär-, 90, 254 diskreter, 77, 80
Kode binärer, 175 Block-, 138
linearer, 142, 162, 254 blockfreier, siehe Faltungskode
dichtgepackter, perfekter, 136
-
288 Sachverzeichnis
dualer, 140 gleichmäßiger, 41 Gruppen-, 138, 142 Kanal-, 130,
137, 138 Komma-, 42 kompakter oder optimaler, 46 mit
Präfix-Eigenschaft, 42 nichtbinärer, 182 Quellen-, 40
redundanzarmer, 49 systematischer, 147, 173, 207 ungleichmäßiger,
41 verkürzter, 178
Kodebaum, 43 Kodegewinn, 267 Kodeparameter, 132, 163, 169, 176,
183 Koderate, 136, 252 Koderedundanz, 41, 46, 56, 127
Kodespreizung, 235 Kodeverkettung, 138, 222, 231
Bewertung, 264 parallele, 238 serielle, 232
Kodewort -länge, 41
Maßeinheit, 45 mittlere, 45, 56 untere Schranke, 45
Gewicht, 134 minimales, 151
Kanal-, 130 Quellen-, 40, 130
Kodierer Kanal-, 85, 130 Quellen-, 84
Kodierung Binär-, 40 diskreter Quellen, 40 Kanal-, 41, 85, 119,
125
Divisionsverfahren, 172 Generatormatrix,Kontrollmatrix,
145, 148, 170 Kreuzsicherungsverfahren, 139
Multiplikationsverfahren, 171 Quellen-, 41 redundanzfreie, 47
störungsgeschützte, 125 zustandsabhängige, 56
Kodierungstheorem erstes SHANNONsches, 48 zweites SHANNONsches,
126, 137
Kontinuierliche (analoge) Quelle, 33 mit maximaler Entropie, 35
mit relativer Entropie, 34
Kontrollmatrix, 148, 151 Bestimmungsgln., 149, 158, 159
Kontrollgleichungen, 158, 159 Trellisstruktur, 227
Korrekturkugel, 133 KRAFTsehe Ungleichung, 43
MAP-Dekodierung, 223, 247 Max-Log-MAP, 225
MARKOW-Kette, 21 MARKOW-Quelle, 20
binäre, 23, 24 ergodische, 23 erster Ordnung, 20 stationäre, 23
Zustand, 20
MD/ML-Dekodierung, 212, 247 Minimalpolynom, 162, 164, 167
Modularpolynom, 162
irreduzibel, 163 primitiv, 163
Nachrichtenübertragung Modell, 10
Optimalkodierung, 48 erweiterter Quellen, 53 HUFFMAN-Verfahren,
51 LEMPEL-ZIV-Verfahren, 59 LZW-Verfahren, 60
SHANNON-FANO-Verfahren, 49 von MARKOW-Quellen, 56
-
Paritätskode, 139, 149, 159, 242, 243 Prüfmatrix, siehe
Kontrollmatrix Prüfvektor, 139, 152 Probenwert, 73 Punktierung,
201, 208, 215, 247
Quantisierung, 108 Amplituden-, 109 Zeit-, 110
Quelle, siehe Informationsquelle Quellenentropie, siehe
Entropie
Rauschabstand, 103 Reduktionsfaktor, 254 redundante Stellen
Kontrollstellen, 134 Redundanz, 127
relative, 136, 252 REED-MULLER-Kode, 140 REED-SOLOMON-Kode, 136,
162, 182
Auslöschungskorrektur, 190, 208, 236 Fehlerkorrektur, 189
Generatorpolynom, 182 MDS-Kode, 183 verkürzter, 185
Restfehlerwahrscheinlichkeit, 126, 137, 254
bei Auslöschungen, 260 bei verketteten Kodes, 265
Schrittfehlerwahrscheinlichkeit, 91, 254 Schrittgeschwindigkeit,
83 SHANNON-Grenze, 126, 209, 239 Signal, 68, 72
im Frequenzbereich, 71 im Zeitbereich, 69
Signal-Störverhältnis, 103 SINGLETON-Schranke, 136, 183
SOVA-Algorithmus, 218, 247 Spektrum, 72 Störerkennung, 93 Störung,
75, 76 Struktogrammnotation, 188
Sachverzeichnis 289
Turbokode, 231, 245
Unbestimmtheit, 11, 12
VENN-Diagramm, 29 Verbundquelle, 27
als MARKOW-Quelle, 31 Verbundentropie, 27
VITERBI-Algorithmus, 212, 213 hard decision-Dekodierung, 213
soft decision-Dekodierung, 215,
218
Wiederholungskode, 134, 138, 181 WOLF -Schranke, 227
Zyklischer Kode, 140, 162 Fehlererkennung, 169 Fehlerkorrektur,
185 Kodierung, 169