Top Banner
Algebraische Strukturen und Vektorräume Algebraische Strukturen Eine algebraische Struktur ist eine nichtleere endliche oder unendliche Men- ge von Elementen mit einer (oder mehreren) darin definierten Operation(en) samt den dazugehörigen Verknüpfungsvorschriften. Gruppe Eine Gruppe G ist eine algebraische Struktur, bei der genau eine Verknüp- fungsvorschrift definiert ist, welche den Axiomen Gl bis G4 genügt. DieMen- ge der Elemente sei A = { a 1, a 2, a 3, ... } . Die Verknüpfungsvorschrift für die Elemente von A wird i.allg. durch plus ( +) oder mal ( ·) dargestellt und als Addition bzw. Multiplikation bezeichnet, obgleich sie nicht der gewöhnlichen Addition und Multiplikation von Zahlen zu entsprechen braucht. Axiom Gl: Abgeschlossenheit Wird die Verknüpfungsvorschrift auf zwei beliebige Elemente der Gruppe an- gewendet, dann ist das Ergebnis definiert und wieder ein Element der Gruppe: Additive Gruppe (Summe) Vi,j. ai + ai = ak, Multiplikative Gruppe (Produkt) Vi,j. ai · ai = ak . Axiom G2: Assoziatives Gesetz Für drei beliebige Elemente gilt: bei einer additiven Gruppe Vi,j, k. (ai + ai) + ak = ai + (ai + ak) , bei einer multiplikativen Gruppe Vi,j, k. (ai · ai) · ak = ai · (ai · ak). Axiom G3: Neutrales Element In einer Gruppe gibt es genau ein neutrales Element. Bei einer additiven Grup- pe ist dies das Nullelement: \Ii. ai + 0 = 0 + ai = ai ; bei einer multiplikativen Gruppe ist dies das Einselement:
21

Algebraische Strukturen und Vektorräume - Springer978-3-663-10347-9/1.pdf · Algebraische Strukturen und Vektorräume Algebraische Strukturen Eine algebraische Struktur ist eine

Sep 16, 2019

Download

Documents

dariahiddleston
Welcome message from author
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
  • Algebraische Strukturen und Vektorräume

    Algebraische Strukturen

    Eine algebraische Struktur ist eine nichtleere endliche oder unendliche Men-ge von Elementen mit einer (oder mehreren) darin definierten Operation(en) samt den dazugehörigen Verknüpfungsvorschriften.

    Gruppe

    Eine Gruppe G ist eine algebraische Struktur, bei der genau eine Verknüp-fungsvorschrift definiert ist, welche den Axiomen Gl bis G4 genügt. DieMen-ge der Elemente sei A = { a1 , a2 , a3 , ... } . Die Verknüpfungsvorschrift für die Elemente von A wird i.allg. durch plus ( +) oder mal ( ·) dargestellt und als Addition bzw. Multiplikation bezeichnet, obgleich sie nicht der gewöhnlichen Addition und Multiplikation von Zahlen zu entsprechen braucht.

    Axiom Gl: Abgeschlossenheit Wird die Verknüpfungsvorschrift auf zwei beliebige Elemente der Gruppe an-gewendet, dann ist das Ergebnis definiert und wieder ein Element der Gruppe: Additive Gruppe (Summe) Vi,j. ai + ai = ak, Multiplikative Gruppe (Produkt) Vi,j. ai · ai = ak .

    Axiom G2: Assoziatives Gesetz Für drei beliebige Elemente gilt: bei einer additiven Gruppe Vi,j, k. (ai + ai) + ak = ai + (ai + ak) , bei einer multiplikativen Gruppe Vi,j, k. (ai · ai) · ak = ai · (ai · ak). Axiom G3: Neutrales Element In einer Gruppe gibt es genau ein neutrales Element. Bei einer additiven Grup-pe ist dies das Nullelement: \Ii. ai + 0 = 0 + ai = ai ; bei einer multiplikativen Gruppe ist dies das Einselement:

  • 270 Algebraische Strukturen und Vektorräume

    Vi. ai · 1 = 1 · ai = ai . Axiom G4: Inverses Element Zu jedem Gruppenelement existiert ein inverses Element. Die Verknüpfung beider Elemente liefert das neutrale Element. Bei einer additiven Gruppe be-zeichnet man das zu ai inverse Element -ai: Vi. ai + ( -ai) = ( -ai) + ai = 0; bei einer multiplikativen Gruppe mit a;1: \../" -1 -1 1 vz. ai · ai = ai · ai = . Gilt zusätzlich zu den Gruppenaxiomen das kommutative Gesetz bei einer additiven Gruppe Vi,j. ai + ai = ai + ai, bei einer multiplikativen Gruppe Vi, j. ai · ai = ai · ai , dann heißt die Gruppe kommutativ oder abelsch.

    Ring

    Ein RingRist eine algebraische Struktur, für dessen Elemente zwei Verknüp-fungsvorschriften definiert sind, die Addition und die Multiplikation. Die fol-genden Axiome müssen erfüllt sein.

    Axiom Rl: Abelsche Gruppe bzgl. der Addition Die Elemente aus A bilden eine Gruppe bzgl. der Addition. Die Gruppe ist abelsch.

    Axiom R2: Abgeschlossenheit bzgl. der Multiplikation Das Produkt zweier beliebiger Elemente aus A existiert und ist wieder ein Ele-ment aus A: Vi, j. ai · ai = ak . Axiom R3: Assoziatives Gesetz bzgl. der Multiplikation Für drei beliebige Elemente aus A gilt: Vi,j, k. (ai · ai) · ak = ai · (ai · ak). Axiom R4: Distributives Gesetz Für drei beliebige Elemente aus A gilt: ai · (ai + ak) = ai · ai + ai · ak und (ai + ai) · ak = ai · ak + ai · ak. Gilt für beliebige Elemente eines Ringes zusätzlich das kommutative Gesetz bzgl. der Multiplikation, d.h. Vi,j. ai · ai = ai · ai, dann heißt der Ring kom-mutativ.

    Körper

    Ein Körper K erfüllt die Axiome K1 bis K4.

    Axiom Kl: Kommutativer Ring

  • Algebraische Strukturen und Vektorräume 271

    Die Elemente eines Körpers bilden einen kommutativen Ring.

    Axiom K2: Einselement Es existiert ein Einselement, so daß für ein beliebiges Element des Körpers gilt: Vi. ai · 1 = 1 · ai . Axiom K3: Inverses Element Jedes von Null verschiedene Element eines Körpers besitzt ein multiplikatives Inverses: Vi. ai · a;1 = a;1 · ai = 1 mit ai =I= 0. Die von Null verschiedenen Elemente eine Körpers genügen allen Gruppenaxi(}-men bzgl. der Multiplikation und bilden daher eine multiplikative Gruppe.

    Vektoren und Vektorräume

    Einen n-Thpel (a1 a2 ... an), der aus der geordneten Menge von n Elemen-ten eines beliebigen Körpers K besteht, bezeichnet man als Vektor v: v = (a1a2 ... an). Man sagt, ein solcher n-stelliger Vektor hat die Längen.

    Eine nichtleere Menge V= { v1 , v2, ... }, deren Elemente Vektoren vi sind, heißt ein linearer Vektorraum über einem beliebigen Körper K, dessen Elemente aij Skalare genannt werden, wenn die folgenden Axiome erfüllt sind.

    Axiom Vl: Abelsche Gruppe bzgl. der Addition Die Menge V ist eine abelsche Gruppe bzgl. der Addition.

    Axiom V2: Multiplikation eines Vektors mit einem Skalar Zu jedem Vektor v3 und einem beliebigen Körperelement ai ist ein Produkt aivj definiert, welches wieder einen Vektor darstellt: aivj = ai (ajl a32 ... ajn) = (aiajl aiaj2 ... aiajn)

    = (akl ak2 ... akn) = Vk. Axiom V3: Distributives Gesetz der Multiplikation mit einem Skalar bzgl. der vektoriellen Addition Sind v3 und vk Vektoren aus V und ist ai ein Skalar, dann gilt: ai(vj + vk) = aivj + aivk. Axiom V 4: Distributives Gesetz der Multiplikation mit einem Skalar bzgl. der skalaren Addition Ist vk ein Vektor und sind ai und a3 Skalare, dann gilt: (ai + a3)vk = aivk + a3vk. Axiom VS: Assoziatives Gesetz der Multiplikation mit einem Skalar Ist Vk ein Vektor und sind ai und a3 Skalare, dann gilt: (aiaj)vk = ai(ajvk).

  • Lösungen der Aufgaben

    Abschnitt 2 Abschn. 2.2.1

    1. a) Hm = 2, 06 bitjZeichen b) Ho= 2, 58 bitjZeichen

    2. Ho= 14,3 · 103 bitjSeite 3. a) Ho = 6, 65 bitj Meßwert

    b) Ho= 9, 96 bitj Meßwert 4. a) Hm = 1, 875 · 105 bitj Bild

    b) Ho= 2, 32 · 105 bitj Bild 5. a) Hm = 6,07 bitjAmplitudenwert

    b) Ho= 6,80 bitjAmplitudenwert 6. a) Hm = 6, 51 bit/Zahl

    b) Ho= 6,64 bit/Zahl

    Abschn. 2.2.2

    1. a) p(x1) = p(x2) = 0, 25, p(xa) = 0, 50 b) HM = 1, 28 bitjZeichen

    2. a) p(zl) = 0,30, p(z2) = 0,66, p(za) = 0,04 b) HM = 0, 94 bit/Zustand

    3 )- ....E.._ - ~ . a Pl = ~+JL' P2 = ~+JL

    b) HM = Pl ((1- .\) ld 1 ~~ + ,\ ld t) + P2 (tLld ~ + (1- J.L) ld l~JL) Abschn. 2.2.3

    1. a) H(A) = 1, 54 bitjZeichen, H(B) = 1, 57 bitjZeichen b) H(AIB) = 1,45 bitjZeichen, H(BIA) = 1,48 bitjZeichen c) H(A, B) = 3, 02 bitjZeichenpaar

    2. a) H(X) = 1, 55 bitjZeichen, H(Y) = 2, 29 bitjZeichen b) H(XIY) = 1, 39 bitjZeichen c) 1. H(X, Y) = 3, 68 bitjZeichenpaar

    2. H(X, Y) = 2, 29 bitjZeichenpaar

  • Lösungen der Aufgaben 273

    Abschn. 2.3

    1. Hrel = ld 2ae

    Abschnitt 3

    Abschn. 3.2 und 3.3

    1. a) Eindeutig dekodierbar: K1, K3, K4 b) lm = 2,5 BZ/QZ für K1 und K3 c) RK = 0, 08 bit/QZ

    2. H(X,X) = H(X) + H(X) = 2 · H(X) (vollständige Unabhängigkeit), allgemein: H(Xm) = H(X) + H(X) + ... + H(X) = m · H(X)

    mmal

    Abschn. 3.4.2.1 und 3.4.2.2

    1. a) lm = 3, 16 BZ/QZ, RK = 0, 38 bitfQZ b) lm = 2,84 BZ/QZ, RK = 0,06 bitfQZ c) lm = 2,81 BZ/QZ, RK = 0,03 bitfQZ

    2. a) Optimalkode b) lm = 2, 97 BZ/Amplitudenwert c) lll = 1,13 BZ/Amplitudenwert

    3. a) Hm = 7, 95 bitf Signalwert b) lm = 8,50 BZ/Signalwert c) llRK = 1, 50 bitf Signalwert

    Abschn. 3.4.2.3

    1. a) RK = 0, 53 bit/QZ b) RK = 0,18 bitfQZ c) RK = 0, 06 bit/QZ

    2. m = 1 : RK = 0, 10 bit/QZ m = 2: RK = 0,04 bit/QZ

    3. a) Optimalkode einer erweiterten Quelle für m = 3 b) 27,3%, da lm = 0, 727 BZ/QZ für m = 3 c) nein, weil Hm = 0, 723 bitfQZ ~ lm

    Abschn. 3.4.2.4

    1. a) Teilkodes mit lml = 1, 9, lm2 = 1, 5, lm3 = 1, 6, lm4 = 1, 0 b) RK = 0, 21 bit/Zustand c) lll = 0, 45 BZ/Zustand

    Abschnitt 5 1. a) HT = 0,53bit/KZ

    b) HT = 0,36bit/KZ

  • 27 4 Lösungen der Aufgaben

    2. f(O) = 0 bitj KZ, f(O, 5) = 1 bitf KZ 3. a) Hr = 0,31bit/KZ, H(X) = 1bitfZ

    b) Hr = 0, 17bitfKZ, H(X) = 0, 72bit/Z c) Hr = 0,27bit/KZ, H(X) = 0, 72bitjZ

    4. a) p(xi) = 0, 63, p(x2) = 0, 37 b) Hr = 0,55bitjKZ c) Hr = 0,61bit/KZ

    5. Hr = 0, 75bit/KZ, Hrero = 0, 71bit/KZ 6. Hr = 1,36bit/KZ 7. a) Hr = ldN- PF ld (N- 1) + ppldpp + {1- PF) ld {1- PF)

    b) Max.: PJ = 0, Hrmaz = ldN N-1

    Min.: PF = ~' Hrmin = 0 8. gesichert: !Q = 258QZ/s, ungesichert: !Q = 300QZ/s Abschnitt 6

    tl.C 1. a) C ~58%

    tl.C b) c ~ 10%

    2. a) C ~ 3 ·104 bitfs b)r=45dB c) t = 33s d) t = 167 s

    3. B ~ 5,2MHz 4. a) sv ~ 105 bitfern

    b) C ~ 1,9·106 bit/s

    Abschnitt 7 1. Optimale Kennlinie: Hrelopt = ld {2a), lineare Kennlinie: Hrellin = ld {1, 65a)

    tl.H = Hrelopt - Hrellin = 0, 28 bitj PW 2. a) N = 32

    b) tü = 12 s c) tü ~ 4s

    3. a) f 9 = 6,25kHz b) tu< 0, 08ms cl) B ~50kHz c2) B ~25kHz

    4. a) ungesichert: v8 = 1, 4 · 104 K Z / s, gesichert: v8 = 1, 63 · 104 K Z / s b) ungesichert: B ~7kHz, gesichert: B ~ 8,15kHz c) ungesichert: Ir~ 1,2 ·104 bitjs, gesichert: Ir= 1,4 ·104 bitfs

    5. a) l = 7 Kanäle b) 5% der Gesamtmenge c) Q = 70bit

  • Lösungen der Aufgaben 275

    6. a) l:l.U = 15,6mV b) Vü = 1600 bitj S

    7. Intervall 1 2 3 4 5 6 7 a) WK. 0,032 0,030 0,054 0,089 0,121 0,113 0,061 b) WK. 0,227 0,124 0,068 0,037 0,020 0,011 0,013 c) Hapt = 7,64bit/PW, Hlin = 7, 12bit/PW

    Abschnitt 8 Abschn. 8.1.3

    1. k = 10 2. k = 6 -4 Tk = 0, 095 ; R = 0, 905 3. n = 15, k = 5 (Anwendung Gl. (8.13));

    dmin = 3 : fk = 1 bzw. fe = 2 oder dmin = 4: fk = 1, /e = 2 bzw. /e = 3 (Anwendung Gl. (8.10))

    Abschn. 8.2.1.2

    1. ai = (101101), a2 = (001100), a3 = (010111); Tk = 0,167 2.

    1 0 0 1 0 1 0 0 1 0 1 1 0 0 0 1 1 0 1 1 1 0 1 1 1 1 0 0 0 1 0 1 -4 Tk = 0,333; 0 0 0 0 1 0 1 0 0 1 0 1 0

    1 0 0 1 1 0 0 1 0 so= 0 0 1 0

    t Abschn. 8.3.2

    1. a) Nein! b) dmin = 2

    2. a) a4 = (0 10 111 0), as = (1 0 111 0 0), a5 = (111 0 0 1 0), a7 = (0 11100 1), ao = (0000000)

    0 0 1 1 0 0 0

    so 0 0 0 1 0 0 1

    f-

    b) Vgl. Gruppenaxiome G1 bis G4 (s. Algebraische Strukturen und Vektorräume)

    Abschn. 8.3.3

    1. Wegen v4 = VI E9 v2 E9 v3 und vs = VI E9 v4 gehören die Vektoren VI, v2, ... , vs zu einem Unterraum der Dimension l = 3 eines Vektorraumes der Dimension n = 7.

    2. Nein!

    Abschn. 8.3.4

    1. 9I(GI) = 9I(G2)• 92(GI) = 9I(G2) E9 92(G2)• 93(GI) = 92(G2) E9 93(G2)

    (1011100)

    2. H = 1101 0 1 0 , dmin = 3 0111001

  • 276 Lösungen der Aufgaben

    3. a) b3 = 92 EEl 93 E A b) s = H · bf = 0

    4. l k (n, l)-Kanalkode 5 4 (9,4)-Kanalkode 7 4 (11,4)-Kanalkode

    11 4 (15,4)-perfekter Kanalkode 17 5 (22,17)-Kanalkode

    Abschn. 8.4

    1. a) k = 3 b) s. Beispiel 8.4.2 c) b1 E A, b2,korr = (0011110), b3,korr = (1010101)

    2. a) l = 5, dmin = 3: k = 4 (Gl. (8.10)) -+ verkürzter (9, 5)-HAMMING-Kode -+ erweiterter ((n + 1, l, dmin + 1) = (10, 5, 4))-HAMMING-Kode (Bestimmungsgleichungen für die Kontrollelemente s. Abschn. 8.4.3)

    b) a* = (10101) -+ averkürzt = (110101100) -+ aerweitert = (1101011001)

    Abschn. 8.5.1

    1. P5(x) irreduzibel, P3(x) primitiv 2. Pmax = 255 = 3 · 5 ·17 fj_ IP': x17,x5l,x85 ,x255modM(x) = 1 -+ n = 17 3. n =p= 9:

    m1(x) = (x+a 1)(x+a2)(x+a4)(x+a8)(x+a7)(x+a5) = x6 +x3+1 = M(x), m3(x) = (x + a 3 )(x + a 6 ) = x2 + x + 1, f(x) = mo(x) m1(x) m3(x) = (x + 1)(x6 + x3 + 1)(x2 + x + 1) = x9 + 1

    4. M(x) primitiv-+ Zyklus i = 3: a 3,a6,a12,a9 -+ m3(x)Polynom 4. Grades, m3 ( x) = x4 + x3 + x2 + x + 1

    Abschn. 8.5.2

    1. Nein! 2. L = 23 Kanalkodewörter, Verfahren s. Abschn. 8.5.2.2, 8.5.2.3 3. a) ai = (11 0 0 0 10 11 0 1)

    b) a2 = (0 1 0 11 0 11 0 0 1) c) a3 = ( 1 0 0 0 111 0 0 0 1)

    (1110100)

    4. H = 0 1 1 1 0 1 0 1101001

    5. grade(x) < grad9(x) (zyklische Verschiebung unberücksichtigt) 6. a) b1 fj_ A: Zweifachfehler, nicht korrigierbar

    b) b2 fj_ A: Einfachfehler, b2,korr = (0 10 0 111) c) b3 E A

    7. 9(x) = x + 1

  • Lösungen der Aufgaben 277

    Abschn. 8.5.3

    1. verkürzter primitiver (427,400,7)-BCH-Kode 2. g(x) = kgV{m1(x),m2(x), ... ,md8 =5(x)}

    a) k1 = gradM(x) = 6 erfüllt Gl. (8.28) ~ verkürzter primitiver (38,20, 7)-BCH-Kode, R = ~g ~ 0, 53

    b) aus Tabelle (s. Beispiel 8.5.12) Wahl von p = n und Zyklenbildung: p = 45: ß\ß2,ß4,ß8,ß161 ß32 1 ß64(mod45) = ß19 1 ß38 1 ß31 1 ß17 1 ß34 1 ß23

    ß3, ß6, ß12, ß24 ~~ ß10, ß20, ß40 1 ß35 1 ß25

    (~ k1 = gradmi(x) = 12, d.h. mi(x) im GF(212) definiert) ~verkürzter nichtprimitiver (42,20,7)-BCH-Kode, R = ~g ~ 0, 48

    3. a) p = 63, k = 24 : 4 Nullstellen-Zyklen ~ dmin = 9, fk = 4 b) erweiterter nichtprimitiver (36, 11, dmin + 1 )-BCH-Kode ~ nichtprimitiver

    (35, 11, dmin)-BCH-Kode: p = 35, k = 24: 2 Nullstellen-Zyklen ~ dmin = 5, fk = 2

    4. Welches Modularpolynom (m1(x),m7(x) oder mu(x)) liefert die größtmögliche Anzahl aufeinanderfolgender Nullstellen und damit maximalen Abstand? M(x) = m1(x): dmin = 3 M(x) = m7(x): mi(x) = m7(x) mit ß1 = o?

    ß1 ,ß2, ß\ß8, ß16 ß1 = a.1 c/, a14, a28, a25, a19 ß3 ,ß6, ß12, ß24, ß17 ß3 = (a7)3 = a21 0!21, 0!11, 0!22, 0!13, 0!26 ß5, ß10 1 ß20 1 ß19 1 ß18 ß5 = (a7)5 = a4 0!4, 0!8, 0!16, 0!1, 0!2 g(x) = mi(x)m3(x)m5(x) ~m7(x)mu(x)m1(x), dmin = 7

    M(x) = mu(x): dmin = 5 5. !b ~ 12,dE = 6: g(x) = m1(x)m3(x)ms(x), k1 = gradm1(x) = 5

    ~verkürzter primitiver (25,10,7)-BCH-Kode mit fb ~ 15, fe ~ 6

    Abschn. 8.5.4

    1. a) a* = (a5a6a4) ~ a = (a5a6a4a5a2a2a6)

    b) azykl = (0!60!40!50!20!20!60!5) E A

    Die Division azykl(x) : g(x) liefert den Rest r(x) = 0. c) b E A? (Ausführung der Division in Koeffizientenschreibweise):

    a3a a5 0 a4a61 : 1a3 1aa3 = a3a5a4 0!30!60!30!40!6

    0!50!20!40!30!6 0!5 0! 0!5 0!6 0!

    0!4 1 0!40!51 0!4 1 0!40!51

    0 ~ bEA

  • 278 Lösungen der Aufgaben

    Abschn. 8.5.5

    1. b(x) = x14 + x13 + x12 + x9 + x6 + x3 + x2 + x + 1 0. bf/. A 1. 8t = b(x = a 1) = (a14 +a13 +a12 +a9 +a6+a3 +a2 +a+ 1}modM(a) = a,

    82 = 8~ = a 2,83 = b(x = a 3) = 1,84 = 8~ = a4, 85 = b(x = a 5) = 1, 86 = 8~ = 1

    2. a a3 + a 2a2 + a1 = a4 a 2a3 + a2 + a 4a1 = 1

    0"3 + a 4a2 + a1 = 1 --+ a(x) = x3 + ax2 + a9x + a 11 3. Xt = a 3,x2 = a 10,x3 = a 13

    e(x) = x13 + x10 + x3 bkorr(x) = x14 + x12 + xlO + x9 + x6 + x2 + x + 1

    2. b1 = (a4000000) 0. b1 f/. A 1. 81 = b(x = a 1) = a 3,82 = b(x = a 2) = a 2 2. a 3a1 = a 2 --+ a(x) = x + a6 3. x1 = a6 --+ e(x) = Y1X6 4. 8t = Y1 x1 --+ e(x) = a 4x6

    bt,korr = (0000000} E A b2 = (a40000a20) 0. b2 f/. A 1. 81 = b(x = a 1) = 0,82 = b(x = a 2) = a 2. Oa1 = a --+ nicht lösbar, Dekodierversagen

    3. b = (OOOOOOOOOOOa0a 0a 0a 0) o. bf/. A 1. 8t = a 12,82 = a 9 ,83 = a 12,84 = a 3,85 = 1,86 = a 9 2. a(x) = x3 + a 12x2 + a 9x + a 12 3. Für alle x E GF(24) ist a(x) =F 0. Es liegen mehr als fk Fehler und damit

    Dekodierversagen vor. 4. a) b = (a20a50a40a2), p = 2, fk = 2, U = (a3,a)

    0. bf/. A 1. 81 = a 5, 82 = a, 83 = 1, 84 = a 6 2. Abarbeitungsprotokoll:

    r ll.r A(x) l b(x) t(x) 1 0 0

    1 1+a3x 1 1 + a 3x 2 1 +x +a4x2 2 1 +x+a4x2 3 a 5 1 + a4x + x2 + a 2x3 3 a 2 + a 2x + a 6x2 1 + a 4x + x 2 + a 2x3 4 0 a 2x + a 2x2 + a6x3

    --+ Ausgabe: A(x)BM = 1 + a4x + x2 + a 2x3 ; v = 3. --+ a(x) = x3 + a4x 2 + x + a 2 (Anwendung Gl. (8.37))

    3. X3 = a 5

  • 4. o 5 = o Y1 + o 3y2 + o 5y3 o = o 2y1 + o 6y2 + o 3y3 1 = o 3y1 + o 2y2 + o Y3 --+ Y1 = o 5, Y2 = o 6, Y3 = o 6

    Lösungen der Aufgaben 279

    --+ bkorr = b + e = (o20o50o40o2) + (Oo60o60o50) = (o2o 6o 5o 6o 4o5o2) b) b = (o3o 3o 4o 31o4o 3)

    0. b tf. A 1. s1 = 1,s2 = o 2,s3 = o 3,s4 = o 6

    2. PZG:

    1 0"2 + o 2a1 = o 3 020"2 + 030"1 = 06 --+ a(x) = x 2 + o 2x + o 6

    BERLEKAMP /MASSEY:

    r Ar A(x) l b(x) t(x) 1+x 1 1

    2 06 1 +o2x X 1+o2x 3 06 1 + o 2x + o 6x 2 2 o +o3x 1 + o 2x + o 6x 2

    4 0 ox + o 3x2

    --+ A(x)BM = 1 + o 2x + o 6x 2 ; v = 2 --+ a(x) = x 2 + o 2x + o 6

    EUKLID: i ri(x) q(x) wi(x)

    ( -1) x4 0 0 o 6x 3 + o 3x2 + o 2x + 1 1 1 x2 + o3x +o5 ox+o5 ox+o5 2 0 o6x + o5 x 2 + o 3x + o

    --+ A(x)EUKL = (x2 + o 3x + o)o-1 = o 6x 2 + o 2x + 1 = A(x)BM 3. X1 = 1, X2 = 0 6 4. Yl = o 5,y2 = o 5 --+ e(x) = o 5x6 + o 5

    --+ bkorr = b + e = (o2o 3o 4o 31o4o 2)

    Abschn. 8.6.1

    1. a) G 2 ist katastrophal (Nullschleife im Zustand "11") b) Beispiel: Zustandsübergangstabelle

    u(r) z(r) z(r + 1) v(r) 0 0,0 0,0 0,0 1 0,0 1,0 1,1 0 1,0 0,1 1,1 1 1,0 1,1 0,0 0 0,1 0,0 0,1 1 0,1 1,0 1,0 0 1,1 0,1 1,0 1 1,1 1,1 0,1

  • 280 Lösungen der Aufgaben

    c) a = (00 110001101011 01)

    2° a) ~ v1(t)

    u(t)

    +-------+--~ v2(t)

    l..,_----ttt--- v3(t)

    b)K=k+1=3, R=!,dt=6 c) a = (111 011110001101111100 101)

    Abschno 80602

    1. P = (~ ~~) ~ ap = (1111001011100) 0 101

    Einfluß von P bedarf einer Untersuchung von dt bei gleicher Koderate Rp und Einflußlänge Ko

    Abschno 80603

    1. a) b = (lH 0~1 ~q 00~ 101 H1 Ho 101), Anwendung von GI. (8.42) ML-Dekodierung:

    2 3 4 5 6 7

    ()()() ------ -'

    10

    01

    0 0

    8

    11 : ...... . · . . . . . . ............ -110

    b t-1.1 7 7

    ~1 7

    _§t...! 7 7 ~

    7

    b* 1 1 0

    Anmerkung: Der besseren Übersichtlichkeit

    Zä~ler die Knoten nur mit "Zähler" bewertet!

    101 ...!.1 t 7 7

    0

    wegen sind

    b) a = (111 011110001101111100 101) ~ b=ap=(1110 00011 11001)

    MD-Dekodierung:

    _§_!0 7 7

    101

    0 0

    anstelle A~+l =

  • ()()()

    -------'

    110

    Abschn. 8.6.4

    1. Ansatz:

    b 111 0 0,5 0,5 0,50,5

    b* 1 1 1

    Lösungen der Aufgaben 281

    7 8

    00 1 1 0,5 0,5 0,5 0,5 1 100 1 0,5 0,5

    0 0 0 0

    Anzahl Knoten im minimalen Trellis ~ 2min(l,k) = 2min(3,4) = 23 = 8, L = 2 = 8 Kanalkodefolgen.

    0

    1

    2

    3 :0011

    4 :o1oo

    5 :o101

    6 :0110

    7 :o111

    8 :1000 9 :1001

    10 :ww 11 )Oll

    12 :1100

    13 :1101

    14 ) 110

    15 :1111

    ...

  • 282 Lösungen der Aufgaben

    Minimales Syndromtrellis:

    4

    5

    1 :out : . · ·

    s :tooo !··· 9

    13 :uo1 : ...... : ....... : .. . 14 :1110 ! .... .. : ....... : ... .

    . . . . 15 :1111 : .....

  • Literatur

    (AMT 94) U. Ammon, K.-H. Tröndle. Mathematische Grundlagen der Codie-rung. München: Oldenbourg Verlag, 1974.

    (BAC 74) L. Bahl, J. Cocke, F. Jelinek, J. Raviv. Optimaldecoding of linear codes for minimizing symbol error rate. IEEE Trans. on Inform. Theory, 1974, 284-287.

    (BEG 93) C. Berrou, A. Glavieux, P. Thitimajshima. Near Shannon Limit Error-Correcting Coding: Turbo Codes. Proc. 1993 IEEE Intern. Conf. on Com., Geneva, May 1993.

    (BOS 98) M. Bossert. Kanalcodierung. Stuttgart: Teubner-Verlag, 1998.

    (CAC 79) J.B. Cain, G.C. Clark, J.M. Geist. Punctured convolutional codes of rate (n- 1)/n and simplified maximum likelihood decoding. IEEE Trans. on Inform. Theory, 1979, 97-100.

    (COH 98) D.J. Costello, Jr., J. Hagenauer. H. Imai, S.B. Wicker. Applications of Error-Control Coding. IEEE Trans. on Inform. Theory, 1998, 2531-2560.

    (DOP 88) W. Dörfler, W. Peschek. Einführung in die Mathematik für Infor-matiker. München, Wien: Carl Hanser Verlag, 1988.

    (DUD 93) Duden Informatik. Mannheim, Leipzig, Wien, Zürich: Dudenverlag, 1993.

    (FEY 68) P. Fey. Informationstheorie. Berlin: Akademie Verlag, 1968.

    (GAL 63) R.G. Gallager. Low density parity check codes. Cambridge, MA: MIT Press, 1963.

    (HAG 88) J. Hagenauer. Rate-Compatible Punctured Convolutional Codes (RCPC Codes) and their Applications. IEEE Trans. on Com., 1988, 389-400.

  • 284 Literatur

    [HAH 89) J. Hagenauer, P. Hoeher. A Viterbi Algorithm with Soft-Decision Outputs and its Applications. IEEE, Globecom 1989, 1680-1686.

    [HAG 94) J. Hagenauer. Soft is better than hard. In: R.E. Blahut, D.J. Co-stello, U. Maurer, T. Mittelholzer (Hrsg.): Communications and Cryptography- Two Sides of One Tapestry, 1994, 155-171.

    [HAO 96) J. Hagenauer, E. Offer, L. Papke. Iterative Decoding of Binary Block and Convolutional Codes. IEEE Trans. on Inform. Theory, 1996, 429-445.

    [HAM 50) R.W. Hamming. Error Detecting and Correcting Codes. Bell Syst. Tech. J. 29(1950), 147-160.

    [HAM 87) R.W. Hamming. Information und Codierung. Weinheim: VCH Ver-lagsgesellschaft, 1987.

    [HAR 28) R.V. Hartley. Transmission of Information. Bell Syst. Tech. J. 7(1928), 535-563.

    [HEQ 95) Heise, W.; Quattrocchi, P.: Informations- und Codierungstheorie. 3. Auflage. Berlin, Heidelberg, New York: Springer-Verlag, 1995.

    [HOE 97) P. Hoeher. New Iterative (,,Turbo'1 Decoding Algorithms. Proc. of Int. Symp. on Thrbo Codes, Brest, France, 1997, 63-70.

    [HÖH 75) E. Hölzler, H. Holzwarth. Pulstechnik. Berlin, Heidelberg, New York: Springer-Verlag, 1975.

    [KAD 91) F. KaderalL Digitale Kommunikationstechnik I. Netze-Dienste-Informationstheorie-Codierung. Braunschweig, Wiesbaden: Vie-weg-Verlag, 1991.

    [KÄM 71) W. Kämmerer. Einführung in mathematische Methoden der Ky-bernetik. Berlin: Akademie Verlag, 1971.

    [LEZ 77] A. Lempel, J. Ziv. A Universal Algorithm for Sequential Data Com-pression. IEEE Trans. on Inform. Theory, 23(1977)3.

    [MKN 96) D.J.C. MacKay, R.M. Neal. Near Shannon Limit Performance of Low Density Parity Check Codes. Electronics Letters 12.07.1996.

    [MAN 74] D.M. Mandelbaum. An adaptive-feedback coding scheme using in-cremental redundancy. IEEE Trans.lnform.Theory, 1974, 388-389.

  • Literatur 285

    [MEY 99] M. Meyer. Kommunikationstechnik. Braunschweig, Wiesbaden: Vieweg-Verlag, 1999.

    [PAR 96] L. Papke, P. Robertson, E. Villebrun. Improved Decoding with the SOVA in a Parallel Concatenated (TUrbo-Code) Scheme. IEEE Int. Conf. on Com., 1996, 102-106.

    [PEW 91] W.W. Peterson, E.J.Weldon. Error-Correcting Codes. Eleventh printing 1991. Cambridge, Mas., and London: The MIT Press, 1991.

    [REI 97] U. Reimers. Digitale Fernsehtechnik. Datenkompression und Über-tragung für DVB. Berlin, Heidelberg: Springer-Verlag, 1997.

    [SAL 97] D. Salomon. Data Compression. New York: Springer-Verlag, 1997.

    [SCH 92] 0. Schmidbauer. Sprachspezifisches Wissen in Spracherkennungs-systemen. In: Mustererkennung 1992. 14. DAGM-Symposium in Dresden. Berlin, Heidelberg, New York: Springer-Verlag, 1992.

    [SHA 48] C.E. Shannon. A Mathematical Theory of Communication. Bell Syst. Tech. J. 7(1948), 379-423, 623-656.

    [SHW 76] C.E. Shannon, W. Weaver. Mathematische Grundlagen der Infor-mationstheorie. München: Oldenbourg Verlag, 1976.

    [STR 02] T. Strutz. Bilddatenkompression. Braunschweig, Wiesbaden: Vieweg-Verlag, 2002.

    [VIT 87] J.S. Vitter. Design and Analysis of Dynamic Hufiman Codes. J. ACM, 34(1987)4, 825-845.

    [VUY 01] B. Vucetic, J. Yuan. Thrbo Codes. Principles and Applications. Bo-ston, Dordrecht, London: Kluwer Academic Publishers, 2001.

    [WEB 98] Ch. Weiß, Ch. Bettstetter, S. Riedel. Thrbo Decoding with Tail-Biting Trellises. in: Proc. 1998 URSI Int. Symp. on Signals, Systems, and Electronics (ISSSE'98), Pisa, 1998, 343-348.

    [WEL 84] T.A. Welch. A Technique for High Performance Data Compression. IEEE Computer, 17(1984)6.

    [VAL 99] M.C. Valenti. Iterative Detection and Decoding for Wireless Com-munications. Diss., Virginia Politechnic Institute and State Univer-sity, 1999.

  • Sachverzeichnis

    Äquivokation, 78, 79 Übertragung

    Übertragungsgeschwindigkeit, 83 gesicherte, 87 ungesicherte, 87

    ABRAMSON-Kode, 181, 182, 234 Abtasttheorem, 73 Alphabet, 14

    Kanal-, 130 Kode-, 130, 144 Quellen-, 130

    Analog-Digital-Umsetzer (ADU), 122

    Bündelfehler, 141, 174, 234 Bandbreite, 72, 73, 76 Basisvektoren eines Vektorraumes, 144,

    145 linear unabhängig, 144 Linearkombination, 144

    BCH-Kode, 162, 175 erweiterter, 181 Fehlerkorrektur, 186 Generatorpolynom, 175 nichtprimitiver, 179 primitiver, 175 verkürzter, 178

    BCJR-Algorithmus, 223 Bewertung

    kanalabhängig, 254 kanalunabhängig, 251

    Binärquelle, 18 Blockfehlerwahrscheinlichkeit, 254

    CRC-Verfahren, 182

    Datenkompression, 53, 59 Kompressionsrate, 64

    Dekodierer Kanal-, 83, 131 Quellen-, 83

    Dekodierung Dekodierungsbedingungen, 41, 44 hard decision-, 126, 199, 209 iterative, 218, 238 soft decision-, 126, 141, 199, 209 unverzögerte, 42

    Dimension einer Matrix, 145 eines Vektorraumes, 144

    Distanz, siehe HAMMING-Distanz EUKLDische, 213 freie Distanz, 200, 203, 252

    Entropie, 16, 78, 79 bedingte, 28 MARKOW-, 25, 31 maximale, 16 relative, 34

    Entropiemodell, 77 Entwurfsabstand, 162, 175, 182 Ereignis, 12, 13

    bedingtes, 20 Verbund-, 27

    Erweiterungskörper, 162, 164 (Erweiterungs-)Elemente, 165 äquivalente, 179 irreduzibles Polynom, 164 konjugierte Elemente, 165

    Zyklus der, 166

  • Minimalpolynom, 167 Ordnung, 166

    Kodewortlänge, 166 primitives Element, 166

    Faltungskode, 141, 199 Begrenzung von Eingangsfolgen, 205 Beschreibungsformen, 200 Bewertung, 252, 266 Dekodierung, 209 Faltungskodierer, 200

    Eigenschaften, 206 Einflußlänge, 200 Gedächtnis, 200

    Generatormatrix, 200 Punktierung, 201, 208

    FANO-Algorithmus, 210 Fehlererkennung, 133, 151, 173, 252,

    254

    ' siehe Fehlerkorrektur durch Wie-

    derholung Fehlerkorrektur, 151, 252, 258

    durch Rekonstruktion, 127, 134, 152 Rekonstruktionsergebnisse, 128

    durch Wiederholung, 127 Fehlermuster, 131, 151 Fehlersyndrom, 152, 153 Fundamentalsatz der Algebra, 165

    Generatormatrix, 145 kanonische Staffelform, 146 Konstruktionsprinzip, 150

    Generatorpolynom, 162 GOLAY-Kode, 181 Grenzfrequenz, 72, 73, 76

    HAMMING-Distanz, 212 -Abstand, 132, 175 Minimalabstand, 133 minimale, 133, 151

    HAMMING-Kode, 140, 155 dichtgepackter, 155 erweiterter, 159 verkürzter, 158

    Sachverzeichnis 287

    zyklischer, 182 HAMMING-Schranke, 136 Hauptpolynom, 168

    Impulsfolge, 70 Information, 11, 12

    Entscheidungsgehalt, 18 mittlerer Informationsgehalt, 16 semantischer Aspekt, 9 statistischer Aspekt, 9 1rans-, 80, 82, 137

    Informationsübertragung, 68 Informationsfluß, 83

    Kanal-, 84 Kanalkode--, 84 Quellen-, 84 Quellenkode--, 84, 137 1rans-, 84, 137

    Informationsquelle, 13 m-fach erweiterte, 48, 53 diskrete Quelle, 15, 20 kontinuierliche (analoge), 33 mit Gedächtnis, 20 Verbundquelle, 27

    Informationsrate, siehe Koderate Interleaving, siehe Kodespreizung Irrelevanz, 78, 79 Iterative Dekodierung, 231 Iterative soft decision-Dekodierung,

    231, 238

    Kanal, 68, 75, 77 -kapazität, 83, 89 -modell, 77 analoger, 77, 102 Binär-, 90, 254 diskreter, 77, 80

    Kode binärer, 175 Block-, 138

    linearer, 142, 162, 254 blockfreier, siehe Faltungskode dichtgepackter, perfekter, 136

  • 288 Sachverzeichnis

    dualer, 140 gleichmäßiger, 41 Gruppen-, 138, 142 Kanal-, 130, 137, 138 Komma-, 42 kompakter oder optimaler, 46 mit Präfix-Eigenschaft, 42 nichtbinärer, 182 Quellen-, 40 redundanzarmer, 49 systematischer, 147, 173, 207 ungleichmäßiger, 41 verkürzter, 178

    Kodebaum, 43 Kodegewinn, 267 Kodeparameter, 132, 163, 169, 176, 183 Koderate, 136, 252 Koderedundanz, 41, 46, 56, 127 Kodespreizung, 235 Kodeverkettung, 138, 222, 231

    Bewertung, 264 parallele, 238 serielle, 232

    Kodewort -länge, 41

    Maßeinheit, 45 mittlere, 45, 56 untere Schranke, 45

    Gewicht, 134 minimales, 151

    Kanal-, 130 Quellen-, 40, 130

    Kodierer Kanal-, 85, 130 Quellen-, 84

    Kodierung Binär-, 40 diskreter Quellen, 40 Kanal-, 41, 85, 119, 125

    Divisionsverfahren, 172 Generatormatrix,Kontrollmatrix,

    145, 148, 170 Kreuzsicherungsverfahren, 139

    Multiplikationsverfahren, 171 Quellen-, 41 redundanzfreie, 47 störungsgeschützte, 125 zustandsabhängige, 56

    Kodierungstheorem erstes SHANNONsches, 48 zweites SHANNONsches, 126, 137

    Kontinuierliche (analoge) Quelle, 33 mit maximaler Entropie, 35 mit relativer Entropie, 34

    Kontrollmatrix, 148, 151 Bestimmungsgln., 149, 158, 159 Kontrollgleichungen, 158, 159 Trellisstruktur, 227

    Korrekturkugel, 133 KRAFTsehe Ungleichung, 43

    MAP-Dekodierung, 223, 247 Max-Log-MAP, 225

    MARKOW-Kette, 21 MARKOW-Quelle, 20

    binäre, 23, 24 ergodische, 23 erster Ordnung, 20 stationäre, 23 Zustand, 20

    MD/ML-Dekodierung, 212, 247 Minimalpolynom, 162, 164, 167 Modularpolynom, 162

    irreduzibel, 163 primitiv, 163

    Nachrichtenübertragung Modell, 10

    Optimalkodierung, 48 erweiterter Quellen, 53 HUFFMAN-Verfahren, 51 LEMPEL-ZIV-Verfahren, 59 LZW-Verfahren, 60 SHANNON-FANO-Verfahren, 49 von MARKOW-Quellen, 56

  • Paritätskode, 139, 149, 159, 242, 243 Prüfmatrix, siehe Kontrollmatrix Prüfvektor, 139, 152 Probenwert, 73 Punktierung, 201, 208, 215, 247

    Quantisierung, 108 Amplituden-, 109 Zeit-, 110

    Quelle, siehe Informationsquelle Quellenentropie, siehe Entropie

    Rauschabstand, 103 Reduktionsfaktor, 254 redundante Stellen

    Kontrollstellen, 134 Redundanz, 127

    relative, 136, 252 REED-MULLER-Kode, 140 REED-SOLOMON-Kode, 136, 162, 182

    Auslöschungskorrektur, 190, 208, 236 Fehlerkorrektur, 189 Generatorpolynom, 182 MDS-Kode, 183 verkürzter, 185

    Restfehlerwahrscheinlichkeit, 126, 137, 254

    bei Auslöschungen, 260 bei verketteten Kodes, 265

    Schrittfehlerwahrscheinlichkeit, 91, 254 Schrittgeschwindigkeit, 83 SHANNON-Grenze, 126, 209, 239 Signal, 68, 72

    im Frequenzbereich, 71 im Zeitbereich, 69

    Signal-Störverhältnis, 103 SINGLETON-Schranke, 136, 183 SOVA-Algorithmus, 218, 247 Spektrum, 72 Störerkennung, 93 Störung, 75, 76 Struktogrammnotation, 188

    Sachverzeichnis 289

    Turbokode, 231, 245

    Unbestimmtheit, 11, 12

    VENN-Diagramm, 29 Verbundquelle, 27

    als MARKOW-Quelle, 31 Verbundentropie, 27

    VITERBI-Algorithmus, 212, 213 hard decision-Dekodierung, 213 soft decision-Dekodierung, 215,

    218

    Wiederholungskode, 134, 138, 181 WOLF -Schranke, 227

    Zyklischer Kode, 140, 162 Fehlererkennung, 169 Fehlerkorrektur, 185 Kodierung, 169