Algebraische Strukturen und Vektorräume Algebraische Strukturen Eine algebraische Struktur ist eine nichtleere endliche oder unendliche Men- ge von Elementen mit einer (oder mehreren) darin definierten Operation(en) samt den dazugehörigen Verknüpfungsvorschriften. Gruppe Eine Gruppe G ist eine algebraische Struktur, bei der genau eine Verknüp- fungsvorschrift definiert ist, welche den Axiomen Gl bis G4 genügt. DieMen- ge der Elemente sei A = { a 1, a 2, a 3, ... } . Die Verknüpfungsvorschrift für die Elemente von A wird i.allg. durch plus ( +) oder mal ( ·) dargestellt und als Addition bzw. Multiplikation bezeichnet, obgleich sie nicht der gewöhnlichen Addition und Multiplikation von Zahlen zu entsprechen braucht. Axiom Gl: Abgeschlossenheit Wird die Verknüpfungsvorschrift auf zwei beliebige Elemente der Gruppe an- gewendet, dann ist das Ergebnis definiert und wieder ein Element der Gruppe: Additive Gruppe (Summe) Vi,j. ai + ai = ak, Multiplikative Gruppe (Produkt) Vi,j. ai · ai = ak . Axiom G2: Assoziatives Gesetz Für drei beliebige Elemente gilt: bei einer additiven Gruppe Vi,j, k. (ai + ai) + ak = ai + (ai + ak) , bei einer multiplikativen Gruppe Vi,j, k. (ai · ai) · ak = ai · (ai · ak). Axiom G3: Neutrales Element In einer Gruppe gibt es genau ein neutrales Element. Bei einer additiven Grup- pe ist dies das Nullelement: \Ii. ai + 0 = 0 + ai = ai ; bei einer multiplikativen Gruppe ist dies das Einselement:
21
Embed
Algebraische Strukturen und Vektorräume - Springer978-3-663-10347-9/1.pdf · Algebraische Strukturen und Vektorräume Algebraische Strukturen Eine algebraische Struktur ist eine
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Algebraische Strukturen und Vektorräume
Algebraische Strukturen
Eine algebraische Struktur ist eine nichtleere endliche oder unendliche Menge von Elementen mit einer (oder mehreren) darin definierten Operation(en) samt den dazugehörigen Verknüpfungsvorschriften.
Gruppe
Eine Gruppe G ist eine algebraische Struktur, bei der genau eine Verknüpfungsvorschrift definiert ist, welche den Axiomen Gl bis G4 genügt. DieMenge der Elemente sei A = { a1 , a2 , a3 , ... } . Die Verknüpfungsvorschrift für die Elemente von A wird i.allg. durch plus ( +) oder mal ( ·) dargestellt und als Addition bzw. Multiplikation bezeichnet, obgleich sie nicht der gewöhnlichen Addition und Multiplikation von Zahlen zu entsprechen braucht.
Axiom Gl: Abgeschlossenheit Wird die Verknüpfungsvorschrift auf zwei beliebige Elemente der Gruppe angewendet, dann ist das Ergebnis definiert und wieder ein Element der Gruppe: Additive Gruppe (Summe) Vi,j. ai + ai = ak, Multiplikative Gruppe (Produkt) Vi,j. ai · ai = ak .
Axiom G2: Assoziatives Gesetz Für drei beliebige Elemente gilt: bei einer additiven Gruppe Vi,j, k. (ai + ai) + ak = ai + (ai + ak) , bei einer multiplikativen Gruppe Vi,j, k. (ai · ai) · ak = ai · (ai · ak).
Axiom G3: Neutrales Element In einer Gruppe gibt es genau ein neutrales Element. Bei einer additiven Gruppe ist dies das Nullelement: \Ii. ai + 0 = 0 + ai = ai ; bei einer multiplikativen Gruppe ist dies das Einselement:
270 Algebraische Strukturen und Vektorräume
Vi. ai · 1 = 1 · ai = ai . Axiom G4: Inverses Element Zu jedem Gruppenelement existiert ein inverses Element. Die Verknüpfung beider Elemente liefert das neutrale Element. Bei einer additiven Gruppe bezeichnet man das zu ai inverse Element -ai:
Vi. ai + ( -ai) = ( -ai) + ai = 0; bei einer multiplikativen Gruppe mit a;1: \../" -1 -1 1 vz. ai · ai = ai · ai = . Gilt zusätzlich zu den Gruppenaxiomen das kommutative Gesetz bei einer additiven Gruppe Vi,j. ai + ai = ai + ai, bei einer multiplikativen Gruppe Vi, j. ai · ai = ai · ai , dann heißt die Gruppe kommutativ oder abelsch.
Ring
Ein RingRist eine algebraische Struktur, für dessen Elemente zwei Verknüpfungsvorschriften definiert sind, die Addition und die Multiplikation. Die folgenden Axiome müssen erfüllt sein.
Axiom Rl: Abelsche Gruppe bzgl. der Addition Die Elemente aus A bilden eine Gruppe bzgl. der Addition. Die Gruppe ist abelsch.
Axiom R2: Abgeschlossenheit bzgl. der Multiplikation Das Produkt zweier beliebiger Elemente aus A existiert und ist wieder ein Element aus A: Vi, j. ai · ai = ak . Axiom R3: Assoziatives Gesetz bzgl. der Multiplikation Für drei beliebige Elemente aus A gilt: Vi,j, k. (ai · ai) · ak = ai · (ai · ak). Axiom R4: Distributives Gesetz Für drei beliebige Elemente aus A gilt: ai · (ai + ak) = ai · ai + ai · ak und (ai + ai) · ak = ai · ak + ai · ak.
Gilt für beliebige Elemente eines Ringes zusätzlich das kommutative Gesetz bzgl. der Multiplikation, d.h. Vi,j. ai · ai = ai · ai, dann heißt der Ring kommutativ.
Körper
Ein Körper K erfüllt die Axiome K1 bis K4.
Axiom Kl: Kommutativer Ring
Algebraische Strukturen und Vektorräume 271
Die Elemente eines Körpers bilden einen kommutativen Ring.
Axiom K2: Einselement Es existiert ein Einselement, so daß für ein beliebiges Element des Körpers gilt: Vi. ai · 1 = 1 · ai . Axiom K3: Inverses Element Jedes von Null verschiedene Element eines Körpers besitzt ein multiplikatives Inverses: Vi. ai · a;1 = a;1 · ai = 1 mit ai =I= 0. Die von Null verschiedenen Elemente eine Körpers genügen allen Gruppenaxi(}men bzgl. der Multiplikation und bilden daher eine multiplikative Gruppe.
Vektoren und Vektorräume
Einen n-Thpel (a1 a2 ... an), der aus der geordneten Menge von n Elementen eines beliebigen Körpers K besteht, bezeichnet man als Vektor v: v = (a1a2 ... an). Man sagt, ein solcher n-stelliger Vektor hat die Längen.
Eine nichtleere Menge V= { v1 , v2, ... }, deren Elemente Vektoren vi sind, heißt ein linearer Vektorraum über einem beliebigen Körper K, dessen Elemente aij Skalare genannt werden, wenn die folgenden Axiome erfüllt sind.
Axiom Vl: Abelsche Gruppe bzgl. der Addition Die Menge V ist eine abelsche Gruppe bzgl. der Addition.
Axiom V2: Multiplikation eines Vektors mit einem Skalar Zu jedem Vektor v3 und einem beliebigen Körperelement ai ist ein Produkt aivj definiert, welches wieder einen Vektor darstellt: aivj = ai (ajl a32 ... ajn) = (aiajl aiaj2 ... aiajn)
= (akl ak2 ... akn) = Vk. Axiom V3: Distributives Gesetz der Multiplikation mit einem Skalar bzgl. der vektoriellen Addition Sind v3 und vk Vektoren aus V und ist ai ein Skalar, dann gilt: ai(vj + vk) = aivj + aivk. Axiom V 4: Distributives Gesetz der Multiplikation mit einem Skalar bzgl. der skalaren Addition Ist vk ein Vektor und sind ai und a3 Skalare, dann gilt: (ai + a3)vk = aivk + a3vk. Axiom VS: Assoziatives Gesetz der Multiplikation mit einem Skalar Ist Vk ein Vektor und sind ai und a3 Skalare, dann gilt: (aiaj)vk = ai(ajvk).
Lösungen der Aufgaben
Abschnitt 2 Abschn. 2.2.1
1. a) Hm = 2, 06 bitjZeichen b) Ho= 2, 58 bitjZeichen
2. Ho= 14,3 · 103 bitjSeite 3. a) Ho = 6, 65 bitj Meßwert
b) Ho= 9, 96 bitj Meßwert 4. a) Hm = 1, 875 · 105 bitj Bild
b) Ho= 2, 32 · 105 bitj Bild 5. a) Hm = 6,07 bitjAmplitudenwert
b) Ho= 6,80 bitjAmplitudenwert 6. a) Hm = 6, 51 bit/Zahl
b) Ho= 6,64 bit/Zahl
Abschn. 2.2.2
1. a) p(x1) = p(x2) = 0, 25, p(xa) = 0, 50 b) HM = 1, 28 bitjZeichen
2. a) p<5>(zl) = 0,30, p<5>(z2) = 0,66, p<5>(za) = 0,04 b) HM = 0, 94 bit/Zustand
tl.H = Hrelopt - Hrellin = 0, 28 bitj PW 2. a) N = 32
b) tü = 12 s c) tü ~ 4s
3. a) f 9 = 6,25kHz b) tu< 0, 08ms cl) B ~50kHz c2) B ~25kHz
4. a) ungesichert: v8 = 1, 4 · 104 K Z / s, gesichert: v8 = 1, 63 · 104 K Z / s b) ungesichert: B ~7kHz, gesichert: B ~ 8,15kHz c) ungesichert: Ir~ 1,2 ·104 bitjs, gesichert: Ir= 1,4 ·104 bitfs
5. a) l = 7 Kanäle b) 5% der Gesamtmenge c) Q = 70bit
2. a) a4 = (0 10 111 0), as = (1 0 111 0 0), a5 = (111 0 0 1 0), a7 = (0 11100 1), ao = (0000000)
0 0 1 1 0 0 0
so 0 0 0 1 0 0 1
f-
b) Vgl. Gruppenaxiome G1 bis G4 (s. Algebraische Strukturen und Vektorräume)
Abschn. 8.3.3
1. Wegen v4 = VI E9 v2 E9 v3 und vs = VI E9 v4 gehören die Vektoren VI, v2, ... , vs zu einem Unterraum der Dimension l = 3 eines Vektorraumes der Dimension n = 7.
(AMT 94) U. Ammon, K.-H. Tröndle. Mathematische Grundlagen der Codierung. München: Oldenbourg Verlag, 1974.
(BAC 74) L. Bahl, J. Cocke, F. Jelinek, J. Raviv. Optimaldecoding of linear codes for minimizing symbol error rate. IEEE Trans. on Inform. Theory, 1974, 284-287.
(BEG 93) C. Berrou, A. Glavieux, P. Thitimajshima. Near Shannon Limit Error-Correcting Coding: Turbo Codes. Proc. 1993 IEEE Intern. Conf. on Com., Geneva, May 1993.
(BOS 98) M. Bossert. Kanalcodierung. Stuttgart: Teubner-Verlag, 1998.
(CAC 79) J.B. Cain, G.C. Clark, J.M. Geist. Punctured convolutional codes of rate (n- 1)/n and simplified maximum likelihood decoding. IEEE Trans. on Inform. Theory, 1979, 97-100.
(COH 98) D.J. Costello, Jr., J. Hagenauer. H. Imai, S.B. Wicker. Applications of Error-Control Coding. IEEE Trans. on Inform. Theory, 1998, 2531-2560.
(DOP 88) W. Dörfler, W. Peschek. Einführung in die Mathematik für Informatiker. München, Wien: Carl Hanser Verlag, 1988.
(FEY 68) P. Fey. Informationstheorie. Berlin: Akademie Verlag, 1968.
(GAL 63) R.G. Gallager. Low density parity check codes. Cambridge, MA: MIT Press, 1963.
(HAG 88) J. Hagenauer. Rate-Compatible Punctured Convolutional Codes (RCPC Codes) and their Applications. IEEE Trans. on Com., 1988, 389-400.
284 Literatur
[HAH 89) J. Hagenauer, P. Hoeher. A Viterbi Algorithm with Soft-Decision Outputs and its Applications. IEEE, Globecom 1989, 1680-1686.
[HAG 94) J. Hagenauer. Soft is better than hard. In: R.E. Blahut, D.J. Costello, U. Maurer, T. Mittelholzer (Hrsg.): Communications and Cryptography- Two Sides of One Tapestry, 1994, 155-171.
[HAO 96) J. Hagenauer, E. Offer, L. Papke. Iterative Decoding of Binary Block and Convolutional Codes. IEEE Trans. on Inform. Theory, 1996, 429-445.
[HAM 50) R.W. Hamming. Error Detecting and Correcting Codes. Bell Syst. Tech. J. 29(1950), 147-160.
[HAM 87) R.W. Hamming. Information und Codierung. Weinheim: VCH Verlagsgesellschaft, 1987.
[HAR 28) R.V. Hartley. Transmission of Information. Bell Syst. Tech. J. 7(1928), 535-563.
[HEQ 95) Heise, W.; Quattrocchi, P.: Informations- und Codierungstheorie. 3. Auflage. Berlin, Heidelberg, New York: Springer-Verlag, 1995.
[HOE 97) P. Hoeher. New Iterative (,,Turbo'1 Decoding Algorithms. Proc. of Int. Symp. on Thrbo Codes, Brest, France, 1997, 63-70.
[HÖH 75) E. Hölzler, H. Holzwarth. Pulstechnik. Berlin, Heidelberg, New York: Springer-Verlag, 1975.
[KAD 91) F. KaderalL Digitale Kommunikationstechnik I. Netze-DiensteInformationstheorie-Codierung. Braunschweig, Wiesbaden: Vieweg-Verlag, 1991.
[KÄM 71) W. Kämmerer. Einführung in mathematische Methoden der Kybernetik. Berlin: Akademie Verlag, 1971.
[LEZ 77] A. Lempel, J. Ziv. A Universal Algorithm for Sequential Data Compression. IEEE Trans. on Inform. Theory, 23(1977)3.
[MKN 96) D.J.C. MacKay, R.M. Neal. Near Shannon Limit Performance of Low Density Parity Check Codes. Electronics Letters 12.07.1996.
[MAN 74] D.M. Mandelbaum. An adaptive-feedback coding scheme using incremental redundancy. IEEE Trans.lnform.Theory, 1974, 388-389.
Literatur 285
[MEY 99] M. Meyer. Kommunikationstechnik. Braunschweig, Wiesbaden: Vieweg-Verlag, 1999.
[PAR 96] L. Papke, P. Robertson, E. Villebrun. Improved Decoding with the SOVA in a Parallel Concatenated (TUrbo-Code) Scheme. IEEE Int. Conf. on Com., 1996, 102-106.
[PEW 91] W.W. Peterson, E.J.Weldon. Error-Correcting Codes. Eleventh printing 1991. Cambridge, Mas., and London: The MIT Press, 1991.
[REI 97] U. Reimers. Digitale Fernsehtechnik. Datenkompression und Übertragung für DVB. Berlin, Heidelberg: Springer-Verlag, 1997.
[SAL 97] D. Salomon. Data Compression. New York: Springer-Verlag, 1997.
[SCH 92] 0. Schmidbauer. Sprachspezifisches Wissen in Spracherkennungssystemen. In: Mustererkennung 1992. 14. DAGM-Symposium in Dresden. Berlin, Heidelberg, New York: Springer-Verlag, 1992.
[SHA 48] C.E. Shannon. A Mathematical Theory of Communication. Bell Syst. Tech. J. 7(1948), 379-423, 623-656.
[SHW 76] C.E. Shannon, W. Weaver. Mathematische Grundlagen der Informationstheorie. München: Oldenbourg Verlag, 1976.
[STR 02] T. Strutz. Bilddatenkompression. Braunschweig, Wiesbaden: Vieweg-Verlag, 2002.
[VIT 87] J.S. Vitter. Design and Analysis of Dynamic Hufiman Codes. J. ACM, 34(1987)4, 825-845.
[VUY 01] B. Vucetic, J. Yuan. Thrbo Codes. Principles and Applications. Boston, Dordrecht, London: Kluwer Academic Publishers, 2001.
[WEB 98] Ch. Weiß, Ch. Bettstetter, S. Riedel. Thrbo Decoding with TailBiting Trellises. in: Proc. 1998 URSI Int. Symp. on Signals, Systems, and Electronics (ISSSE'98), Pisa, 1998, 343-348.
[WEL 84] T.A. Welch. A Technique for High Performance Data Compression. IEEE Computer, 17(1984)6.
[VAL 99] M.C. Valenti. Iterative Detection and Decoding for Wireless Communications. Diss., Virginia Politechnic Institute and State University, 1999.