Top Banner
Учебно-методический комплекс по дисциплине " Прикладная теория информации" для студентов ЕИТИ имени К.И. Сатпаева по специальности 050702. Экибастуз: ЕИТИ, 2006. - 69 с, ил. Составители: Сматов К.С. профессор каф.АТМ Илипбаева Л.Б. ст.препод. каф.АТМ РЕЦЕНЗИЯ на силлабус и учебно-методический комплекс по дисциплине «Прикладная теория информации» для студентов специальности 050702 - «Автоматизация и управление» авторы: Аннотация: Учебно-методический комплекс дисциплин студента (УМК ДС) представляет собой документ, определяющий концепцию конкретного курса. Учебно-методический комплекс составляется автором на основе типовой программы, издается типографским способом и предназначаегся для студентов, обучающихся по кредитной системе. Учебно- методический комплекс выдается студенту перед началом изучения дисциплины и содержит учебную программу ДИСЦИПЛИНЫ (Syllabus), тематический план курса, систему заданий для самостоятельной работы студентов, график выполнения отчетных работ по дисциплине, тестовые задания для самоконтроля, тематику письменных работ и перечень экзаменационных вопросов. Ценность данного УМК состоит в распределении учебною времени по темам и видам учебных занятий, организации самостоятельной работы студентов в аудитории и в внеаудиторное время, активизации познавательной и творческой студентов и обеспечения взаимосвязи учебного и исследовательского процессов. В УМК рассмотрены основы теории информации, вопросы правильного и оптимального выбора методики кодирования и декодирования, модуляций и демодуляций, а также расчета кодов и параметров информации Учебно-методический комплекс написан в соответствии с рабочей программой дисциплины "Прикладная теория информации" и нового образовательного стандарта Автоматизации и управления. { #
89

ПТИ1

Sep 11, 2014

Download

Documents

Welcome message from author
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Page 1: ПТИ1

Учебно-методический комплекс по дисциплине " Прикладная теория информации" для студентов ЕИТИ имени К.И. Сатпаева по специальности 050702. Экибастуз: ЕИТИ, 2006. - 69 с, ил.

Составители:Сматов К.С. профессор каф.АТМ Илипбаева Л.Б. ст.препод. каф.АТМ

РЕЦЕНЗИЯна силлабус и учебно-методический комплекс по

дисциплине «Прикладная теория информации»для студентов специальности 050702 - «Автоматизация и

управление» авторы:

Аннотация: Учебно-методический комплекс дисциплин студента (УМК ДС) представляет собой документ, определяющий концепцию конкретного курса. Учебно-методический комплекс составляется автором на основе типовой программы, издается типографским способом и предназначаегся для студентов, обучающихся по кредитной системе. Учебно-методический комплекс выдается студенту перед началом изучения дисциплины и содержит учебную программу ДИСЦИПЛИНЫ (Syllabus), тематический план курса, систему заданий для самостоятельной работы студентов, график выполнения отчетных работ по дисциплине, тестовые задания для самоконтроля, тематику письменных работ и перечень экзаменационных вопросов. Ценность данного УМК состоит в распределении учебною времени по темам и видам учебных занятий, организации самостоятельной работы студентов в аудитории и в внеаудиторное время, активизации познавательной и творческой студентов и обеспечения взаимосвязи учебного и исследовательского процессов.

В УМК рассмотрены основы теории информации, вопросы правильного и оптимального выбора методики кодирования и декодирования, модуляций и демодуляций, а также расчета кодов и параметров информации

Учебно-методический комплекс написан в соответствии с рабочей программой дисциплины "Прикладная теория информации" и нового образовательного стандарта Автоматизации и управления.

В учебно-методическом комплексе (УМК) рассмотрены основы теории информации, основные методы кодирования и декодирования, модуляции и демодуляции. Данные методы используются для решения задач передачи и приема информации по каналам связи.

Приведены опорные лекции, разбитые по темам и модулям, с контрольными вопросами. Принятая структура и изложение материала УМК соответствует целям и задачам дисциплины.

В разделе СРС и СРСП приведены темы, по которым студенты могут самостоятельно изучить предмет, а также компьютерное моделирование в среде инженерной программы "System Veiw".

В УМК приведены вопросы для проверки знаний по дисциплине.Уровень изложения является высоким, а материал соответствует

достижениям отечественной и зарубежной науки в теории информации. В комплексе и силлабусе в достаточной'iiepe Для выполнения практических работ освещены методы и задачи кодирования и декодирования, передачи и прима информации, что позволит студентам ознакомиться с ними на практике.

С методической точки зрения комплекс подготовлен в соответствии с необходимыми требованиями и отличается доступностью изложения материала. Данный комплекс отвечает требованиям преподавания данной дисциплины. Иллюстрации, приведенные в пособии, соответствуют характеру дисциплины и содержанию комплекса.

При постраничном анализе было отмечено, что терминология в УМК использована правильно, в соответствии с общепринятыми правилами. Приведенные величины, определения и понятия соответствуют принятым в литературе, имеющей отношение к дисциплине, связанным с изучением прикладной теории информации.

Основываясь на вышеизложенном, можно сделать вывод, что представленный на рецензию силлабус и УМК составлены на достаточно высоком научно-техническом и педагогическом уровне, полностью соответствуют требованиям обучения специалистов бакалавриата по специальности «Автоматизация и управление» и рекомендуется к изданию в качестве силлабуса и УМК по курсу «Прикладная теория информации» для студентов специальности 050702 - Автоматизация и управление.

имени К.И.Сатпаева, 2011 г. Профессор,к.т.н. каф. «ВТ» ПИТ ЕИТИ им.К.Сатпаева

{ #

Page 2: ПТИ1

К. И. Сэтбаев атындагы1 УЧЕБНАЯ ПРОГРАММА ДИСЦИПЛИНЫ - SYLLABUS

1.1 Данные о преподавателях:Профессор, доктор физ-мат наук Сматов Косы

ст.преподаватель., кафедры Илипбаева Ляззат Болатовна Контактная информация 92-77-45, Время пребывания 1200 - 1400 кафедра ATM, 9 аудитория.

1.2 Данные о дисциплине: Название Прикладная теория информации Количество кредитов 3 Место проведения аудиторные фонды института АиУ и лаборатории кафедры ATM

Выписка из учебного плана

Кур

с

Сем

естр

Кре

диты Академических часов в Форма

контроля

Лекции

Лаб.занятия

Практ. занятия

СРС СРСП Всего

1 2 3 4 - 5 6 7 8 9 103 5 3 1 1 1 3 3 9 Экзамен

1.3 Пререквнзиты: предшествующие дисциплины необходимые для изучения данной дисциплины (перечень дисциплин по рабочему учебному плану специальности).

Дисциплина " Прикладная теория информации " базируется на знаниях, полученных приизучении курсов "Высшая математика", "Физика", "Информатика", "Вычислительные машинысистемы и сети".

1.4 Постреквизиты: перечень дисциплин, в которых используются знания изучаемойдисциплины (по рабочему учебному плану специальности).

Перечень дисциплин, взаимосвязанных с данной дисциплиной: теория автоматического управления, информационно-управляющие системы и передача данных, системы передачи и обработка информации, проектирование систем автоматики и телемеханики, автоматизация технических система также дисциплины, устанавливаемые советом вуза.

1.5 Краткое описание дисциплиныЦелью изучения дисциплины " Прикладная теория информации " является, чтобы студент знал процессы приема передачи информации, на которой строятся современные устройства приема передачи,-умел определить объем информации и энтропии, кодировать и декодировать модулировать и демодулировать сигналы, обладал достаточными знаниями для правильного выбора способа кодирования и декодирования модулирования и демодулирования сигналов. В результате изучения дисциплины " Прикладная

Page 3: ПТИ1

теория информации " Студенты должны знать:

-что собой представляет прием и передача информаций, основные понятия о сообщении и их модели;

-что такое кодирование и классификация кодов;-основ

ные понятия квантования и дискретизаций :-основные понятия энтропии.

-модуляция и демодуляция сигналов Студенты должны уметь:-правильно выбрать устройство приема передачи;

- кодировать информацию различными кодами;- квантование и дискретизация непрерывного сообщения;- модулировать и демодулировать сигналы.

Page 4: ПТИ1

Видыконтроля

Вид работыЛ№1

______1.6 Виды заданий и сроки их выполнения

Тема работыСсылки на

рекомендуемую

литературу суказанием страниц

Исследования устройствприма и передачи сигналов.

Баллы (согласно рейтинг-шкале)

Сроки сдачи1 нед.

Рубежныйконтроль

РК Математические введение кциклическим кодам. Требования, предъявляемые кобразующему многочлену.Выбор образующего многочлена по заданному объемукода заданной корректирующей способности________

1осн[128-233]2 доп [365-460, 490-565]

10 15 нед.

IРубежныйконтроль,

Энтропия

непрерывногоисточника

сообщений(дифференциальная энтропия) и её свойствИсследование передачи данных с помехам.Геометрическая

мера.Комбинаторная

мера.Адаптивная мера (мера Хартли). Представление кода в виде многочленов и арифметические операции над ними.Исследование кодирования идекодирования

кода

Хэмминга..Помехозащишенные коды обнаруживающие ошибкиИсслед

ованиепомехоустойчивоймодуляции и демодуляциипри передчи данныхКодирова

ние как процесс выражения информации в цифровом виде. Эффективное кодирование. Основная

Теоремы Шеннона о кодировании для канала без помех. Методы эффективного кодировния некорелированной последовательности символов (методики Шеннона-Фэно и Хаффмена)Исследование частотного модулятора и демодулятора.Циклические коды d =3 d ~4 Исследование частотного модулятора и демодулятора.Операции над многочленами использованием регистров сдвига и с сумматоров по модулю два.

Л №7 | Исследование фазовогомодулятора и демодулятора на помехоустойчивое коды.

1осн[56-57], 4 доп [765-775]

1осн[81-88],5доп [21-

1осн.[6-8].1 доп [8-

Л №2

РК

Л №3

Л

Л №5

IIЛ №6

Page 5: ПТИ1

41]4

осн[44-57], 3 доп [325-329],

1осн[7-108]. 2 [700-762]

Зосн[88-93], 1доп[15

-20] 4доп[42-57]1осн[60-74], 3 доп [325-

329],1осн[111-123], 2 доп [77-

79], 5доп[20-25].1 осн[ 123-125,198-214]. 2

доп [98-104]

1осн[400-411]. 5доп[20-25].

1 осн[119-1231. 1осн[161-164]. 5 доп-[ 19-22].

1осн [155-157], 3 доп [152-155].

1осн[229-232] 5доп[25-28]

10 2 нед.3 нед.4 нед.5 нед.6 нед.7 нед.8 нед.9 нед.10 нед.11 нед.12 нед.13 нед.14 нед.

40Итоговой Экзамен

контроль_______________

1.7 Список литератуОсновная

Дмитриев В.И. Прик

ладная теория информации. - М.: Высш.шк.. 1989. Сергеенко А.Б. Цифровая обработка сигналов - М.: Питер.,2002. Тутевич В.Н. Телемеханика, 2-е изд. М.: Высш.шк., 1985.-423 с.Темников Ф.Е., Афонин В.А., Дмитриев В.И. Теоретические основы информационной техники. : Энергия, 1979.-512 с.Питерсон У., Уэлдон Э. Коды, исправляющие ошибки.- М.; Мир, 1976. Бернард Скляр Цифровая связь.- М.: Вильяме.,2003.

Дополнительная1. Кловский Д.Д. Теория передачи сигналов . - М.: Связь., 19732. Основы передачи дискретных сообщений./Под редакцией. В.М.Пушкина -Радио и связь, 1992.3. В. П. Цымбал Задачник по передаче и вычисление информации . -М.: Радио и связь, 1991.4. Аршинов М.Н., Садовский Л.Е. Коды и математика. М.: Наука, 1983.5. Орлов В.А., Филиппов Л.И. Теория информации в упражнениях и задачах. -М.: Высш.шк., 1976-

136 с.6. В.Д. Резевинг, Г.В.Лаврентьев Система System view

упражнениях для моделирования ипроектирования телекоммуникационных систем. М.: Радио и связь, 2002.

1.8 Контроль и оценка знанийРейтинг каждой дисциплины, которая включена в рабочий

учебный план специальности, оценивается по 100 - бальной шкале независимо от итогового контроля.

Для каждой дисциплины устанавливаются следующие виды контроля: текущий контроль, рубежный контроль, итоговый контроль.

Распределение рейтинговых баллов по видам контроля

Вид итогового контроляЭкзамен

Рубежный контрольИтоговый контроль

Сроки сдачи результатов текущего контроля должны определяться календарным графиком учебного процесса по дисциплине.

Календарный график сдачи всех видов контроля по дисциплине «Прикладная теория информации»

15п 1 л

Балл

Виды контроля: Л - лабораторная работа, РК - рубежный контроль, К- коллоквиум, Р- рефераты; П-практические задачи и др.

Студент допускается к сдаче итогового

БаллыВиды контроля№

вариант 40Текущий контроль 2040

14131210Недели лп

лллп РК.4РКЛЛВиды контроля 103103

Page 6: ПТИ1

контроля при наличии суммарного рейтингового балла > 30. Итоговый контроль считается сданным в случае набора > 20 баллов. Итоговая оценка по дисциплине определяется по шкале.

Page 7: ПТИ1

Оценка знаний студентовОценка Буквенный

эквивалентРейтинговый балл (в

процентах %)В баллах

Отлично А 95-100 4А- 90-94 3,67

Хорошо В+ 85-89 3,33В 80-84 3,0в- 75-79 2,67

Удовлетворительно с+ 70-74 2,33с 65-69 2,0с- 60-64 1,67D+ 55-59 1,33D 50-54 1,0

Неудовлетворительно F 0-49 0

Перечень вопросов для проведения контроля по модулям и промежуточной аттестации

Вопросы для проведения контроля по 1 модулю:1. Дайте определение, что такое информация.2. Назовите различие информаций от сообщения.3. Определите основные этапы обращения информации4. Нарисуйте структуру системы передачи приема информации5. Назовите структурную меру информации6. Дайте определения энтропии7. Основные формы представления сигнала8. Что такое дискретизация9. Что такое квантование10. Дайте определение теоремы Котельникова11. Что такое дискретное сообщение12. Нарисуйте структуру передачи дискретного сообщения13. Информационные характеристики дискретных сообщений14. Что такое случайные сигналы15. Основные модели случайных процессов16. Что такое случайные процессы17. Функциональные характеристики случайных процессов18. Стационарные характеристики случайных процессов19. Практическое применение теоремы Котельникова20. Условная и частная энтропия

Вопросы для проведения контроля по 2 модулю:1. Дайте определение кодированию.2. Какие коды называются помехоустойчивыми?3. Какие коды называются непомехоустойчивыми?4. Какой параметр отвечает за помехоустойчивость кода?5. Что такое кодовое расстояние?6. Что такое вес кода?7. Как определяется длина помехоустойчивого кода?8. Назовите какие коды называются обнаруживающими ошибки?

9. Как располагаются контрольные символы в коде Хэмминга?10. Какие технические средства используются для построения

кодеров и декодеров?11. Какие коды называются циклическими кодами?12. Что такое образующий полином?13. Каким условиям должен соответствовать образующий полином в

циклическом коде d=3?14. Как определяются число контрольных символов в циклическом

коде d=4?15. Из каких матриц состоит образующая матрица кодовых

комбинации циклических кодов?16. Какие условия должны выполняться при исправлении

одиночной ошибки при циклическом коде?17. Чему равно кодовое расстояние, если код одну ошибку

обнаруживает и одну исправляет?18. Основные виды носителей информации.19. Что такое модуляция?20. Основные виды модуляций.

Перечень вопросов для проведения промежуточной аттестации:1. Что является носителем информации? 2. Что несет в себе новизну для получателя? 3. Как определяется оценка энтропии в двоичных единицах? 4. Как определяется оценка энтропии в десятичных единицах?5. Как определяется оценка энтропии в натуральных единицах?6. Как определяется общее число неповторяющихся сообщений?7. Как определяется количество информации равновероятных и

взаимонезависимых символов?8. Как определяется количество информации неравновероятных

символов?9. Определите минимальное кодовое расстояние для кодов

обнаруживающие ошибки?10. Определите минимальное кодовое расстояние для кодов

обнаруживающие и исправляющие ошибки.11. Определите минимальное кодовое расстояние для кодов

исправляющие ошибки.12. Построить геометрическую модель трехэлементного кода.13. Построить геометрическую модель двухзначного кода.14. Какие коды называются линейными кодами.15. Назовите правила сложения по модулю два.

1.9 Политика и процедураСтуденты должны в обязательном порядке посещать занятия. В случае

пропуска занятий (по уважительным или неуважительным причинам) студенты отрабатывают занятия в внеучебное время. Задания к лабораторным работам студент получает при условии сдачи предыдущей лабораторной работы.

Page 8: ПТИ1

Студент допускается к сдаче итогового контроля при условии сдачи всех видов контроля.

2 СОДЕРЖАНИЕ АКТИВНОГО РАЗДАТОЧНОГО МАТЕРИАЛА

2.1 Тематический план2.2

Наименование темы Лекция Прак.занятия Лаб.раб. СРСП СРС

1 Понятие информации. Этапы обращенияинформации: восприятие, подготовка, передачаи хранение, обработка и использованиеинформации. Система передачи информации2. Структурные меры информации. Энтропиякак мера неопределенности информации. _________________________________3 Понятие сигнала и его модели. Формыпредставления детерминированных сигналов 4 Дискретизация и квантование. ТеоремаКотельникова._____________________5.Информационные характеристики

источника сообщений и канала связи. Основные понятия иопределения.______________________6 Случайные сигналы. Ансамбль реализаций.Модели случайных процессов. ____________________________

Page 9: ПТИ1

7. Помехоустойчивое кодирование. Связь корректирующей способности кода с

1 2 3 3

8. Обнаруживающие коды. Примеры обнаруживающих кодов (код с постоянным весом,

1 2 3 3

9. Корректирующие групповые коды. Коды Хэмминга.

1 2 3 3

10. Циклические коды. Общие понятия и определения. Методы образования

1 3 3 3

11. Декодирование циклического кода с обнаружением и исправлением

1 3 3

12. Коды Файра.. Итеративные коды. 13. Коды Боуза-

11

22

33

3 3

14 Модуляция. Основные виды носителей.

1 2 3 3

15.Угловая модуляция. Амплитудная модуляция

1 3 3 3

ВСЕГО ЧАСОВ 15 15 15 45 45

2.2 Конспект лекционных занятий

Лекция 1. Понятие информации. Этапы обращения информации: восприятие, подготовка, передача и хранение, обработка и использование информации. Система передачи информации

1.1 Понятие информации. Этапы обращения информации: передача и хранение, обработка и использование информации.

Хотя роль информации может ограничиваться неопределенным эмоциональным воздействием на человека, в чисто технических (автоматических) и человеко-машинных (автоматизированных) системах она чаще всего используется для выработки управляющих воздействий. При обращении информации в системах можно выделить отдельные этапы. Так как материальным носителем информации является сигнал, то реально это будут этапы обращения и преобразования сигналов как показано на рисунке 1.1.

На этапе восприятия информации осуществляется целенаправленное извлечение и анализ информации о каком-либо объекте (процессе), в результате чего формируется образ объекта, проводятся его опознание и оценка. При этом необходимо отделить интересующую нас в данном случае информацию от мешающей (шумов), что в ряде случаев связано со значительными трудностями. Простейшим видом восприятия является различение двух противоположных состояний: наличия («да») и отсутствия («нет»), более сложным — измерение.

На этапе подготовки информации проводятся такие операции, как нормализация, аналого-цифровое преобразование, шифрование. Иногда этот этап рассматривается как вспомогательный на этапе восприятия. В результате восприятия и подготовки получается сигнал в форме, удобной для передачи или обработки.

На этапах передачи и хранения информация пересылается либо из одного места в другое. либо от одного момента времени до другого. Поскольку теоретические задачи, возникающие на этих этапах, близки друг другу, этап хранения информации часто в самостоятельный этап не выделяется. При этом передача информации получает более широкое толкование. Для передачи на расстояние используются каналы различной физической природы, самыми распространенными из которых являются электрические и электромагнитные. В последнее десятилетие получил признание также перспективный оптический канал. Для хранения информации используются в основном полупроводниковые и магнитные носители. Извлечение сигнала на выходе канала, подверженного действию шумов, носит характер вторичного восприятия.

На этапах обработки информации выявляются ее общие и существенные взаимозависимости, представляющие интерес для системы. Преобразование информации на этапе обработки (как и на других этапах) осуществляется либо средствами информационной техники, либо человеком. Если процесс обработки формализуем, он может выполняться техническими средствами. В современных сложных системах эти функции возлагаются на ЭВМ и микропроцессоры. Если процесс обработки не поддается формализации и требует творческого, подхода, обработка информации осуществляется человеком. В системах управления важнейшей целью обработки является решение задачи выбора управляющих воздействий (этап принятия решения).

Этап отображения информации должен предшествовать этапам, связанным с участием человека. Цель этапа отображения — предоставить человеку нужную ему информацию с помощью устройств, способных воздействовать на его органы чувств.

На этапе воздействия информация используется для осуществления необходимых изменений

в системе.Когда говорят об информации, имеют виду совокупность сведений о

каком-либо событии или о состоянии некоторой материальной системы. Форма представления информации называется сообщением. Примеры сообщений:

Page 10: ПТИ1

текст телеграммы, речь, музыка, фототелеграмма, телевизионное изображение, данные на выходе вычислительной машины, отраженные от цели локационные сигналы, команды в системах телеуправления космическими аппаратами и т.д.

Для того чтобы сообщение можно было передать получателю, необходимо воспользоваться некоторым физическим процессом, способным с той или иной скоростью распространяться от источника к получателю сообщения. Изменяющаяся во времени физическая величина, отображающая сообщение в процессе его передачи, называется сигналом. Часто говорят, что сообщение или соответствующий ему сигнал создается источником сообщения или сигнала.

Как отправителем так и получателем сообщения могут быть человек или различные приборы передающие регистрирующие хранящие и использующие информацию.

1.2 Система передачи информации

В схеме рисунка 1.2 показано прохождение сообщения от его источника до получателя (в

одном направлении).Передающее устройство преобразует' исходное сообщение в сигнал,

форма которого удобна для передачи по данной линии связи (физической среде). Приемное устройство выполняет обратноепреобразование.

Совокупность средств, предназначенных для передачи сообщений или сигналов, называют каналом связи (в широком смысле). При этом средства - это технические устройства и линии связи по которым проходит сигнал, В зависимости от степени детализации пути прохождения сигнала под каналом связи понимают ту или иную совокупность средств. Иногда под каналом связи (собственно канал связи или канал связи в узком смысле) понимают лишь линию связи (физическую среду)

9

Page 11: ПТИ1

между передающим и приемным устройствами. В этом смысле говорят, например, о радио- или проводном канале или о радио- или проводной линии.

Система связиКанал свят ----—

+-

1 2 ; 3 4 5

а; ;

s(t/ zii) а

]-источник сообщений; 2-передающее устройство;3-линия связи; 4-приемное устройство;

5-получатель сообщения; 6-источник помехРисунок 1.2- Общая схема системы электрической связи для передачи

сообщений в одном направленииПомимо сигнала, в канале связи, возникают посторонние сигналы,

называемые помехами или шумами (например, различные наводки, шумы). Накладываясь на полезный сигнал, помехи приводят к неоднозначности при восстановлении сообщения.

Различного рода помехи в реальных каналах связи воздействуют на сигнал на всем пути его распространения. Однако для удобства анализа общее воздействие помех представлено на рисунке 1.1 суммарным эквивалентным блоком «источник помех». От этого источника на вход приемного устройства поступают случайные электрические возмущения и, взаимодействуя с полезным сигналом, искажают его так, как это вызвано общим воздействием всех помех, распределенных по тракту передачи.

С выхода линии сигнал поступает на приемное устройство. Его назначение - преобразовать принятый сигнал в сообщение, как можно точнее воспроизводящее переданное, несмотря на помехи.

Источник сообщения, передающее устройство, линия (среда) между пунктами связи, приемное устройство и получатель сообщения образуют систему связи. В ТПС система считается заданной, если в ней даны методы преобразования сообщения в сигнал и восстановления сообщения по принятому сигналу.

Сообщения, а также соответствующие им сигналы обычно делят на непрерывные и дискретные. Примером непрерывного сообщения могут служить речь, музыка, температура исследуемого объекта и т.д. Для таких источников два нетождественных сообщения одинаковой длительности Тс или соответствующие им сигналы могут отличаться друг от друга в каждый момент времени сколько угодно мало.

Часто встречаются источники, характеризующиеся дискретным рядом состояний. Дискретным является, например, источник, выдающий сообщение в виде текста, записанного русским алфавитом или, скажем, в виде последовательности арабских цифр. У таких источников два нетождественных

сообщения, как и информационные параметры соответствующих им сигналов. всс|да имеют конечное отличие. Так, у телеграфного источника два нетождественных сообщения отличаются хотя бы буквой или порядком следования букв.

Системы связи, предназначенные для передачи непрерывных сообщений, называют непрерывными (аналоговыми), а для передачи дискретных сообщений - дискретными. Выделяют также смешанные системы связи, в которых непрерывные сообщения путем дикретизации (квантование) соответствующих им сигналов (т.е. их преобразования в дискретную форму) могут быть переданы дискретными методами. Типичными примерами систем связи, в которых передаются дискретные сообщения, являются телеграфные системы, системы передачи телекодовой информации, системы передачи данных с цифровых вычислительных машин и т.д.

10

Page 12: ПТИ1

Рассмотрим функциональную схему преобразований сообщений сигналов в системе связи рисунок 1.3 на вход передающего устройства от источника поступает сообщение a (t,x,y,z), которое в общем случае (например, в системах телевидения) может быть функцией времени t и пространственны координат x,y,z и t. Так. при передаче фототелеграмм сообщение зависит лишь от двух пространственных координат передаваемой «точки» изображения.

А*. .2.4

г /1 - 3 Л

1 Tlep # о аюи+е с у . J ^£

»'№.>

,*.о\

z<t>=s' 4>+и^

- ! й t \ 5 \* 1i Др пае

1-источник сообщений; 2-преобразователь в электрический сигнал и кодер; 3-модулятор; 4-линия связи; 5-демодулятор (1-я решающая схема); б-декодер и преобразователь в сообщение (2-я решающая схема); 7-получзтель сообщений; 8-источник помех

Рисунок 1.3- Функциональная схема преобразований сообщений и сигналов в линии связиПередающее устройство преобразует сообщение а в канальный сигнал

s(t), являющийся только функцией времени. Подобное преобразование осуществляется, как правило, в несколько этапов, в связи с чем можно отдельно выделить несколько самостоятельных блоков передающего устройства. Чаще всего их бывает два (рис,В.2, В.З).

В блоке 2 сообщение а преобразуется в так называемый первичный (или низкочастотный) электрический сигнал b(t). В системах телеизмерения такие преобразователи получили названиедатчиков.

В аналоговых (непрерывных) системах связи первичный сигнал b(t), как правило, линейно связан с сообщением. В дискретных системах этот сигнал образуется из сообщения в результате более сложных преобразований (кодирования) и представляет собой на выходе кодера последовательность кодовых символов {bi}, образованную по некоторому определенному правилу. Это преобразование необходимо (как увидим в дальнейшем) для лучшего согласования сигнала с каналом связи, его характеристиками. Сигнал b(t) в дискретных системах называют дискретным, так как один или более из его параметров (информационных) принимают лишь дискретные решения.

В блоке 3 (модуляторе) окончательно формируется канальный сигнал s(t), способный распространяться по линии и достичь места приема. Это преобразование, как правило, заключается в изменении определенного параметра переменного или постоянного тока (несущей) в соответствии с изменением модулирующего сигнала b(t). Иногда канальный сигнал формируется многократной последовательной модуляцией.

Из-за искажений в канале сигнала s(t) и из-за наличия аддитивных шумов (помех) u(t)

принимаемое колебание z(t)=s*(t)+u(t) тождественно не равно передаваемому s(t).

Приемное устройство, как и передающее, можно представить несколькими блоками рисунок

1.2, 5 и 6. Демодулятор выделяет из принимаемого колебания z(t) первичный сигнал b'(t), а декодервосстанавливает по нему (по последовательности кодовых символов) сообщение. В общем случаепринятое сообщение a'(t,x,y,z) отличается от переданного a(t,x,y,z), что вызвано помехами иискажениями в тракте передачи. Чем меньше отличается принятое cообщение от переданного, темвыше верность (качество) передачи.Литература 1 осн [6-8], 1доп[8-12Контрольные вопросы1. Какие этапы необходимы для воспроизведения сообщения?2.Что такое информация?3. Что такое сообщение?4.Что в себя включает передатчик?5. Что в себя включает приемник?

11

Page 13: ПТИ1

Структурные меры информации. Энтропия как мера неопределенности информации.

2.1 Структурные меры информацийК информационным характеристикам источников сообщений (ИС)

относятся: энтропия и производительность ИС, количество информации (КИ), содержащейся в сообщении, избыточность ИС, скорость передачи информации, пропускная способность канала передачи сообщения.

Начнем с модели источника дискретных сообщений (ИДС). Предполагается, что источниксообщений дискретный, вырабатывает конечное число элементарных сообщений (символов), причемразличные символы, соответствующие различным состояниям источника, вырабатываются ипринимаются случайным образом. {х,} в X, гае {х,} -множествосимволов, принадлежащих ансамблю A', i = 1,2,....m.

Совокупность символов х1,х1,...,хт, отвечающих возможным состояниям источников, называется его алфавитом. Число символов m - объем алфавита.

Модель ИС

2. имеет дело с абстрактными математическими моделями явлении.Основным принципом теории информации является то, что КИ,

которое несет в себе сообщение, численно приравнивается неопределенности, раскрытой в результате получения этого сообщения в случае, если при передаче сообщений не действуют помехи (т. е. информация неразрушена).

Начальная неопределенность, существующая до приема сообщений, связана с тем, что возможно m различных исходов с некоторыми вероятностями. Получателю сообщений неизвестно, какой именно из этих исходов он получит. Прием сообщения раскрывает полностью (если нет помех) или уменьшает (когда действуют помехи) начальную неопределенность, т. е. дает получателю информацию об исходе ситуации. При оценке КИ разделяют следующие понятия.

В условиях отсутствия помех - собственная информация сообщения 1(Х). Это понятие предполагает полное раскрытие неопределенности ИС и не учитывает помехи, а) Модель источника независимых равновероятных сообщений

«1 Х2 1/>(*■) Р(х2) P(xJ

_>*,) = !Если в ИС возможно использование m символов, а каждое сообщение

представляет собой слово длиной n, то возможно Lc — т" сообщений.Введем меру неопределенности выбора состояния источника. Согласно

теории информации ее можно рассматривать как меру КИ, получаемой при полном устранении неопределенности состояния источника информации. Естественные требования, которым должна удовлетворять эта мера, следующие:1. Аддитивность. КИ в двух независимых сообщениях должно равняться сумме КИ в каждом из них.2. Необходимость монотонного возрастания с увеличением возможностей

выбора состояния (чем больше число состояний, тем больше неопределенность).

3. КИ, содержащейся в сообщении о достоверном событии, и неопределенность должны равняться нулю.

4. Независимость КИ от качественного содержания сообщения, в частности от степени его важности для получателя, от степени возможных последствий и т. д.

В случае, когда сообщения передаются с равными вероятностямир(х, ) = р(х2 )=...= р(х J =

указанным выше четырем требованиям удовлетворяет логарифмическая мера от числа возможных состояний источника:

log0 Lt = log„ m" = п Iog„ m = -п log0 — = -и Iog„ p(x,).

1

Page 14: ПТИ1

Р(х)Количество собственной информации (КСИ) в сообщении оценивается

логарифмом от числа возможных сообщений (мера Хартли):7(x) = log„ m = -log„ />(*,)■ (1)При

отсутствии неопределенности в ИС/(x) = loge(m = l) = 0. Численно КСИ по (1)

зависит от а'~. Наибольшее применение в технике связи и телекоммуникации находит двоичная единица измерения информации - бит, а =2. Находит распространение и десятичная единица - дит.

1{х) = log, 2 = 1 [бит] при m = 2. 1 бит соответствует

КИ, полученной при раскрытии неопределенности ИС с двумя равновероятными независимыми сообщениями (по умолчанию основание логарифма а ~ 2). Если информация передается n-разрядными словами, то

/(x) = logm" = и log от. (2)Ь)Модель источника независимых неравновероятных сообщений

Pi*.)_>*.)=

Такая мера была предложена Ричардом Хартли (США) в 1928 г. Основание логарифма не имеет существенного значения и определяет только масштаб или единицу неопределенности.

В общем случае при неравновероятной модели ИС мера неопределенности была введена Клодом Шенноном (Канада) в 1946 г. Мера Шеннона для оценки КИ ИС:

M{-nlog„ р(х,)) =-п^р(х,)\о$р(х,).

Здесь КСИ может быть двух видов:

характеризует КИ, содержащееся в каждом из сообщений:

(3)

Мера Шеннона - обобщение меры Хартли на случай ИС с разными вероятностями. Теория информации изучает общие количественные закономерности, связанные с добыванием, переработкой, передачей, отображением, хранением информации и использует единую меру для оценки количества передаваемой информации.

При этом теория информации:

1. учитывает только те стороны явления, которые являются наиболее существенными при оценке КИ, получаемого об этом явлении;

Р(х2)Р(х,)р(х)

1. Частная информация, котораяI(x,)=-]ogp(*,). l(x,)=-log/?02)J

Page 15: ПТИ1

2. Среднее КИ, характеризующее КИ, приходящееся в среднем на любое передаваемое сообщение:

12 13

Page 16: ПТИ1

J(x) = M{/(x,)}=M{-lo&p(x,y,=-fip(x,)logp(xl). (4) Из

(3) и (4) видно, чем меньше p(xt), т. е. чем более оно неожиданно, тем больше информации содержит это сообщение.

Выражение (11) является общим выражением для определения количества информации на один символ сообщения для случая неравномерных и взаимозависимых символов. Так как pf^Jpfb, /at) представляет собой вероятность совместного появления двух событий р(а,, bj), то формулу (11) можно записать следующим образом:

Я (В / А) = -£ £ р ( . а , , Ь , ) log p(b , а,) (2.6)' J

Понятие общей индивидуал частной условной энтропии широко используется при вычислении информационных потерь в каналах связи с шумами.

В общем случае, если мы передаем т сигналов А и ожидаем получить т сигналов В, влияние помех в канале связи полностью описывается каначьной матрицей, которую мы приводим ниже в таблице 2.1,

Таблица 2.1р(Ь,/а,), р(Ь2/а,), р(Ь,/а,),.p(b,/a2), p(Wa2), р(Ь/а:)„

2.1 Энтропия как мера неопределенности информации. Понятие условной энтропии в теории информации используется при определении взаимозависимости между символами кодируемого алфавита, для определения потерь при передаче информации по каналам связи, при вычислении энтропии объединения.

Во всех случаях при вычислении условной энтропии в том или ином виде используется условные вероятности.

Если при передаче п сообщений символ А появился т раз, символ В появился / раз, а символ А вместе с символом В - к раз, то вероятность появления символа А р(А) = — ; вероятность

и/ к

появления символа В р(В) = —; вероятность совместного появления символов А и В р(АВ) = — ;

п пусловная вероятность появления символа А относительно символа В и условная вероятность появления символа В относительно символа А

р(В) I m n mЕсли известна условная вероятность, то можно легко определить

индивидуал вероятность совместного появления символов А и В, используя выражение (7)

р(АВ) = р(В) ■ р(А I В) = р( А)р(В I А) (2.2)От классического выражения формула условной энтропии

отличается тем, что в ней вероятности - условные:Н ( b j l a , ) = -£ p ( b J / a , ) log p{b ,1 a,)

(2.3)Н ( а ; / Ь , ) = -£ p (a , . / b j ) l o g р ( а , / Ь ; ) (2.4)

где индекс i выбран для характеристики произвольного состояния источника сообщений А, индекс j выбран для характеристики произвольного состояния адресата В.

Различаю! понятия частной и обшей условной энтропии. Выражения (2.3) и (2.4) представляет собой частные условные энтропии.

Общая условная энтропия сообщения В относительно сообщения А характеризует количество информации, содержащееся в любом символе алфавита, и определяется усреднением по всем символам т. е. но всем состоянием с учетом вероятности появления каждого из состояний, и равна сумме вероятностей появления символов алфавита на неопределенность, которая остается после того, как адресат принял сигналН(В/А) = -£р(а,)Н(^ /а,) = -££р(а,)р(1^ /а,)1оёр(Ь, /а,) (2.5)

p(b,/a,), p(b2/a,), p(b/a,),.........pOWa,)p(b,/a,„), p(b2/am),.p(bj/a„,),. . . .p(bm/am)

Если описывать канал связи со стороны источника сообщений, то прохождение данного вида сигнала в данном канале связи описывается распределением условных вероятностей вида р(Ъ, /aj, так для сигнала а\ распределением вида

р(Ъ:/а,)+ р(Ь2/а,)+... + р(Ъ/а,)+... + р(Ъ„/а,) (2.7)Сумма вероятностей распредления (13) всегда должна равняться !. Потери информации, которые приходятся на долю сигнала at, описываются при помощи частной условной энтропии вида

Я (й, /о,) - - £ р ( Ь , I a , ) log р(Ь J /о,)

(2.8)Суммирование производится по j, так как i-e состояние (в данном случае первое) остается постоянным.

Чтобы учесть потери при передаче всех сигналов по данному каналу связи, следует просуммировать все частные условные энтропии, т. е. произвести двойное суммирование по i и по j. При этом в случае равновероятных появлений сигналов на выходе источника сообщений

Я (В /А) = --±-£ р ( Ь , l a , ) log p ( b , l a , )

(2.9)(на т делим, так как энтропия есть неопределенность на один символ).

В случае неравновероятного появления символов источника сообщений следует учесть вероятность появления каждого символа, умножив на нее соответствующую частную условную энтропию. При этом общая условная энтропия

Я (В I А ) = -£ Р (.<*,)% Р ( Ь , /о,) log p i b j o , )

(2.10)Если мы исследуем канал связи со стороны приемника сообщений, то с получением символа

Ь, предполагаем, что был послан какой-то из сигналов а;, а: а„...,а„ . При этом канальная матрицабудет иметь вид

Таблица 22____________________________________________15

■ р(Ь„,/

14

Page 17: ПТИ1

а„, р(а,/Ь,), p(a,/b2), p(a,/bj),..........................p(a,/bm)p(a2/bi), p(a2/b2),. p(a2/bj),..........................p(a2/bm)p(a/b,), p(a,/b2),. p(a,/b,),...........................p(a,/bm)piajb,). p(a,Jb2),. P(am/b,),............................p(ara/b„)

Н{В/А) = Н(А,В)-Н(Л); Н(А!В) = Н(А.В)- Н{В). Энтропия объединения может быть подсчитана при помощи матрицы вида

p(a,,b,) p(a,,b2)... p(a,,b„,) p(a2,b,) p(a2,b2)... p(a2,b„,)

В этом случае единице должны равняться суммы условных вероятностей не по строкам, а по столбцам канальной матрицы

p(a,/bj)+ p(a/bJ+... + p(a/bj+... + р (ат /bj)=l Частная условная энтропия

Я ( а , / Ъ ,) = - £ р (а ( / Ъ ] ) log р ( а , / Ъ Л а общая условная

энтропияZ />(*,) Z Р ( о , I Ь t) log р ( о , / Ь , )

(2.12)

p(ajp(bj/ai)=p(a,, b,), то для вычисления общей условной энтропии наравне с выражением (2.10) может быть использовано следующее выражение:

Я (В I А) = -£ J] p { a , , b ,) log р(Ь ,,а,) (2.13)Если заданы канальная матрица вида pfb/a^ (частная

условная энтропия в этом случае соответствует (2.11) и безусловные вероятности вида p(aj, то безусловные вероятности приемника pfbj) находим как У"р(а,)/)(6 (I'а,), т.е. если заданы безусловные вероятности источника иmm. .МЯ матрица, то может быть вычислена энтропия приемника

Н (В) = -]Г p ( b j ) log />(*,),и наоборот, если заданы вероятности вида pfS,) индивидуал канальная матрица, описывающая канал связи со стороны приемника сообщений (частная условная энтропия при этом соответствует выражению (2.11), то р(а1) = 2_^р(Ьj)p(ai

lb(), а значит может быть определена энтропиясообщений И (Л ) « - V р (ai ) log p (a J

Если взаимозависимость связывает 3 элемента о„ о,, oj, то условная энтропия вычисляется по формуле

fHA/B,K) = -jr£'£)p(a„aJ,at)\Qgpial,aJ,ak),,

j к аналогично и для 4, 5,..., п элементов.Энтропия объединения используется для вычисления энтропии совместного появления статически зависимых сообщений. Например, передав сто раз цифру 5 по каналу связи с помехами, заметим, что цифра 5 была принята 90 раз, цифра 6 - 8 раз индивидуал цифра 4-2 раза. Неопределенность возникновения комбинаций вида 5-4, 5-5 , 5 - 6 при передаче цифры 5 может быть описана при помощи энтропии объединения. Н(А,В) - неопределеннность того, что будет послано А, а принято В. Для ансамблей переданных сообщений А и принятых сообщений В энтропия объединения представляет собой сумму вида

Я ( Л , В ) = - £ £ р ( о ,, 6 ,) log j р (а,. 6 ,) бит/два символа (2.14)Энтропия объединения индивидуал условная энтропия

связаны между собой следующим соотношением:Н{А.В) = Н(А) + Н(В/А) = Н(В) + Н(А/В).

Р(а„Ь,) =

(2.11)

Н (А I В) Так как

источника

Page 18: ПТИ1

|p(am,bi) p(am,b2) p(am.bm)|Такая матрица обладает замечательлным свойством:

} p ( a , , b : ) = р(й,);У p(a,,bi) = р(а,), при этом Vр(а1) = V р(Ь ) = 1. Это свойство, в свою очередь, позволяетвычислить энтропию как источника, так индивидуал приемника сообщений непосредственно по канальной матрице

я <■<*) = -Z Z />(*.-.*,Ное х ? ( < » . . » / ) <215

# (£) = -Z Z / > ( * , ' ° ' ) 1 о ё Z р(ь,-а^Суммирование производим по i и j, так как для того, чтобы найти безусловные вероятности, необходимо суммировать их по одной координате (имея в виду матричное представление вероятностей), а для нахождения Н суммирование производится по другой координате. Условные вероятности видарСа,/^ wp(b)/a) вычисляются как

р(а,,ЬЛ t * р(а,,Ь,)piai/bj) = ~£ ;\; />(&,/я,)^ —

2>«,.*,)'Количество информации на символ

сообщения, переданного по каналу связи, в котором влияние помех описывается при помощи энтропии объединения, подсчитывается следующимобразом:

1(А, В) = Н(А) + Н(В)- Н(В, А).Литература 1 осн [12-18], Здоп [18-21].

Контрольные вопросы1.Что такое энтропия?2. Как определить меру Хартли?3. Как определить меру Шеннона?4. В каком случае используется энтропия объединения?5. Как можно разделить частную энтропию?

Лекция 3. Понятие сигнала и его модели. Формы представления детерминированных сигналов.

3.1 Понятие сигнала и его моделиПрежде чем приступать к рассмотрению задач анализа

сигналов, выделим некоторые классы сигналов, которые будут часто встречаться нам в дальнейшем. Это необходимо по двум причинам. Во-первых, проверка принадлежностей сигнала к конкретному классу сама по себе является процедурой анализа. Во-вторых, для представления и анализа сигналов разных классов зачастую приходится использовать разные средства и подходы.

Итак, что же такое сигнал? В наиболее общей формулировки это зависимость одной величины от другой (то есть с математической точки зрения сигнал является функцией). Чаще всего рассматриваются зависимости от времени, хотя это не обязательно. Например, в системах оптической обработки информации сигналом может являться зависимость интенсивности света от пространственных координат. Физическая природа сигнала может быть весьма различной. Очень часто это напряжение, несколько реже - ток, возможные и многие другие физические величины.

А теперь обратимся к собственно классификации.

16 17

(2.16)

Е*в,.М'

Page 19: ПТИ1

В зависимости от того, известен ли нам сигнал точно, различают детерминированные и случайные сигналы. Детерминированный сигнал полностью известен - его значение в любой момент времени можно определить точно. Случайный же сигнал в любой момент времени представляет собойслучайную величину, которая принимает конкретные значения с некоторой вероятностью.Специфические свойства случайных сигналов будут рассмотрены в конце данной главы, а основыанализа сигналов мы будем обсуждать применительно к сигналам детерминированным.

Следующий важный класс сигналов - сигналы с интегрируемым квадратом. Ещё их

называют сигналами с ограниченной энергией (почему, станет ясно из раздела «Энергия и мощностьсигнала»). Для таких сигналов s(t) выполняется соотношение

\s2(l)dl -coo-Л

Многие важные соотношения теории сигналов получены в предположении о конечности энергии анализируемых сигналов. Если это условие не выполняется, приходится менять подходы к решению задачи (см., например, определения понятия корреляционной функции для сигналов с конечной и бесконечной энергией в разделе «Корреляционная функция») или прибегать к использованию аппарата обобщенных функций (см. раздел «Фурье-анализ неинтегрируемых сигналов»).Ещё один признак классификации сигналов, существенно влияющий ьз .«-етоды их анализа, -периодичность. Для периодического сигнала с периодом Т выполняется соотношение s(r+nT) = s(t) при любом t,

где п - произвольное целое число. Если величина Т является периодом сигнала s(t), то периодом для него будут и кратные ей значения: 2Т, ЗТ и т.д. Как правило, говоря о периоде сигнала, имеют в виду минимальный из возможных периодов.Величина, обратная периоду, называется частотой повторения сигнала:/= 1/Т. В теории сигналов также часто используется понятие круговой частоты со = 2л/, измеряемой в радианах в секунду.

Очевидно, что любой периодический сигнал (за исключением сигнала, тождественно равного нулю) имеет бесконечную энергию.

Следующий класс - сигналы конечной длительности (их ещё называют финитными сигналами/ Такие сигналы отличны от нуля только на ограниченном промежутке времени. Иногда говорят, что сигнал существует на конечном временном интервале.

Очевидно, что сигнал конечной длительности будет иметь и конечную энергию - если только он не содержит разрывов второго рода (с уходящими в бесконечность ветвями функции).

Перейдём к более узким классам сигналов. Очень важную роль в технике обработки сигналов играю! гармонические колебания, которые в самом общем виде записываются следующим образом:

s(l) A cos (cot + ф).Гармонический сигнал полностью определяется тремя числовыми

параметрами: амплитудой А, частотой со и начальной фазой ср.Гармонический сигнал является одним из широко распространенных

тестовых сигналов, применяющихся для анализа характеристик цепей. Кроме него к тестовым относятся ещё две очень важные в радиотехнике функции: дельта-функция и функция единичного скачка. Дельта-функция 6(1), или функция Дирака, представляет собой бесконечно узкий импульс с бесконечной амплитудой, расположенный при нулевом значении аргумента функции. «Площадь» импульса тем не менее равна единице:

<? = fo,t*o.Tco,t*0

)S(I) m 1

Разумеется, сигнал в виде дельта - функции не возможно реализовать физически, однако эта функция очень важна для теоретического анализа сигналов и систем. На графиках дельта - функция обычно изображается жирной стрелкой, высота которой пропорциональна множителю, стоящему перед дельта - функцией представлена на рисунке рисунке 3.1. Одно из важных свойств дельта -18

Page 20: ПТИ1

функции - так называемое фильтрующие свойство. Оно состоит в том. что если дельта — функция присутствует под интегралом в качестве множителя, то результат интегрирования будет равен значению остального подынтегрального выражения в той точке , где сосредоточен дельта-импульс:

lf{t)S{t-t0)dt = f{t)2S (.!-])

soО 1 t

Рисунок 3.1-График сигнала s(t) = S(l) + 2S(l -1) Пределы интегрирования в (3.1) не обязательно должны быть бесконечными, главное, чтобы

в интервал интегрирования попадало значение to; в противном случае интеграл будет равен нулю.

Из того факта, что интеграл от дельта - функции дает безразмерную единицу, следует, что

размерность самой дельта - функции обратно размерности ее аргумента. Например дельта - функциявремени имеет размерность 1/с, то есть размерность частоты.

Функция единичного скачка a(t), она же функция Хевисайда, она же функция включения, равна

нулю для отрицательных значений аргумента и единице - для положительных. При нулевомзначении аргумента функцию считают либо неопределенной, либо равной 1/2:

3.2Отличие такой реализации функции включение от формулы (3.2) состоит

только в том, что при нулевом значении аргумента результат равен единице; впрочем, в большинстве случаев это отличие несущественно.

График функции единичного скачка приведен на рисунке 3.2.a(t)

Рисунок 3.2—Функция единичного скачкаФункцию единичного скачка удобно использовать при создании математических выражений для сигналов конечной длительности. Простейшим примером является формирование прямоугольного импульса с амплитудой А и длительностью Т: s(t) = A(8(t)-5(t-T))

Вообще, любую кусочно-заданную зависимость можно записать в виде единого математического выражения с помощью функции единичного скачка.

19

(3.1)

S(t)

Page 21: ПТИ1

3.2 Формы представления детерминированных сигналов В зависимости от структуры информационных параметров сигналы подразделяют на дискретные, непрерывные и дискретно-непрерывные.

Сигнал считают дискретным по данному параметру, если число значений, которое может принимать этот параметр, конечно (или счетно). Если множество возможных значений параметра образует континуум, то сигнал считают непрерывным по данному параметру. Сигнал, дискретный по одному параметру и непрерывный по другому, называют дискретно-непрерывным.

Рисунок 3.3- Формы детерминированных сигналов В соответствии с этим существуют следующие разновидности математических представлений (моделей) детерминированного сигнала:

непрерывная функция непрерывного аргумента, например непрерывная функция времени рисунок 3.3, а:

непрерывная функция дискретного аргумента, например функция, значения которой отсчитывают только в определенные моменты времени рисунок 3.3,6;

дискретная функция непрерывного аргумента, например, времени, квантованная по уровню рисунок 3.3, в;

дискретная функция дискретного аргумента, например функция, принимающая одно из кг ни много множества возможных значений (уровней) в определенные моменты времени рисунок 3.3, г.

Рассматриваемые модели сигналов в виде функций времени предназначены в первую очередь для .им HI и формы сигналов. Желательно найти такое представление сигнала, которое облегчает задачи исследования прохождения реальных сигналов, часто имеющих достаточно сложную форму, ирггерссующие нас системы. С этой целью сложные сигналы представляются совокупностью элементарных (о.|явных) функций, удобных для последующего анализа. Наиболее широкий класс исследуемых систем ми инвариантные во времени линейные системы. При анализе прохождения сложного сигнала и(() через такие системы его представляют в виде взвешенной суммы базисных функций <р (1) (или соответствующего ей интеграла):

"C) = XC*^W. le [/„/,] (3.3)[/, ,/2 J . интервал существования сигнала.

При выбранном наборе базисных функций сигнал полностью определяется совокупностью безразмерных коэффициентов Q. Такие совокупности чисел

называют дискретными спектрами сигналов.Литература 2осн [18-21] ,1 осн[20-23]. Контрольные вопросы1. Что такое сигнал?2. Дайте определение детерминированному сигналу?3. Определите основные формы детерминированных сигналов?4. Определите функцию Хевисайда?5. Определите функцию Дирака?

20

Page 22: ПТИ1

Лекция 4 . Дискретизация и квантование. Теорема Котельникова.6,1 Дискретизация и квантование. *Передача телемеханических сообщений осуществляется как

непрерывными, так и дискретными сигналами. По ряду причин, о которых будет сказано в дальнейшем, в телемеханике все чаще используют дискретные сигналы. В частности, передача дискретными сигналами обеспечивает более высокую помехоустойчивость и воспроизведение информации с большой точностью. В то же время первичные величины, которые снимаются с датчиков и подлежат передаче системами телеизмерения, во многих случаях непрерывными и их необходимо преобразовать в дискретные. Замена непрерывной величины дискретной осуществляется с помощью квантования.

Квантование по уровню или по параметру - это процесс замены непрерывной функции ее отдельными значениями, отстоящими друг от друга на конечный интервал (уровень). При квантовании значение функции в произвольный момент времени заменяется ее ближайшим значением, называемым уровнем квантования. Интервал между двумя дискретными значениями уровней называется шагом квантования q.

Равномерное квантование по уровню. Процесс квантования по уровню функции Л(() иллюстрируются рисунок 4.2,а. П» оси ординат откладывается величина заранее выбранного шага квантования q и проводится линии, параллельные оси времени, обозначающие уровни квантования. Переход с одного уровня на другой происходит, когда значение функции находится в середине интервала квантования, так как в этот момент абсолютная погрешность квантования ДЬ|

оказывается наибольшей. Действительно, если значение функции находится в середине между двумяуровнями (точки а, б, в,...), то возникает неопределенность, так как функция равноудалена от обоихуровней. Так. например, если функция в точке в возрастает на бесконечно малое значение, то егоцелесообразно отнести к уровню 3. Наоборот, значение функции, несколько меньшее значения вточке в, будет заменено уровнем 2. Следовательно, процесс квантования осуществляют такимобразом: интервалы квантования делят пополам и проводят пунктирные горизонтальные линии до ихпересечения с квантуемой функцией. В точках пересечения , которые обозначают а, б, в, г, ....значения функции передаются наименее точно. В других точках возникает ошибка квантованияД..у, равная разности между значением функции A.(t) и ближайшим уровнем. Так как наименееточно функция передается в точке, находящимся между двумя уровнями квантования и отстоящей отних на половину интервала квантования q/2, то максимальная ошибка квантования по уровню:

Д,^ =±q/2 (4.1)Здесь +q/2 - максимальная положительная ошибка квантования, например от точки в до уровня 2; -q/2 - максимальная отрицательная ошибка квантования, например от точки в до уровня 3

Погрешности квантования представлены на рис. 2.2,6, на котором по оси времени отложены отрезки уровней квантования, пересекаемые функцией. Так, функция между точками н и а пер'есекает уровень 2. Этот уровень отложен на оси / (рис. 2.2,(5) в виде отрезка функций н - а. На участке а - б функция не пересекает ни один из уровней, но, поскольку она проходит ближе к уровню 1, отрезок этого уровня и откладывается на оси времени. На этом участке от точки о до точки б погрешность отсчитывается от уровня 1 и будет только положительной. На других участках имеется как положительная, так и отрицательная погрешности. Таким образом, в результате квантования функция X{i), произведенного по определенному правилу,был отобран ряд ее дискретных значений в точках а, б. в, гОтбором точек и заканчиваетсясобственно процесс квантования. Если же необходимо представить полностью форму функций, заменившей функцию k(t), поступают следующим образом.

Page 23: ПТИ1

а - квантование с постоянным шагом; б - погрешности квантования; в - сигнал при разностно дискретной модуляции; г - квантование с переменным шагомРисунок 4.2-Квантование сообщения по уровнюВ точках а. 6, в, г, ... проводят вертикальные отрезки (до их пересечения с

уровнями), которые затем соединяют горизонтальными отрезками, в результате чего образуется ступенчатая квантованная функция l'(t). Из рисунка 4.2, а следует, что квантованная ступенчатая функция Л'(О как бы обходит с двух сторон (выше и ниже) непрерывную функцию ^.(t) помехи At, которую называют шумом или помехой квантования.

Как следует из рисунка 4.2,о, число уровней квантования N на единицу больше числа интервалов /V- I. Если сообщение Х(Х) ограничено диапазоном отХш1п до Я , то

N-1 = (*.„„ -X^J/q (4.2)При >-,„,„ = ОN=(?w/q) + l (4-3)Что касается точности преобразования (квантования), то обычно она

задается в виде приведенной относительной погрешности 8,,(в

процентах). По определению,6 "(Л,у 'ЮОЖ1*^ _^-т„)- При описанном методе квантования рисунок 4.2,6 погрешность не может превышать q/2. Таким образом, считая Xmin = 0, что достигается соответствующим распоряжением осей координат, получим

5,y=(q-100)/(2>.mx) (4.4)и HU квантования

Ч = 2*.™Ау/100 -(4.5)Замена действительного значения функции ее ближайшим значением

создает погрешность► и.шпщ.шия, которое может принимать любые значения от -q/2 до +q/2 будет равномернымШ 1ММ0ИМО от закона распределения самой функции X(t). Среднеквадратичное значениеHI |......к ш квантования по уровню

Д11Л =q/(2V3) (4.6)J I p.и меньше максимальной ошибки.Hi рппнимерное квантование по уровню. Рассмотренное квантование

производились сПНМЫм пни ом q, вследствие чего квантованная функция состояла из

одинаковых по высоте1 >л1Шко некоторые функции, подлежащее квантованию, изменяются,

так что их"(i|imiiii квантовать с различными приращениями уровней, т.е. с

переменным шагомкмишм. » Ц ч ,,...,qn. Так на рис 2.2,г показана нелинейная зависимость

тока /от напряжения V.мни желательно получить равномерное шкалу напряжений, то отсчет по току

надо

|ммм шагом q, уменьшая его с ростом амплитуды. Могут быть и другие варианты

".шншания. Так, например, если необходимо получить более точные значения в

....vi мой функции, то в этом диапазоне шаг квантования следует уменьшить.

|" функции, квантованной по уровню. Квантование по уровню осуществляется

.....I" i.i'iii с помощью дискретных сигналов.' стороне принятая квантованная функция в своем первоначальном

". . .1но не восстанавливается, хотя в принципе это возможно путем

более сложной интерполяции. О различных способах интерполяции будет>-ний функции ее отдельными значениями производится определенные

MuMiii 1 называется квантованием по времени, или дискретизацией. Нарисуй. I ' i рсмени делится на длительные интервалы, отстоящие друг от другап.| один и • пня U1. Далее проводят вертикальные линии до пересечения сквантугмпИ I I ...9 и определяются значения функции начиная с Ль. Этозначи! • i....ни функция \(l) будет передаваться не бесконечным рядомзначении, и ннлшями. Нахождением точек, определяющих значение

22

Page 24: ПТИ1

непрерывной функции в дискретные моменты времени, собственно процесс квантования во времени заканчивается. В том случае, если необходимо получить квантованную функцию, осуществляют одиниз видов интерполяции, например ступенчатую, при которой из точек 0,1,2............................................................................................................9 проводятгоризонтальные линии до пересечения с вертикальными линиями, т.е. линии 0-1', 1-2' и т.д. Далее точки /'-/, 2'-2, З'-З, ... соединяют и получают ломанную квантованную функцию X'(t).

Очевидно, чем больше дискретных значений передается за время Т, т.е. чем меньше шаг квантования &t, тем с большой точностью будет восстановлена на приемной стороне функция X'{t). Однако это потребует расширения полосы пропускания канала связи. В то же время при чрезмерно большом шаге квантования воспроизводимая функция будет сильно искажена.

4.2 Теорема КотельниковаШаг квантования можно определить из теоремы Котельникова, смысл

которой заключается в следующем; любая непрерывная функция, спектр которой ограничен частотой FmQ,. может быть полностью восстановлена по ее дискретным значениям, взятым через интервалы времени

Ut:£l/(2F„J (2.7)Однако имеется ряд затруднений для практического применения этой

теоремы, связанных с тем, что все сообщения, передаваемые в телемеханике,

а - квантование и восстановление функции ступенчатой интерполяции; б - погрешности квантования; в — восстановление функции линейной интерполяцией

Рисунок 2.3-Квантование сообщения по времениЭто обычно видео или радиоимпульсы длительностью г, у которых

спектр бесконечен. Поэтому представляет значительные трудности выбор значения F„,„ в (4.7) для функций, ограниченных во времени. Так, например, если передать синусоидальное напряжение с частотой 50 Гц бесконечно долго во времени, то согласно (4.7) для восстановления его формы на приеме достаточно передать за период лишь два импульса, соответствующих амплитудным значениям: один - положительной полуволне, другой - отрицательной. Если же передавать синусоидальное напряжение в конечном отрезке времени, то восстановления формы этого

радиоимпульса необходимы уже не два, а значительно больше импульсов, хотя точно указать их число невозможно ввиду того, что спектр частот радиоимпульсов бесконечен.

Следует указать, что это ограничение для применения условия (4.7) в телемеханике не является решающим, так как квантование в телемеханике используется главным образом для телеизмерений, где передаваемые функции в большинстве случаев плавно изменяются во времени и имеют достаточно сосредоточенный спектр.

Практическому теорему Котельникова можно применять с поправкойUt»l/(Tj2F№) (4.8)

где г) - коэффициент, зависящий от точности воспроизведения функции и способа интерполяции;при линейной интерполяции т)_, = 0.75/VS. при ступенчатой rjn =(3-!-5)т)л (6 - относительнаяпогрешность в процентах).

Существует и другой подход к определению шага квантования исходя из задаваемого значения погрешности. Для примера на рис. 2.3.6 изображены в виде фигур, близких к

23

Page 25: ПТИ1

треугольникам, значения абсолютных погрешностей, возникающих при квантовании. Эти фигуры подобны фигурам на рис. 2.3,о. Так, кривая 0-1 (рис. 2.3,0) изображена на рис. 2.3,6 зеркально, поскольку она расположена выше горизонтальной 0-1", вследствие чего при передаче возникает положительная погрешность + Д3. На том же рис. 2.3,6 показано, что заданное значение абсолютной погрешности Д, на одном участке нарастания функции X(t) достигается за период Д/,, на другом -за период Д/6, а на некоторых участках она оказывается меньше заданной (например, на участке 2 -3 ). Это зависит от скорости нарастания функции и X' = dX/dt, Очевидно, следует выбратьтакой шаг квантования, который соответствует максимальной скорости нарастания функции Атю. Из рис. 2.3,о следует, что если бы на участке 5-6 имелся всплеск функции (пунктир), то выбранный шаг квантования At оказался бы излишне большим и этот всплеск не был бы восстановлен, т.е. следовало бы взять шаг At'.

Из рис. 2.3,6 следует, чтоЛ/ = ДК,/Л„» (4.9)Если считать, что максимальная скорость нарастания сохраняется во всем диапазоне

изменения сообщения от нуля до максимального значения, то минимальное время изменениясообщения во всем диапазоне

Т = Л1т/Лт„ (4.Ю)Величина абсолютной погрешности Д показано на рисунке 4.3,6.

Здесь, как и при квантовании по уровню, в расчетах следует учитывать или +Д3, или -А3, т.е. в среднем Д12. Этозначит, что 5 = (Л-100)/2Хгааа1). Подставляя отсюда значение Д в (4.9),а X™, из

(4.10), получаемAt = 25, „Т/100 (4.11)Формула выведена с учетом восстановления функции ступенчатой

интерполяцией. Она аналогична формуле (4.5) с той лишь разницей, что А заменена Т. так как функция квантуется по времени.

Таким образом, при заданной точности восстановления каждый полупериод синусоиды следует передавать не одним значением, а примерно 25 при ступенчатой интерполяции и 7,5 при линейной. Заметим: расчет выполнен из условия, что синусоидальное напряжение передается в течение определенного промежутка времени с конечным числом периодов.

Восстановление функции, квантованной по времени. Восстановить квантованную по времени функцию на приемной стороне можно с помощью ступенчатой или линейной интерполяции либо методом Котельникова. Чаше всего применяют ступенчатую интерполяцию и наиболее редко -филмрацию по Котельникову. Ступенчатая интерполяция на рис. 23,а выполнена запоминающими уотройеТММИ, сохраняющими значения функции A{tJ до появления следующего значения X(t,4l).

Погрешность ступенчатой интерполяции изображена на рисунок 4.3,6. Под погрешностью интерполяции понимают разность St между мгновенными значениями восстановленного и исходною сигналов, взятых в одни и те же

моменты времени. Максимальная погрешность возникает в точках 1'' ,2 ,..., 9'. В общем случае задаются среднеквадратичные значения этой погрешности

*«. " №+Sl+..- + Sl)/n (4.12)где п - число замеров. Погрешность равна нулю в точках 1,2, ..., 9.

При восстановлении квантованной функции по Котельникову нужно знать все дискретные точки как предыдущие, так и последующие, или во всяком случае для практической реализации должно быть И1МСТИ0 несколько точек до и после интервала, в котором происходит интерполяция. Знание последующих точек возможно лишь в системах, допускающих запаздывание в передаче информации. БОЛЬШИНОТМ телемеханических систем работает в реальном масштабе времени и не допускает запаздывания. В таких системах приходится использовать ступенчатую интерполяцию, так-как для линейной интерполяции нужно знать наперед хотя бы одну точку, что требует запаздывания. Действительно, если, например, известно значение функции в момент времени /., (точка 5 на рис. 2.3,о), то при ступенчатой интерполяции заранее известно, что через шаг At значение функции будет

Page 26: ПТИ1

тем же (точка 6'). Каким оно будет при линейной интерполяции через шаг At, неизвестно: значение толи возрастет (точка 6), то ли уменьшиться (точка 6, ).*

Иногда восстановление функции, квантованной по времени, с шагом, подсчитанным по теореме Котельникова, производят с помощью фильтра нижних частот, который выделяет постоянную и низкочастотные составляющие, соответствующие спектру передаваемой функции. Однако при этом возникают погрешности из - за того, что амплитудно - частотная характеристика реального фильтра отличается от характеристики идеального фильтра. Восстановление с помощью фильтра целесообразно, если спектр передаваемой функции сосредоточен в области нуля по оси частот.Литература 3 осн [36-46], 2 доп [23-26]. Контрольные вопросы:1. Для чего необходимо квантование2. Что такое дискретизация?3. Определите теорему Котельникова?4. Какие методы восстановления сигналов можете назвать?5. Как определяется шаг квантования ?

Лекция 5. Информационные характеристики источника сообщений и канала связи. Основные понятия и определения

Дискретным каноном называют совокупность средств, предназначенных для передачи дискретных сигналов. Такие каналы широко используются, например, при передаче данных, в телеграфии, радиолокации. Канал называется с «памятью» (с последействием), если переходные вероятности в данном состоянии канала зависят от его предыдущих состояний. Если переходные вероятности постоянны, т. е. канал имеет только одно состояние, он'называется стационарным каналом без памяти. Под k-ичным каналом подразумевается канал, у которого число различных символов на входе и выходе одинаково и равно к. Стационарный дискретный двоичный канал без памяти однозначно определяется четырьмя условными вероятностями: р(0/0), р(1/0), р(0/1), р(1/1). Такую модель канала принято изображать в виде графа, представленного 4.2, где р(0/0) и р(1/1) — вероятности неискаженной передачи символов, а р(0/1) и р(1/0) — вероятности искажения (трансформация) символов 0 и 1 соответственно.Если вероятности искажения символов можно принять равными, т.е. р(0/1)~р(1/0)=^, то такой канал

называют двоичным симметричным каналом [при р(0/1^р(1/0)] канал называется несимметричным. Символы о выходе правильно принимают с вероятностью и неправильно — с вероятностью 1 — р = д. Математическая модель упрощается. На практике, однако, нас чаще всего интересует одно конкретное состояние источника, а дискретные или непрерывные последовательности состояний, реализаций источником за длительный промежуток времени например телеграммы, видеосюжеты и т. п. Для описания таких сообщений используются математические модели в виде дискретных и непрерывных случайных процессов.

Для построения модели необходимо знать объем 1 алфавита знаков Z|,Z2,...,Z|, из которых источником формируются сообщения, и вероятности создания им отдельных знаков с учетом возможной взаимосвязи между ними.

При доказательстве основных положений теории информации Шенноном использовалась модель, называемая эргодическим источником сообщении. Предполагается что создаваемые им сообщения математически можно представить в виде эргодической случайной последовательности. Такая последовательность, как известно, удовлетворяет условиям стационарности и эргодичности. Первое означает, что вероятности отдельных знаков и их сочетаний не зависят от расположения последних по длине сообщения. Из второго следует, что статические закономерности, полученные при исследовании одно го достаточно длинного сообщения с вероятностью, близкой к единице, справедливы для всех сообщений, создаваемых источником. Из статистических характеристик в данном случае нас интересует средняя неопределенность в расчете на один знак последовательности.

Стационарный источник сообщений, выбирающий каждый знак формируемой последовательности независимо от других знаков, всегда является эрг одическим. Его также называют источником без памяти.

На практике, однако, чаще встречаются источники, у которых вероятность выбора одного знака сообщения зависит от того, какие знаки были выбраны источником до этого (источники, с памятью). Поскольку такая связь, как правило, распространяется на ограниченное число предыдущих знаков, для описания функционирования источника целесообразно использовать цепи Маркова.

24 25

Page 27: ПТИ1

Цепь Маркова порядка и характеризует последовательность событий, вероятности которых зависят от того, какие п событий предшествовали данному. Эти п конкретных событий определяют состояниеисточника, в котором он находится при выдаче очередного знака. При объеме алфавита знаков ' число Rразличных состояний источника не превышает 1 ". Обозначим эти состояния через S(...Sq...SR p a

вероятности выбора в состоянии \ знака Z,— через Pq(Zj) . При определении вероятностиР ч Vz i) естественно предположить, что к моменту выдачи источником очередного знака известны все знаки, созданные им ранее, а следовательно, и то, в каком состоянии находится источник.

Если источник находится в состоянии \ , его частная энтропия H(Sj определяется соотношением

1H(Sq) = -]LPq(Zi)l0§Pq(Zi) (4.1)

i=lУсредняя случайную величину H(SJ по всем возможным состояниям q = I7~R получаем энтропию источника сообщений:

H(Z) = -Jp(Sq)Xpq(zi)lo№q(zi) (42)

q = l \-\i И И \ ) вероятность того, что источник сообщений находится в состоянии ^q .

Величина H(Z) характеризует неопределенность, приходящуюся в среднем да один знак, 1ЫД1М4МЫЙ ИСТОЧНИКОМ сообщений.

< >прелелим энтропию источника сообщений для нескольких частных случаев.Вели статистические связи между знаками полностью отсутствуют, то после

выбора источником НИМ 2, его состояние не меняется (7<= I). Следовательно, p(Sj)= 1, энтропии источника сообщений енриислливо выражение:

H(Z) = -^p,(zi)loa3q(zi)Н

Когда корреляционные связи наблюдаются только двумя знаками (простая цепь Маркова), максимальное число различных состояний источника равно объему алфавита. Следовательно, R •" I и Рч (Z, ) = p(z,/zq ) ,где q = 1, 1. При этом выражение (4.2) принимает вид

H(Z) = -£РЦ)]Гр(2| /zq)logp(Zi /zq)При наличии корреляционной связи между тремя знаками состояния источника определяются

двумя предшествующими знаками. Поэтому для произвольного состояния источника ^q удобно

с ___ ___дать обозначение с двумя индексами '-'k.h , где к = 1, ! и h = 1, I.

Тогдаp(Sq) = p(Skh) = p(zk,zh) „ Pq(Zi) = p(Zl/zkzh).

Подставляя эти значения в (4.2), находим

1 1 1H(Z) = -£ ^p(zkzh)^p(zi/zkzh)logp(z1/zkzh) (44)

к=1 h«l i=lАналогично можно получить выражения для энтропии сообщений и при более

протяженной корреляционной связи между знаками.26

Page 28: ПТИ1

Свойства эргодических последовательностей знаков. Характер последовательностей, формируемых реальным источником сообщений, зависит от существующих ограничений на выбор знаков. Они выражаются в том. что вероятности реализации знаков различны и между ними существуют корреляционные связи. Эти ограничения приводят к тому, что вероятности формируемых последовательностей существенно различаются.

Пусть, например, эргодический источник без памяти последовательно выдает знаки

Zt,Z2,Z} в соответствии с вероятностями 0,1; 0,3; 0,6. Тогда в образованной им достаточнодлинной последовательности знаков мы ожидаем встретить в среднем на один знак Z, три знакаZ2 и шесть знаков Z3. Однако при ограниченном числе знаков в последовательности существуют вероятности того, что она будет содержать;

только знаки Zy (либо Z2, либо Z, );только знаки Zt и один знак Z2 или Z,;только знаки Z2 и один знак Zx или Z3;только знаки Z, и один знак Z, или Z, ;только знаки 2, и два знака Z2 или Z, и т. д.

С увеличением числа знаков вероятности появления таких последовательностей уменьшаются. Фундаментальные свойства длинных последовательностей знаков, создаваемых эргодическим источником сообщений, отражает следующая теорема: как бы ни малы были двачисла О > 0 и Ц > 0 при достаточно большом Л^ все последовательности могут быть разбиты:группы.

Одну группу составляет подавляющее большинство последовательностей, каждая из которых имеет настоль-ничтожную вероятность, что даже суммарная вероятность всех таких последовательностей очень мала и при достаточно большом Л'будет меньше сколь угодно малого числа 6. Эти последовательности называют нетипичными.

Вторая группа включает типичные последовательности, которые при достаточно большом N отличаются тем, вероятности их появления практически одинаковы, ем вероятность р любой такой последовательности удовлетворяет неравенству

|log(l/p)/N-H(Z)|<Liгде WZ) — энтропия источника сообщений. Соотношение (4.5) называют также свойством асимптотической равномерности длинных последовательностей, смотрим его подробнее.

Поскольку при N—' х источник сообщений с вероятностью, сколь угодно близкой к единице, выдает только типичные последовательности, принимаемое во внимание число последовательностей равно 1/р. Неопределенность создания каждой такой последовательности с учетом их равновероятности составляет log (1/р). Тогда величина log (l/p)/N представляет собой неопределенность, приходящуюся в среднем на один знак. Конечно, эта

величина практически не должна отличаться от энтропии источник-то и констатируется соотношением (4.5).

Ограничимся доказательством теоремы для простейшего случая эргодического источника без памяти. Оно непосредственно вытекает из закона больших чисел, в соответствии с которым вдлинной последовательности элементов алфавита ' Z,,Z2,...,Z|, имеющих вероятностипоявления pj,p2, Р], содержится Npj элементов Z,, Np: элементов z2 и т.д.

Тогда вероятность р реализации любой типичной последовательности близка к величине PiN p,N „ P t N

Р = Pi Pi -Pi ("-б)Логарифмируя правую и левую части выражения (4.6). получаем

logp = N]Tp, logp,.откуда (при очень больших Л';

27

Page 29: ПТИ1

log(l/p)/N=H(Z).Для общего случая теорема доказывается с привлечением цепей Маркова.Покажем теперь, что за исключением случая равновероятного и

независимого выбора букв источником, когда нетипичные последовательности отсутствуют, типичные последовательности при достаточно большом N составляют незначительную долю от общего числа возможных последовательностей.

При объеме алфавита источника / и количестве знаков в последовательности, Л' число всех возможных последовательностей

П, - 1 - *■ (4.7)Принимая во внимание соотношение (4.5). число типичных

последовательностей п, можно записать в видеn2=2NH(Z)

Тогдаn i / n 2 = 2N|,o g ! , -H (Z)i

Так как H(Z) < log21, то Пг « И, и неравенство усиливается с увеличением N.

К. Шеннон показал, что рассмотренные свойства длинных последовательностей могут служить основанием для осуществления эффективного кодирования информации

Избыточность. Следствием ограничений на выбор источником знаков является также недоиспользование переносчиков информации. Известная априорная информация о вероятностях выбора отдельных знаков сочетаний приводит к уменьшению средней неопределенности выбора источником знака, а следовательно, и переносимого им количества информации, равновероятном и некоррелированном выборе ту же информационную нагрузку на знак можно обеспечить, используя алфавит меньшего объема. В связи с этим обизбыточности алфавита 1 источника сообщений или просто об избыточности источника.

Мерой избыточности служит величина D. показывающая насколько хорошо используются знаки данного источника:

D = [HM,(Z)-H(Z)]/[HMX(Z)] (4.9)где H„„(Z) — максимально возможная энтропия, равная log 1; H(Z) — энтропия источника. Если избыточность источника равна нулю, то формируемые им сообщения оптимальны в смысле наибольшего количества переносимой информации. Для передачи определенного количества информации / при отсутствии помех в этом случае необходимо к, = "[НтаЛ^)) таков.

Поскольку энтропия сообщений, формируемых реальным источником, обладающим избыточностью, меньше максимальной, то для передачи того же количества информации / знаков требуется больше, а именно: K2=I(H)>Ki.

Поэтому говорят, также об избыточности в сообщении или просто об избыточности сообщения характеризуя ее тем же параметром D:

D = (k2-k,)/k2=[Hm„(Z)-H(Z)]/[H_(Z)]

Избыточность нельзя рассматривать как признак несовершенства источника сообщений. Обычно она является следствием его физических свойств. Ограничения, существующие в любом естественном языке, связаны, например, с особенностями артикуляции, не позволяющими формировать слова, состоящие из произвольных сочетаний букв.

Последствия от наличия избыточности сообщений неоднозначны. С одной стороны, избыточные сообщения требуют дополнительных затрат на передачу, например, увеличения длительности передач или расширения практической ширины спектра канала связи, что нежелательно. С другой стороны, при использовании сообщений, подчиняющихся априорно известным ограничениям, появляется возможность обнаружения и исправления ошибок, которые приводят к нарушению этих ограничений. Следовательно, наличие избыточности способствует повышению помехоустойчивости сообщений. Высокая избыточность большинства естественных языков обеспечивает, например, надежное общение людей даже при наличии у них акцентов и дефектов речи.

Page 30: ПТИ1

Однако при обмене информацией в автоматических системах естественная избыточность подлежит устранению. Это объясняется тем, что алгоритмы обнаружения и исправления ошибок, базирующихся на статистических закономерностях функционирования источника, оказываются слишком сложными для реализации их техническими средствами. В случае необходимости для повышения помехоустойчивости затем вводится «рациональная» избыточность, позволяющая обеспечить обнаружение и исправление наиболее вероятных и опасных по последствиям ошибок простыми техническими средствами. При низком уровне помех в канале связи устранение избыточности приводит к увеличению скорости передачи информации и может дать значительный экономический эффект.

Производительность источника дискретных сообщений. Под производительностью источника сообщений подразумевают количество информации, вырабатываемое источником в единицу времени. Эту характеристику источника называют также скоростью создания сообщений потоком входной информации. Поскольку возможное воздействие помех на источник сообщений принято учитывать эквивалентным изменением характеристик модели канала связи, то производительность источника сообщений равна энтропии источника, приходящейся на единицу времени.

Длительность выдачи знаков источником в каждом состояний в общем случае может

быть различной. Обозначим длительность выдачи знака Z,, формируемого источником всостоянии ^q, через ^qz, ■ Тогда средняя длительность выдачи источником одного знака

к 1^и =XP(Sq)ZP4(z-)V (4-Ю)

Производительность источника I(z) теперь можно выразить формулой

I(Z) = H(Z)/TH . (4.П)Как следует из (4.10), повышение производительности яка возможно не

только за счет увеличения энтропии за счет снижения средней длительности звания знака. Длительность знаков желательно выбирать обратно пропорциональными вероятностям их появления.

Если длительность выдачи знака не зависит от состояния источника, для всех знаков

одинакова и равна X ,то ^и = ^ • Выражение для l(z) принимает видI(z) = H(Z)/x (4.12)

Литература 1 осн [140-14!, 130-139.],3доп [16-17] Контрольные вопросы:1. Что такое дискретный каналом?2. Что такое симметричный канал ?3. Что такое несимметричный канал?4. Что такое производительностью источника сообщений ?5. Напишите определение асимптотической равномерности.

Лекция 6. Случайные сигналы. Ансамбль реализаций. Модели случайных процессов.6.1 Случайные сигналыВ отличии от детерминированных сигналов, форму которых мы знаем

точно, мгновенные значения случайных сигналов заранее не известны и могут быть предсказаны лишь с некоторой вероятностью, меньшей единицы. Характеристики таких сигналов являются статистическими, то есть вероятностный вид.

В радиотехники существует два основных класса сигналов, нуждающихся в вероятностном описании. Во-первых, это шумы - хаотически изменяющиеся во времени электромагнитные колебания, возникающие в разнообразных физических системах из-за беспорядочного движения носителей заряда. Во-вторых, случайными являются все сигналы, несущие информацию, поэтому для описания закономерностей, присущих осмысленным сообщениям, также прибегают к вероятностным моделям

6.2 Ансамбль реализаций

28

Page 31: ПТИ1

Математическая модель изменяющегося во времени случайного сигнала называется случайным процессом. По определению, случайный процесс X(t) - это функция случайного вида, характеризующаяся тем, что значения, принимаемые ею в любой момент времени t, являются случайными величинами.

До регистрации (до приёма) случайный сигнал следует рассматривать именно как случайный процесс, представляющий собой совокупность (ансамбль) функций времени x:(t), подчиняющихся некоторой общей для них статистической закономерности. Одна из этих функций, ставшая полностью известной после приёма сообщения, называется реализацией случайного процесса. Эта реализация является уже не случайной, а детерминированной функцией времени. На рисунке 6.1 приведен пример нескольких реализаций случайного процесса.

6.3 Модели случайных процессовДля анализа свойств и характеристик случайного процесса, а также

различных его преобразований необходимо задать математическую модель случайного процесса. Такая модель может представлять собой описание возможных реализаций случайного процесса в сочетании с указанием относительной частоты их появления. Приведем несколько примеров моделей случайных процессов, задаваемых таким образом.

Рисунок 6.2- Реализация гармонического сигнала со случайной начальной фазой

Случайный телеграфный сигнал. Таким-сигналом назван случайный процесс, реализации которого принимают значения +1 и -1, причем перепады уровня происходят в случайные моменты времени и число N перепадов уровня, происходящих за время т, является случайной величиной с дискретным распределением вероятности, описываемым законом Пуассона:

.V!Здесь X - неотрицательный параметр, определяющий среднюю частоту возникновения перепадов уровня.

Скачки уровня происходят в случайные моменты времени tk, поэтому аналитически записать формулу для отдельной реализации данного случайного процесса оказывается весьма затруднительно, а изобразить ее график можно лишь условно рисунок 6.3.

уф.). 1!

Рисунок 6.1-Реализации случайных процессовГармонический сигнал со случайной начальной фазой Во многих

практических задачах используется модель случайного процесса, реализации которого представляют собой гармонические колебания с известными (детерминированными) амплитудой и частотой, но случайной начальной фазой. Таким образом, реализация рассматриваемого случайного процесса может быть записана как

x(t) = Acos((i)0t + ф) где А - амплитуда (детерминированная), а>о - частота (детерминированная) и ф - случайная начальная фаза, которая в большинстве практически интересных случаев может считаться равномерно распределенной на интервале 0.,.2я, то есть имеющей следующую плотность вероятности:

|1/2л.0<ф<2п[О, востальныхслучаях.

Графики нескольких реализаций данного случайного процесса, представляющие собой синусоиды, смещённые друг относительно друга по временной оси, показаны на рисунке 6.2. Как видите, конкретный вид реализации процесса в данном случае определяется значением всего лишь одной случайной величины - начальной фазы.

тА

(6.1)

Х2 (t)

р,«р)=

Page 32: ПТИ1

Рисунок 6.3-Реализация случайного телеграфного сигналаВ данном случае конкретная реализация задается бесконечным

множеством случайных величин - моментов перепадов уровня tk, а характеристики случайного процесса определяются статистическими свойствами этих случайных величин.Итак, полное описание случайного процесса дает его ансамбль реализаций. Однако для решения практических задач часто достаточно более простых характеристик, выражающихся в виде числовых параметров и детерминированных функций. Об этом пойдёт речь далее.Литература 2 осн [60-62]3доп[ 12-25]. Контрольные вопрос1 .Что такое случайный сигнал?2.Что такое случайный процесс?3.Что такое реализация случайного процесса?4.Нарисуйте реализацию гармонического сигналов со случайной фазой?5.Нарисуйте реализацию случайного телеграфного сигнала?

Лекция 7. Помехоустойчивое кодирование. Связь корректирующей способности кода с кодовым

расстоянием . 7.1 Помехоустойчивое кодирование.

После того как непрерывное сообщение с помощью квантования преобразовано в дискретное сообщение, его необходимо передать по каналу связи. При этом передача должна осуществляться без искажений или с минимальными искажениями.

Кодирование - преобразование дискретного сообщения в дискретный сигнал, осуществляемое по определенному правилу. Обратный процесс - декодирование - это восстановление дискретного сообщения по сигналу на выходе дискретного канала, осуществляемое с учетом правила кодирования.

Код - совокупность условных сигналов, обозначающих дискретные сообщения. Кодовая последовательность (комбинация) - представление дискретного сигнала.

31

Page 33: ПТИ1

Кодирование нашло широкое применение в современных системах телемеханики при защитепередаваемой информации от помех. Развитию кодирования в телемеханике способствует также всевозрастающая тенденция использования кодоимпульсных систем телеизмерения.

,Код с удвоением элементов (корреляционный код). Помехоустойчивость

кода может быть повышена путем установления определенных зависимостей между элементами кодовых комбинаций. Примером такого кода является корреляционный код, который строится следующим образом.

Каждый элемент двоичного кода на все сочетания передается двумя символами, причем 1 преобразуется в 10, а О-в 01. Вместо 1010011 передается комбинация 10011001011010.

Таким образом, корреляционный код содержит вдвое больше элементов, чем исходный. На приеме ошибка обнаруживается в том случае, если в парных элементах содержатся одинаковые символы, т.е. 11 или 00 (вместо 10 и 01). При правильном приеме вторых (четные) элементы отбрасываются и остается первоначальная комбинация.7.2 Корректирующая способность кода зависит от кодового расстоянияКорректирующая способность кода зависит от кодового расстояния следующим образом,а) при d=l ошибка не обнаруживается; б) при d=2 обнаруживаются одиночные ошибки; в)при d=5 исправляются одиночные ошибки или обнаруживаются двоичные ошибки. В общем случаеd=r+s+J (7.1)

где d- минимальное кодовое расстояние, г- число обнаруживаемых ошибок; s - число исправляемых ошибок.При этом обязательным условием является Г > s. Так, в нашем примере d=3, и если r=s=l, то код может обнаружить одну ошибку и исправить ее. Если r=2, s=0, то код может только обнаружить две ошибки. Как следует из уравнения (3.5), для исправления одной ошибки и обнаружения двух ошибок необходимо, чтобы d=2+1+1=4. При <0Ы может быть также вариант, когда г=Д j=0. Если d=5, то могут быть три варианта r=s=2; r=3, s=l; r=4, s=0. Если код только обнаруживает ошибки, то

d=r+l, т.е. r=d-l. (7.2)Если код только исправляет ошибки, тоd=2s+l, т.е. s=(d-J)/2. (7.3)

Итак, геометрические модели позволяют просто строить малоразрядные корректирующие коды, однако при длине кода П У 3 геометрической моделью пользоваться трудно, так как она должна быть многомерной, поэтому для построения многоразрядных помехоустойчивых кодов используют различные правила и методики, к рассмотрению которых и перейдем.Литература 1 осн [ 111 -115], 2 доп [ 18-41 ], 5 осн [83-85]. Контрольные вопросы:

1 .Что такое кодирования?2.Что такое код?3.Каким образом зависит корректирующая способность кода от кодового расстояния? 4.Чему равно кодовое расстояния, если код только обнаруживает ошибки?5. Чему равно кодовое расстояния, если код только исправляет ошибки?

Лекция 8. Обнаруживающие коды. Примеры обнаруживающих кодов (код с контролем по паритету, корреляционный и инверсный коды).

8.1 Обнаруживающие коды. Примеры обнаруживающих кодов (код с постоянным весом, корреляционный и инверсный коды).

Код с постоянным весом. Общее число кодовых комбинаций в двоичном коде с постоянным весом

N=C'„=n!/l!(n-l)!Где I - число единиц в слове длиной п.Наиболее употребительными является пятиразрядный код с двумя

единицами (N=C:5=10) семиразрядный код с тремя единицами N=C3

7=35.Правильность принятых кодовых комбинаций в кодах определяется

путем подсчета количества единиц, если в коде С25 приняты не две единицы ,

а в коде С\ не три , то передаче произошла ошибка. Очевидно, код С, может обнаруживать все одиночные ошибки, так как при этом в комбинаций будет либо две единицы, либо четыре .Кроме, того он позволяет обнаружить

Page 34: ПТИ1

часть многократных ошибок, за исключением случаев, когда одна из единиц переходит в нуль, а один из нулей - в единицу . При смешениях искажение также не обнаруживается.

Код с удвоением элементов (корреляционный код)Помехоустойчивость кода может быть повышена путем установления

определенных зависимостей между элементами кодовых комбинаций. Примером такого кода является корреляционный код, который строится следующим образом.

Каждый элемент двоичного кода на все сочетания передается двумя символами, причем 1 преобразуется в 10, а 0 - в 01. Вместо 1010011 передается комбинация 10011001011010.

Таким образом, корреляционный код содержит вдвое больше элементов, чем исходный. На приеме ошибка обнаруживается в том случае, если в парных элементах содержатся одинаковые символы, т.е. 11 или 00 (вместо 10 и 01). При правильном приеме вторых (четные) элементы отбрасываются, и остается первоначальная комбинация.

Код обладает высокой помехоустойчивостью, так как ошибка не обнаруживается лишь тогда, когда два рядом стоящих различных символа, соответствующих одному элементу исходной кодовой комбинации, будут искажены так, что 1 перейдет в 0, а 0 - в I.

Инверсный код. В таком коде для увеличения помехоустойчивости к исходной л-разрядной комбинации по определенному правилу добавляется еще и разрядов. В результате в линию посылается удвоенное число символов. Правило образования кода следующее: если в исходной комбинации содержится четное число единиц, то добавляемая комбинация повторяет исходную, если нечетное, то в добавляемых разрядах все 0 превращаются в I, а 1 - в 0 (комбинация инвертируется по отношению по отношению к исходной). Примеры составления комбинаций инверсного кода из комбинаций обычного семиразрядного двоичного кода представлены в таблице 8.1

Прием инверсного кода осуществляется в два этапа. На первом этапе суммируется единицы в первой (основной) группе символов к. Если принятое число информационных символов к четное, то контрольные символы m принимаются без изменений, если нечетное, то символы m инвертируются. На

втором этапе контрольные символы m сравниваются с символами к и при наличии хотя бы одного несовпадения вся переданная комбинация п=к+т элементов бракуется. Это поэлементное сравнивание эквивалентно суммированию по модулю 2. При отсутствии ошибок в обеих группах символов их сумма равна нулю.

Пусть передана первая комбинация из табл. 3.8. Ниже показано суммирование для трех вариантов приема переданной комбинации:

Таблица 8.1- Инверсный код Информационные Контрольные гИнверсный кодсимволы к символы т п=к+т1 1 1 0001 1110001 1.11000 JJ110001111110 1 111110 1 111110111111011111111 0 0 0 0 0 0 0 111111100000001111100 0 0 0 0 0 1 1 11111000000011

В первом варианте искажений нет и число единиц в символах четное, поэтому производится суммирование по модулю 2 с неинвертируемыми символами т, что в результате дает нулевую сумму. Во втором варианте число единиц в символах к нечетное (единица в пятом разряде подавлена помехой, что отмечено точкой над символом), т.е. символы т инвертированы. В третьем варианте искажение возникло в четвертом разряде группы т. Таким образом, из трех вариантов лишь первый оказался без искажений, а второй и третий должны быть забракованы из-за наличия несовпадения в группах символов к и т.

Обнаруживающие возможности инверсного кода достаточно велики. Этому, в частности, способствует метод его построения. Добавление m символов приводит к увеличению минимального кодового расстояния.

После инвертирования обнаруживающие возможности кода изменяются в зависимости от числа разрядов исходного двоичного кода. Так, если передаются все комбинации обычного двоичного кода с к=2 (00, 01, 10 и 11), то этот непомехоустойчивый код, превращаясь в инверсный (0000. 0110. 1001 и 1111), увеличивает минимальное кодовое расстояние до dmai =2 и позволяет обнаруживать все одиночные ошибки согласно уравнению (3.6) и 67% двойных ошибок. Действительно, в каждой комбинации может быть С4 = 6 двойных ошибок: так, комбинация 0000 при двойных ошибках примет вид 1100. ОНО, ООП, 1001, 1010 и 0101. При этом только второе и

3332

Page 35: ПТИ1

четвертое искажения hie могут обнаружены, так как, инвертируя, например, во второй искаженной комбинации контрольные символы 10 на 01, после их сложения с основными символами получим нули.

У трехразрядного обычно двоичного кода (000, 001 111) после преобразования его в

инверсный код кодовое расстояние увеличивается до dm„,=3. Это назначит, что согласно уравнению (3.6) такой код гарантированно обнаруживает все двойные ошибки. Кроме того, он обнаруживает 80% тройных и четверных ошибок и все пяти- и шестикратные ошибки.

Четырехразрядный обычный двоичный код (0000, 0001 1111) после преобразования его в

инверсный код имеет dmm=4. Он обнаруживает все ошибки во втором, третьем, пятом, пятом, шестом и седьмом символах, не обнаруживает 22% четырехкратных ошибок и совсем не обнаруживает восьмикратные ошибки. Следует помнить, что высокие помехообнаруживающие возможности инверсного кода достигаются за счет большой избыточности. В этом отношении инверсный код значительно уступает циклическому коду, о котором будет сказано далее.

Описанный инверсный код называет также кодом с повторением и инверсией в отличие от обычного кода с повторением (без инверсии), в котором независимо от четного или нечетного числа единиц в комбинации она дополняется такой же комбинацией. Например, если вторая комбинация будет послана, как и в рассмотренном коде, т.е. 11111011III101, то третья комбинация примет вид 11111111111111. Разница между этими двумя комбинациями в двух символах (d=2), тогда как в инверсном коде эти комбинации различаются в семи символах (d-t). Литература 3 осн [65-69], 3 доп [83-85]. Контрольные вопросы:1.Каким образом строится инверсный код?2.Во сколько этапов осуществляется прием инверсного кода?3.Как определяется длинна кодовой комбинаций?4.Чему равно кодовое расстояние в инверсном коде.5.Как построить код с контролем по паритету ?

Лекция 9. Корректирующие групповые коды. Коды Хэмминга.9.1 Корректирующие групповые коды Если кодовые комбинации составлены

так, что отличаются друг от друга на кодовое расстояние а > 3, то они образуют корректирующий код, который позволяет по имеющейся в кодовой комбинации избыточности не только обнаруживать, но и исправлять ошибки.

Составление корректирующих кодов производят по следующему правилу. Сначала определяют количество контрольных символов т, которое следует добавить к данной кодовой комбинации, состоящей из к информационных символов. Далее устанавливают место, где эти контрольные символы должны быть расставлены в комбинации, и их состав, т.е. является ли данный контрольный символ 1 или 0. На приеме обычно делают проверку на четность определенной части разрядов.

9.2 Коды Хемминга.

Эти коды позволяют исправлять все одиночные ошибки (при d=3), а также исправлять все одиночные ошибки и обнаруживать все двойные ошибки (при d=4), но не исправлять их. Рассмотрим код Хэмминга, исправляющий все одиночные ошибки.

В качестве исходного берут двоичный код на все сочетания с числом информационных символов к, к которому добавляют контрольные символы т. Таким образом, общая длина закодированной комбинации п=к+т.

Рассмотрим последовательность кодирования и декодирования по Хэммингу.Кодирование. Определение числа контрольных символов. Для этого можно

воспользоваться следующими рассуждениями. При передаче по каналу с шумами может быть или искажен любой из п символов кода, или слово передано без искажений. Таким образом, может быть п+! вариантов искажения (включая передачу без искажений). Используя контрольные символы, необходиморазличить все п+1 вариантов. С помощью контрольных символов m можно описать 2™ событий. Значит, должно быть выполнено условие

2™ >n + I = k + m + I (9.1)В табл. 3.9 представлена зависимость между кит , полученная из этого неравенства.

Таблица 9.1-Число контрольных символов m в коде Хэмминга в зависимости от числоинформационных символов к

Page 36: ПТИ1

Та чица 9.1- к 1 2 3 4 5 6 7 8 9 10 11 m 2 3 3 3 4 4 4 4 4 4 4

Размещение контрольных символов. В принципе место расположения контрольных символовне имеет символов не имеет значения: их можно приписывать и перед информационными символами,и после них, и чередуя информационные символы с контрольными. Однако произвольныерасположение контрольных символов затруднят проверку принятого кода. Для удобстваобнаружения искаженного символа целесообразно размещать их на местах, кратных степени 2, т.е. напозициях 1, 2, 4, 8 и т.д. Информационные символы располагаются на оставшихся местах. Поэтому,например, для семиэлементной закодированной комбинации можно записатьmpm^kj.tT^.ki.kj.ki, (9-2)где kt - старший (четвертый) разряд исходной кодовой комбинации двоичного кода, подлежащийкодированию; А", - младший (первый) разряд.

Определение состава контрольных символов. Какой из символов должен стоять на контрольной позиции (1 или 0), выявляют с помощью проверки на четность. Рассмотрим это на примере комбинации.

В табл. 9.2 записаньх все кодовые комбинации (исключая нулевую) для трехразрядного двоичного кода на все сочетания и рядом справа, сверху вниз проставлены символы комбинации

Таблица 9.2-Соетавление проверочной таблицы для Разряды двоичных чисел Символ

ы кодаРазряды двоичных чисел Символ

ы кодаJ(kj) 3(k}) 3(k3) 3( к 3 ) 2(к,) Кк,)

00 0

01 1

l01

m,Щк,

1'I11

0 0I 1

01 01

т3 к,к.

кода Хэмминга записанные в последовательности. Из таблицы 9.доставляется таблица 9.2, в которой выписаны символы в трех строках в следующей закономерности. В первую строку записываются символы, против которых проставлены единицы в младшем (первом) разряде комбинации двоичного кода в таблице 9.2.

Так, в комбинациях 001, 011, 101 и 111 единицы содержат во втором разряде I, поэтому

вторая строка проверочных коэффициентов состоит из символов Щ к4 ,к2 и к,.В третью строку записываются символы, против которых проставлены

единицы в третьем разряде двоичного кода (т,, к,, к2 и к,).Таблица 9.3-Проверочная таблица для кода Хэмминга

«, ®k. ©к3 Фк,т, Фк4 ©к2 ©к,'"л Фк, ®к2 1 ©к.

В случае кодирования более длинных кодовых комбинаций табл. 3.10 и 3.11 должны быть расширены, так как должны быть записаны четвертая, пятая и т.д. строки проверочных коэффициентов. Для этого нужно лишь увеличить число разрядов двоичного кода в табл. 3.10. Так, для комбинации m l,m,,k l l,m.,k,„.k9.k8.mJ,k7.k„.k!,k,,,k,.k2.k, табл. 3.11 будет состоять изчетырех строк.

Первая строка - тр.к^кю.к^к-.^.кз.к,. в которой символы следует через одну позицию. как и единицы в первом разряде двоичного кода. т.е. проверяются символы на позициях 1,3,5,7,9.11,13 и 15 (на позиции I стоит символ т,. на позиции 3 -символ kn и т.д.).

Вторая строка - m2.k,,,k?,k,.k».k,,k2,k,. в которой символы следует через две позиции по две подряд начиная со второй, как и единицы во втором разряде двоичного кода, т.е. проверяются символы на позициях 2, 3, 6, 7, 10. II, 14, и 15 (на позиции 2 стоит символ Ш2, на позиции 3 -символ Ки и т.д.).

34 35

Page 37: ПТИ1

I pen.я строка - m,,k|0,k,,kB,k4,k-,,k,,k|, в которой символы следует через четыре позицииin' четыре подряд, как и единицы в четвертом разряде двоичного кода, т.е. проверяются символы наПИИЦШК4, 5, 6, 7, 12, 13, 14, 15. ,

Четвертая трока - m<,k,,k6,k!,k<,k3,k2,k|, в которой символы следует через восемь позиций по восемь подряд, как и единицы в четвертом разряде двоичного кода, т.е. проверяются символы на позициях 8. 9, 10, 11, 12, 13, 14, 15. Число проверок, а значит, и число строк в табл. 3.11 равно числу контрольных символов т.

Состав контрольных символов с помощью проверок определяют следующим образом. Суммируют информационные символы, входящие в каждую строку табл. 3.11; если сумма единиц данной строке четная, то значение символа т, входящего в эту строку, равно 0, если нечетная, то 1. По первой строке таблицы 9.2 определяют значение символа т.,по второй- т2, по третьей - т,.

Декодирование. Для проверки правильности комбинации снова используют метод на проверки четность. Если комбинация принята без искажения, то сумма единиц по модулю 2 даст нуль. При искажении какого - либо символа суммирование при проверке может дать единицу. По результату суммирования каждой из проверок составляют двоичные число, указывающее на место искажения. Например, первая и вторая проверки показали наличие искажения, а суммирование при третьей проверке дало нуль. Записываем число 011=3, которое означает, что в третьем символе кодовой комбинации, включающей и контрольные символы (счет производится слева направо), возникло искажение, поэтому этот символ нужно исправить на обратный ему, т.е. 1 на 0 или 0 на 1. После этого контрольные символы, стоящие на заранее известных местах, отбрасывают. Литература 3 осн [70-74], 2 доп [18-41], 5 доп [83-85]. Контрольные вопросы: !. Какие корректирующие групповые коды вы можете назвать?2.Чему равно кодовое расстояние у корректирующих кодов?3.Какое кодовое расстояние может быть у кода Хэмминга?4.В каких позициях располагаются контрольные символы кода? 5.Как определить число контрольных символов в коде Хэмминга?

Лекция 10. Циклические коды. Общие понятия и определения. Методы образования циклического кода.

10.1 . Циклические коды. Общие понятия и определения.Циклические коды относятся к числу блоковых систематических кодов, в

которых каждая комбинация кодируется самостоятельно (в виде блока) таким образом, что информационные к и контрольные m символы всегда находятся на определенных местах.

Возможность обнаружения и исправления практически любых ошибок при относительно малой избыточности по сравнению с другими кодами, а также простота схемной реализации аппаратуры кодирования и декодирования сделали эти коды широко распространенными. Теория циклических кодов

базируется на теории групп и алгебре многочленов над полем Галуа. Конспективно некоторые материалы из этой теории были изложены в начале главы, другие будут приводиться по ходу изложения.Р(Х' ■ 1-»3-»ПР(Х2)

,х:

+ Х + 1

-»7-»111Р(Х3)

= Х

+ Х + 1

-* 11-» 1011Р(

Х3) = х3

+ х2

+I-H3-H101

Р(Х*) =

= х<

+ Х+1

-»19-» 10011Р( = + х' 1-» 25-»

Многочлен (полином), который можно представить в виде произведения многочленов низшихстепеней, называют приводимым (в данном поле), в противном случае - неприводимым.Неприводимые многочлены играют роль, сходную с простыми числами в теории чисел.Неприводимые многочлены Р(Х) можно записать в виде десятичных или двоичных чисел либо ваиде алгебраического многочлена таблице 10.1.Таблица 10.1-Неприводимые многочлены и их эквиваленты________________P( ^ + : + + X 1->47-Р(Х') =

:X

+ х4

+ х2

+ Х +

1-»55-»1101Р( = + + + Х 1-

Р( - + + х3 + -1-»б1-Р(Х6)

= х'

' + Х

+ !-»

67-»

1000011Р( = ' + > + !-» 137 —>

36

Page 38: ПТИ1

ЦХ*) Х4+Х3 + ХЧХ + !->31->1ПП

Р(Х*)=Хв + Х4 + X3 + Хг + 1-> 285-» 100011101П\> Х! + X2+ 1-> 37-> 100101 Р(Х') = Х* + Х" +1 -+ 1041 -у 1000010001Р(Х') = Х! + Х3 + 1-»41-> 101001 Р(Х'°)= X10 + X3 + I -> 2057 -> 1000000100!В таблице 10.1 указаны все неприводимые многочлены до пятой

степени включительно, HI пользуемые для построения циклических кодов. Многочлены более высоких степеней приводится ВИШЬ выборочно.

Многочлен в поле двоичных чисел называется неприводимым, если он делится без остатка только на себя или на единицу; что касается многочленов, приведенных в табл. 3.15, то это Определение справедливо только для конечного поля двоичных чисел.

В основу циклического кодирования положено использование неприводимого многочлена Р(Х), который применительно к циклическим кодам называется образующим, генераторным илипроизводящим многочленом (полином).

/ Методы построения циклических кодов. В качестве информационных символов к для Построения циклических кодов берут комбинации двоичного кода на все сочетания. В общем случае. если заданную кодовую комбинацию Q(X) умножить на образующий многочлен Р(Х), получится циклический код, обладающий: тем или иными корректирующими свойствами в зависимости от выбора Р(Х) . Однако в этом, коде контрольные символы m будут располагаться в самых разнообразных местах кодовой комбинации. Такой код не является систематическим, что затрудняет его схемную реализацию. Ситуацию можно значительно упростить, если контрольные символы приписать в конце кода, т.е. после информационных символов. Для этой цели целесообразно воспользоваться следующим методом.

1. Умножаем кодовую комбинацию G(X), которую мы хотим

закодировать, на одночлен X"', имеющий ту же степень, что и образующий многочлен Р(Х}.

2. Делим произведение G(X)Xm на образующий многочлен Р(Х") :Р(Х) Р(Х)

где Q(X) - частное от деления; R(X) -остаток.Умножая выражение (10.1) на Р(Х) и перенося на R(X) в другую часть

равенства, согласно правилам алгебры двоичного поля, т.е. без перемены знака на обратный, получаем

F(X) = Q(X)P(X) = G(X)Xm+R(X) (10.2)Таким образом, согласно равенству (10.2). циклический код, т.е.

закодированное сообщение F(X), можно образовать двумя способами:1) умножением одной из комбинаций двоичного кода на все сочетания

[комбинация Q(X) принадлежит к. той же группе того же кода, что и заданная комбинация G(X) на образующий многочлен Р(Х);

2) умножением заданной кодовой комбинаций G(X) на одночлен Хш, имеющий ту же степень, что и образующий многочлен Р(Х), с добавлением к этому произведению остатка R(X). полученного после деления произведения G(X)X'° на образующий многочлен Р(Х).

10.2 Методы образования циклического кода. Циклические коды с d=3. Эти коды могут быть обнаруживать одиночные и двоичные ошибки или обнаруживать и исправляьть одиночные ошибки.

1. Выбор числа контрольных символов. Есть два способа выбора числа т. При первом способе исходят из того, что число контрольных символов т=п-к зависит от числа информационных символов, а значит, и от длины всей кодовой комбинации. Выбор т производится, как идля кода Хэмминга. с исправлением одиночной ошибки. Условие может быть записано в виде

m = E"log,(n + I) (10.3)где Е" - знак округления в сторону большого значения.

37

(Ю.1)

Page 39: ПТИ1

11

m = i-:"log;[(k + l) + E*log2(k + !)] (10.4)В основу выбора т в последнем выражении положено значение числа

информационныхразрядов. Это удобно, так как первое, что известно в начале кодирования, - именно

число разрядовинформационных символов. Уравнение (10.4) дает тот же результат, что и (КПЗ).

Заметим, что еслив (10.3) вместо л подставить*, получится тот же результат, что и в (10.4),

начиная ск=8.Из (10.3) вытекает, что наиболее экономичными являются коды, для

которых log, (n + 1) выражается целым числом, т.е. когда длина кодовой комбинации

И = 2"-1 (10.5)где т должно быть целым числом. Так, при к=11 п=/5 и т=4 бег всяких округлений. Но при к=12 и=/7, так как т=5 выбрано с округлением в сторону большого значения, что увеличивает избыточность кода: в первом случае Й=4/15=0.266, во втором И=5/17=0.295.

2. Выбор образующего многочлена Р(Х). Степень образующего многочлена / не может быть

меньше числа контрольных символов т. Это значит, что если т-3, то из таблицы 10.! можно

выбрать любой образующий многочлен Р(Х) начиная с третьей степени и выше. Для упрощения

технической реализации кодирования степень Р(Х) следует выбрать равной числу т, 1=т. Если в

таблице имеется ряд многочленов с данной степенью, то из них следует выбрать самый короткий.

Однако число ненулевых членов многочлена Р(Х) не должно быть меньше кодового расстояния d.

3. Нахождение элементов дополнительной матрицы. Даполнительную матрицу находят путем

деления единицы с нулями на выбранный многочлен R(X) и выписывания всех промежуточных

остатков.. При этом должны быть соблюдены следующие условия:

а)число остатков должно быть равно числу информационных символов к;б) для дополнительной матрицы пригодны лишь остатки сч весом W, не меньшим числаобнаруживаемых ошибок, г, т.е. в данном случае не меньшим 2 (W > 2); так обнаруживается неменее двух ошибок.

Из условий а) и б) определяется количество нулей, приписываемых к единице при делении ее на многочлен Р(Х);

в) так как элементы дополнительной матрицы являются для данной комбинации контрольными символами, то число разрядов дополнительной матрицы равно числу контрольных символов т. Вследствие того, что степень образующего многочлена выбирают равной т, число разрядов дополнительной матрицы равно также степни образующего многочлена. На пример, если т=3, а остаток равен 11, то он должен быть записан как 011. Из сказаного вытекает, что разрядность остатка равна степени образующего многочлена.

4. Составление образующей матрицы. Берут транспонированную единичную матрицу и справа приписывают к ней элементы дополнительной матрицы. Пример составления образующей матрицы был дан при рассмотрении циклического кода с обнаружением одиночной ошибки.

5. Нахождение всех комбинаций циклического кода данной группы. Это достигается суммированием по модулю 2 всесозможных сочетаний строк образующей матрицы, как было показано при рассмотрении циклического кода с обнаружением одиночной ошибки.

Циклические коды с d=4. Эти коды могут обнаруживать одиночные , двойные и тройные ошибки или обнаруживать двойные и исправлять одиночные ошибки.

1. Выбор числа контрольных символов. Число контрольных символов в этом коде должно быть на единицу больше, чем для кода с d-3:»**»«*j+l (10.5)

Для нахождения mJs} можно воспользоваться уравнением (10.4). Если число контрольных символов определяется, как в коде Хэмминга, то уравнение (10.3) примет вид

4/.4=l + l0g2(" + l) (10.6)2. Выбор образующего многочлена. Образующий многочлен P(X)Jmt

равен произведению двучлена (Х+)) на многочлен P(X)dm3:

Р{Х)М={Х + \)Р{Х)„ (Ю.7)

38

Page 40: ПТИ1

Чи объясняется тем. что двучлен (Х+1) позволяет обнаружить все одиночные и тройные и .1 многочлен Р(Х) - двойные ошибки. Так. для кода (7.3). обнаруживающего все иные ошибки', можно было бы выбрать P(X)d.4 = (X + I)(X'' + X + 1).II обШСМ случае степень / многочлена P(X)d„., равна числу т.

Дальнейшая процедура ■ а |ирования остается ьакой же, как и при образовании кода с обнаружением двойной ошибки.Iiiirjnnypa 1осн[],2доп [], 3 доп [74-82] himiрольные вопросы:I Какие коды называются циклическими кодами?2. Какую корректирующую способность имеет циклический код d=2?i Какую корректирующую способность имеет циклический код d=3?■I 111 каких матриц состоит образующая матрица?.I Выбор числа контрольных символов циклических кодов d=3,d=4?

Лекция 11. Декодирование циклического кода с обнаружением и исправлением одиночной ошибки, циклического кода с обнаружением и исправлением нескольких ошибок.

Обнаружение ошибок. Идея обнаружение ошибок в принятом циклическом коде заключаются в том, что при отсутствии ошибок закодированная комбинация F(X) делится на образующий многочлен Р(Х) без остатка. При этом конрольные символы m отбрасываются, а информационные символы к используется по назначению. Если произошло искажение принятой комбинации, то эта Комбинация F(X) преобразуется в комбинацию Н(Х). которую можно представить как сумму двух многочленов:

H(X) = F(X) + E(X) (11.1)Где Е(Х) - многочлен ошибок, содержащий 'столько единиц, сколько элементов в принятой комбинации не совпадает с элементами переданной комбинации.

Пусть, например, была передана комбинация кода (7,4) F(X) = 1101001, закодированная с помощью Р(Х) = 1011, Если она принята правильно, то деление на Р(Х) даст остаток, равный нулю. Если же комбинация принята как Н(Х) = 1101011, то при делении на Р(Х) образуются остаток 010, что свидетельствует об ошибке, и принята комбинация бракуется.

Обнаружение и исправление ошибок. Существует несколько вариантов декодирования циклических кодов [26]. Один из них заключается в следующем.

1. Вычисление остатка (синдрома). Так же как и в кодах и в кодах с обнаружевением ошибок, принятую комбинацию делят на образующий многочлен Р(Х). Остаток R(X) = 0 означает, что комбинация принята искаженной. Дальнейшая процедура исправления ошибок протекает таким образом.

2. Подсчет веса остатка W. Если вес остатка равен или меньше числа исправляемых ошибок, т.е. W < s. то принятую комбинацию складывают по модулю 2 с остатком и получают исправленную комбинацию.

3. Циклический сдвиг на один символ влево. Если W >- s, то производят циклический сдвиг на один символ влево и полученную комбинацию снова делят на образующий многочлен. Если вес полученного остатка W < s, то циклически сдвинутую комбинацию складывают с остаком и затем циклически сдвигают ее в обратную сторону вправо на один символ (возвращают на прежнее место). В результате получают исправлению комбинацию.

4. Дополнительные циклические сдвиги влево. Если после циклического сдвига на один символпо-прежнему WVs. то производят дополнительные циклические сдвиги влево. При этом послекаждого сдвига сдвинутую комбинацию делят на Р(Х) и проверяют вес остатка. При W<sвыполняют действия, указанные в п.З, с той лишь разницей, что обратных циклических сдвиговправо делают столько, сколько их было сделано влево.Литература 1осн [239-245 J, 3 доп [89-92] Контрольные вопросы:1. Каким образом обнаруживаются ошибки в циклическом коде ?2. О чем говорит наличие ошибкил принятой кодовой комбинаций?3. Как вычислить синдром ошибки?

39

Page 41: ПТИ1

I 'Ini IIIKOC вес кода?.9 l' чем нужно сравнивать вес остатка при процессе декодирования

циклического кода ? Лекция 12. Коды Файра.. Итеративные коды.12.1 Коды Файра. Циклические коды,

обнаруживающие и исправляющие пакеты ошибок (коды Файра). Под пакетом ошибок длиной Ъ понимают такой вид комбинации помехи, в которой между крайними разрядами, пораженными помехами, содержится Ь-2 разряда. Например, при Ъ=5 комбинации помехи, т.е. пакет ошибок, могут иметь следующий вид: 10001 (поражены тоько два крайних символа), 11111 (поражены все символы), 10111, 11101, ПОП (не поражен лишь один символ), 10011, 11001, 10101 (поражены три символа). При любом варианте непременным условием пакета данной длины является поражение крайних символов.

Коды Файра могут исправлять пакет ошибок длиной bs и обнаруживать пакет ошибок длиной Ь, [заметим, что в кодах Файра понятиекодового расстояния d, а следовательно, и уравнение (3.5) не используется].

Образующий многочлен кода Файра Р(Х)ф определяется из выражения:Р(Х)ф = Р(Х)(Хс-1) (3.32)где Р(Х) - неприводимый многочлен

степени 1. Из принципа построения кода следует, что1 ;> bs (3.33)c > b 5 + b r - l (3.34)При этом с не должно делиться нацело на число е, где

е = 2'-1 (3.35)--Неприводимый многочлен Р(Х) выбирают из табл. 3.15 согласно уравнению

(3.33), но так, чтобы удовлетворялось условие (3.35). Длина слова я равна наименьшему общему кратному чисел с и е, так как только в этом случае многочлен X" +1 делится на Р(Х)ф без остатка [при n'^ n никакой многочлен X" +1 не делится на Р(Х)ф]:

n=i\OK(e.c) (3.36)Число контрольных символовm=c + l (3.37)

Представляет интерес сравнение избыточности кода той же длины при исправлении того же число ошибок, но не сгруппированных в пакет, т.е. рассеяных по всей длине слова. Если воспользоваться для этой цели кодами БЧХ и близким знанием и=/27, то при s=4 можно по изложенной методике подсчитать, что число контрольных символов ш=28, т.е. получен код (127,99). Избыточность такого кода И=28/127=0.22, т.е. значительно выше, чем у кода Файра. Это очевидно: исправлять четыре ошибки, находящиеся в одном месте, проще, чем ошибки, рассредоточенные по всей длине комбинации.

Заметим, что существует следующее правило: если циклический код рассчитан на обнаружение независимых ошибок, он может обнаружить также пакет ошибок длиной т.

12.2 Итеративные коды.Эти коды могут обнаруживать и исправлять все одиночные ошибки.

Рассмотрим правила кодирования на примере.1.Кодовая комбинация, подлежащая кодированию, должна иметь четное числоинформационных символов R. Пусть это будет комбинацияR$ Rj R^ Ri R2 Ri1 0 1 0 I 02. Разбиваем эту комбинацию поровну и записываем в две строки:Ro R5 R4 '1 0 IR3 R2 Ri0 I 0

40

Page 42: ПТИ1

I Делаем проверку на четность символов каждой строки и дописываем справа контрольные .ИМ10ЛЫ т.К,. R5 R, m,I 0 10К, R2 R, m:

0 10 14. Делаем еще одну проверку на четность символов каждого столбца и дописываем внизу или вверху символы т:

к„ R5 R, Ш1 0 1 0к, R2 Ri п0 ] 1

]и1

1Ш| ГГ

Ц1т5Таким образом получаем итеративный код с равным числом информационных

и контрольных . имиолов, в данном случае код (12,6)R<, Rj Ri mi R3 R: Ri пь m3 m4 m5 m6

I 0 10 0 10 11111При перепроизошло искажение и получена комбинация 1010И01ПП. Декодированиеосуществляем таким образом.1. Складываем полученную комбинацию в матрицу:1 0 10110 1 4

I 11!2. Делаем проверку на четность символов каждой строки и каждого столбца:1 0 1 0 О R« R5 Rj m,1 1 0 1 1 R3 R2 R, m2

1 1 1 1 0 m:, ГП4 m5 ni61 0 0 0Если бы искажение не было, то все проверочные символы были бы

равны нулю. Однако искажение обнаружено и в первом столбце и во второй строке, причем в этих двух проверках участвовал символ R3. Если его значения изменить на обратное, то все проверочные символы будут равны нулю. Следовательно, ошибка обнаружеина и исправленна.Литература 1осн [144-147 ], 3 доп [88-90,93-94], Контрольные вопросы:1. Сколько ошибок может обнаружить и исправить код Файра? 2.Как определить образующий многочлен кода Файра?3.Как определить число контрольных символов в коде Файра?4.Как создать итеративные коды ?.5. Что такое избыточность кода?

Лекция 13. Коды Боуза-Чоудхури-Хоквингэмаd>5. Эти коды, разработанные Боузом, Чодхури и Хоквинхемом (сокращенно

коды БЧХ), позволяют обнаруживать и исправлять любое число ошибок.

Заданными при кодировании является число ошибок s, которое следует исправить, и общее число символов, посылаемых в линию, т.е. длина слов п. Числа информационных символов к и контрольных символов т, а также состав контрольных символов подлежат определению.

Методика кодирования такова. 1. Выбор длины слова. При кодировании по методу БЧХ нельзя выбирать произвольную длину слова и. Первым ограничением является то, что слова может иметь только нечетное число символов. Однако даже при этом не все нечетные числа могут составлять длину слова. Здесь могут быть два случае: I) по заданному п находят такое число h. чтобы удовлетворялось равенство 2Ь -1 = п . Например, при и=7 h=3. при и=/5 /:=■/, при п=31 h-S, при п-63 h=6 и т.д.; 2) находят такое число л; чтобы удовлетворялось равенство

41

Page 43: ПТИ1

i I" l)/| П (3.26)где // -0 целое число, a g - нечетное положительное число, при делении на которое п получаетсяцелым нечетным числом.

Разлагая 2" --1 на сомножители, получаем следующие числа п л g: 7 = 23-1 = 7J5 = 24 -1 = 5x331=25-1 = 3163 = 2* -1 = 7 x 3 x 3 = 21x3127 = 27 — ] = 127255 = 28-1 = 17x5x3511 =2* - ! = 73x71023 = 2'° -1 = 31x11x32047 = 2" -1=89x234095 = 2 ' - , -1=ЗхЗх5х7х13

Так, из четвертой строки следует, что при h-б длина слова может быть равнв не только 63 (первый случай), но и 21 (q=3).

2. Определение кодового расстояния. Кодовое расстояние определяют согласно (3.7), т.е.d = 2S + I.

3. Определение образующего многочлена Р(Х). Образующий многочлен есть наименьшееобщее кратное (НОК) так называемых минимальных многочленов М(Х) до порядка 2s-lвключительно, причем образующий многочлен составляется из произведения некоторого числанечетных минимальных многочленов:Р(Х) = НОК[М,(Х)Мэ(Х)...М2!.,(Х)...] T3.27)Минимальные многочлены являются простыми неприводимыми многочленами, метод определения некоторых дается в [26]. Заметим, что если среди минимальных многочленов окажутся два одинаковых, то один из них исключается.

4. Определение числа минимальных многочленов L. Из уравнения (3.27) следует, что порядокминимальных многочленов определяется как 2s-l. Если учесть, что этот образующий многочленсостоит только из нечетных минимальных многочленов, то число их определяется просто. Например,если tm3, то 2s-l-S. Это значит, что в уравнении (3.27) будут записаны минимальные многочленыМ,(Х), М,(Х) и М,(Х), т.е. L=3. Если s=8, то 2s-I-15 и в уравнении будут использованыминимальные многочлены М,(Х), М3(Х), М5(Х), М7(Х), М,(Х), М„(Х), М,,(Х), М,5(Х),т.е.L=8. Таким образом, число минимальных многочленов равно числу исправляемых ошибок:

L=s (3.28)5. Определение старшей степени / минимального многочлена. Степень /

есть такое наименьшеецелое число, при котором 21 -1 нацело делится на п или ng, т.е. п = 2' -1 или 2' -1 = ng. Отсюдаследует, что

/=А (3.29)6. Выбор минимальных многочленов. После того как определены число

минимальных многочленов L и степень старшего многочлена /, многочлены выписывают из табл. 3.16. При этом НОК может быть составлено не только из многочленов старшей степени /. Это, в частности, касается многочленов четвертой и шестой степеней.

7. Определение степени /? образующего многочлена Р*(Х). Степнь образующего многочлена зависит от НОК и не превышает произведения Is или 1L, так как L=s. После нахождения всех минимальных многочленовобразующий многочлен находят по уравнению (3.27).

8. Определение числа контрольных символов. Так как число контрольных символов m равно степени образующего многочлена, то в коде длины п

B=m<ls' (3.30)9. Определение числа информационных символов. Его производят

обычным порядком изравенства к=п-т. Дальнейшее этапы кодирования аналогичны рассмотренным для циклических

42

Page 44: ПТИ1

• I -4, т.е. находят дополнительную матрицу, по которой рассчитывают все кодовые

. . ."|Построение кодов БЧХ возможно и с помощью таблицы [26,18], которая

здесь приведена в in ином миле (табл. 3.17). В соответствииi и шоженной ранее методикой в таблице по заданным длине кодовой

комбинации п и числу■ iHI мых ошибок s рассчитаны число информационных символов к и

образующий многочленI'l \ i Mm ми контрольных символов т определяется из уравнении (3.10), а

запись образующего■| I' ||.i и виде десятичных цифр преобразуется путем перевода каждой

десятичной цифры внос число. Например, в первой строке таблицы Р(Х) = 13. Цифре 1

соответствует двоичное■пи i.i 001, а цифре 3 - число 011. Получаем двоичное число 001011. которое

записывается в идеМногочлен;! Х'' + X + l. Таким образом, в двоичный эквивалент переводится

каждая из десятичныхцифр и нс все десятичное число. Действительно, числу 13 соответствует уже

многочлен Х? + X3 +1.lli тбл. 3.17 следует, что при п=15, к=7 и s=2

образующий многочлен!'| \ ) X + X7 + Х6 + Х'1 + 1 —> 111010001, что соответствует многочлену

Р(Х), определенному вПримере

3.5.Коды БЧХ для обнаружения ошибок. Их строят следующим образом. Если

необходимо .нить код с обнаружением четного числа ошибок, то по заданному числу г согласно (3.6) и (3.7) ШЧолят значения d и s. Дальнейшее кодирование выполняют, как и ранее. Если требуются обнаружить нечетное число ошибок, то находят ближайшее меньшее целое число 5 и кодирование пр..и шпдят так же, как и в предыдущем случае, с той лишб разницей, что найденные согласно (3.27) пбрпуюший многочлен дополнительно умножают на двучлен (Х + 1). Например, требуются и.» фоить коднаруживающии семь ошибок при п=15. Находим, что d=8, а ближайшее меньшее Шячсние s=3. Далее определяем многочлен Р(Х). как, указано в примере 3.5, и умножаем его наим мен (Х + 1), т.е. получаем Р(Х) = Х'^Х^ + Х' + Х' + Х' + Х' + Х' + 1. Таким образом построен мм ВЧХ(15,4).|ц сратура 1 осн [275-282], 3 доп [83-88]. Контрольные вопросы:I Чему равно кодовое расстояние в коде БЧХ?.'. Как определяется кодовое расстояние в коде БЧХ?Ч. Как определить образующий многочлен?4.Какое число минимальных образующих многочленов необходимо чтобы

построить образующуюматрицу кода БЧХ?.5. Как определить степень минимального образующего многочлена?

Лекция 14. Модуляция. Основные виды носителей.14. 1. Модуляция.

Модуляция - образование сигнала путем изменения параметров переносчика под воздействием сообщения.

Непрерывные методы модуляции. При непрерывных методах модуляции в качестве переносчика может использоваться синусоидальное колебание, или несущая. Так как синусоидальное колебание характеризуется такими параметрами, как амплитуда, частота и фаза, то существуют три основных типа модуляции: амплитудная (AM), частотная (ЧМ) и фазовая. Имеются разновидности этих модуляций, о чем будет сказано далее, а также их комбинации, так называемые многократные модуляции.

Прежде чем перейти к рассмотрению модуляции, заметим, что сообщение низкой частоты можно передавать и непосредственно, без использования переносчика частоты, т.е. без модуляции. Однако модуляция расширяет возможности передачи сообщений по следующим причинам:

A)увеличивается число сообщений, которые могут передаваться по одной линии связи путемиспользования частотного разделения сигналов и поднесущих частот;

Б) повышается достоверность передаваемых сигналов при использовании помехоустойчивых типов модуляции:

B) повышается эффективность излучения сигнала при передаче по радиоканалу. ЭтоОбъясняется тем, что размер антенны должен составлять не менее 1/10 длины волны излучаемого

43

Page 45: ПТИ1

i иг папа. 'Гак, при передаче сообщения частотой 10 кГц, имеющего длину волны 30 км, потребовалась бы антенна диной 3 км. Если это сообщение передать на несущей частоте 200 кГц, то это уменьшит длину антенны в 2В раз. Из дальнейшего изложения преимущества модуляции станут яснее.

Указанные преимущества модуляции привели к тому, что дискретные сигналы, циркулирующие внутри систем телемеханики, начали передавать по каналу связи на несущей, модулируемой этими сигналами.

14.2 Основные виды носителей.Основа слова сигнал означает - носитель (переносчик).

Носитель становится сигналом в процессе модуляции. Параметры носителя, изменяемые во t в соответствии с передаваемым сообщением называют информативными. В качестве носителя информации используется колебания различной природы, чаще всего гармонические. В технике обычно используются носители в виде электрического U(t) или I(t). 1). Носитель, постоянное соотношение. U(t)=const. Один цифровой параметр - уровень М.Б, другой значение. 2). Носитель, гармоничные колебания. U=Asin(<yt+p)

Имеет три параметра: А - амплитуда со - частота (р - фаза 3).Используется последовательность.

I. Амплитуда.2.Период повторяется.3.Фаза.4. TuTn

5 Т6. Скважность и т.д.

Детерминированные - сигналы, которые точно определены во времени.Случайные - значения некоторых параметров предсказать нельзя, т.к. ПС

выдаёт сообщения с некоторой вероятностью, то предсказать точного значения информативного нарастания нельзя, т.е. сигнал принципиально представляет собой случайные колебания.Литература 2осн [222-229], 3 осн [226-265] Контрольные вопросы:1 Что такое модуляция ?2.Какие виды носителей можете назвать ?3.Какие виды модуляций можете назвать?4.Для чего необходима модуляция?5.Какое колебание используется при непрерывном методе модуляций?

Лекция 15. Угловая модуляция. Амплитудная модуляция15.1 Угловая модуляцияФазовая и частотная модуляция тесно связаны друг с другом, благодаря

чему и получили общее название «угловая модуляция» (УМ; английский термин - angle modulation). Поэтому прежде всего в этом разделе нужно рассмотреть сходства и различие этих двух видов модуляций. Фазовая и частотная модуляция.Названия двух рассматриваемых видов модуляции, как и в случае AM, указывают параметр несущего колебания, который линейно связан с модулирующим

сигналом. Фазовая модуляцияПусть модулирующий сигнал определяет начальную фазу несущего колебания: <p{t) - ksM(t)Тогда мы получаем сигнал с фазовой модуляцией (ФМ; английский термин

- phase modulation, РМ):44

ллп

Page 46: ПТИ1

■ i ii n A cos(M0t + ksM(t)).ltd-1. iiptумет функции cos. взятый целиком, называется полной фазой колебания:ТО)- «Dot + ksM(t).

Крмовая частота колебания по определению представляет собой скорость изменения

in in фазы. Подобно тому как в случае неравномерного движения вводится понятие мгновенной

.►мри. in (равный производной от координаты по времени), для колебаний с угловой модуляцией

ни » понятие мгновенной частоты (instantaneous frequency), равной производной от полной фазы

мсни:0(0

-со,.+к----^^^^^^ dt d!

Итак, в случае фазовой модуляции изменяется не только начальная фаза, но и мгновенная пик колебания.

■ I.ч пенно, полная фаза может быть найдена путём интегрирования мгновенной частоты: f(t) - J co(t') dt'.Частотная модуляция.Теперь мы можем ввести понятие частотной

модуляции (ЧМ; шн пинский термин - frequency modulation, FM), при которой модулирующий сигнал линейно связан . MI п.чинной частотой колебания:

co(t) = too + ksM(t) i тки в виде константы coo необходима для того, чтобь! сделать колебание высокочастотным. Па чтя фаза находится, как уже говорилось, путем интегрирования:

4TO = u>ot + kJsM(f)dt' + cpoЗдесь фо- произвольная постоянная

интегрирования. I liikiiiicii, сам ЧМ - сигнал имеет следующий вид:

s™0) = A cos(a>0t + к / sM(t')dt' + <р0).Как видим, начальная фаза колебания при частотной модуляции

претерпевает изменение, пропорциональные интегралу от модулирующего сигнала:

ф0) = k I sM(t')df + фо.Таким образом, частотная и фазовая модуляции оказываются

взаимосвязанными: если щмпшется начальная фаза колебания, изменяется и его мгновенная частота, и наоборот. По УТЬЙ причине два этих вида модуляции и объединяют под общим названием «угловая модуляция». 111 сказанного можно сделать несколько выводов:

|.По форме колебания с угловой модуляцией нельзя определить, ФМ это или ЧМ. Для этого (Юбходимо знать ещё и модулирующий сигнал.2. Пели пропустить модулирующий сигнал через идеальное дифференцирующее устройство, а затем П0Д1ТЬ его на частотный модулятор, получиться фазовая модуляция (верхняя ветвь на рис. 8.19). I Если пропустить модулирующий сигнал через идеальное интегрирующие устройство, а затем Подать его на

фазовый модулятор, получиться частотная модуляция (нижняя ветвь на рис. 8.19).

Частотныймодулятор

Фазовый

модулятор

Рисунок 8.19.-Взаимосвязь фазовой и частотной модуляции В заключение приведем сводную таблицу, показывающую, как связаны с модулирующим ОМГНалом различные характеристики модулированного колебания при фазовой и частотной модуляции

45dy/ ds>

d/dt ФМ-сигналми

ЧМ-,

Page 47: ПТИ1

Параметр ФМ ЧМ

Начальная фаза Ф(«) = ksM(t) ф£1) = к J sM(t')dt' + (ро

Полная фаза v(t) = m + teu(\) 4,(t) = u)ot + kJsM(t')dt"+((>o

Мгновенная частота m(t) = to0+k(dsM/dt) (o(t) = (uo+ksM(t)

15.2 Амплитудная модуляцияАмплитудной модуляцией (AM) называют образование сигнала путем

изменения амплитуды гармонического колебания (несущей) пропорционально мгновенным значениям напряжения или тока другого, более низкочастотного электрического сигнала, который в дальнейшем будем называть для краткости сообщением.

Будем рассматривать амплитудную модуляцию, при которой передаваемое сообщение является простейшим гармоническим колебанием и.= Uncosfit (Рисунок 1, а), где Un - амплитуда колебания, а П - угловая частота. Высокочастотный переносчик, или несущая, u„= UmocostOot, где ю0 -угловая частота несущей, a U„0 - ее амплитуда, представлен на рисунке 1, б.

Под воздействием сообщения на амплитуду несущей образуется новое колебание, в котором изменяется только амплитуда:

UAU=UMICOS(U,l.Амплитуда несущей будет изменяться по линейному закону или=иЫ1+ки,=иаа+ки!} cosQt=Ua„(l+m cosQl)...,где к - коэффициент пропорциональности, a m=kUJ UM= (U„m - Umlll)/

(Umas + UmM) -относительное изменение модуляции или глубиной модуляции. —-

.£___ I*: ч f%1 %%%.' w ■жлшъ f

Рисунок 15.1-Спектр амплитудной модуляций с двумя боковыми полосоми Раскрывая скобки и учитывая, чтоcosfl/cosuy =-[COS(U)0 + Q)t + cos(a)0 -Cl)t\получими.и "U-

cos ay + m—— cos(<a0 -Q)t.Из данного уравнения следует, что результирующее колебание, или

сигнал состоит из основного колебания несущей Uuocoscoot и двух колебаний, отличающихся от несущей на частоту П.

Основное колебание является колебанием, которое, как следует из предыдущего выражения, сохраняет частоту и амплитуду переносчика в процессе модуляции. Второй член представляет собой синусоиду, имеющую амплитуду (111/2)1^ и повышенную частоту (соо +П), и называется верхней боковой составляющей. Третий член также синусоида, имеющая ту же уменьшенную амплитуду, но пониженную частоту (ш0 -П); она называется нижней боковой составляющей.

Амплитудная модуляция с двумя боковыми полосами (ДБП). При этом способе модуляции передаваемый сигнал состоит из несущей (переносчика) и двух боковых колебаний (нижней и верхней боковых составляющих). Иными словами, при ДБП передается весь спектр амплитудно-модулированного колебания.

Page 48: ПТИ1

I it KIK боковые составляющие отличаются от несущей на частоту сообщения fa- а между и,, !Г„ рисунок15.1, а), то ширина полосы частот при ДБП равна удвоенной частоте . .i.i i ообщения: м т 2FCL

( кипим случаем амплитудной модуляции является передача сообщения, занимающего полосу in Гц, I on,,» ДО Fnj^Fn™*, т.е. А¥п= Ffw- F Q„„. При этом в процессе амплитудной модуляции мини нс боковые частоты, а полосы частот: верхняя боковая и нижняя боковая рисунок 15.1. 11олосу частот высокочастотного спектра AF для передачи сообщения, занимающего полосу Mm гот AFn, можно определить из рис. 2, б:

hi чсдствие того, что нижняя частота передаваемого сообщения всегда больше нуля. т.е. \1 .„„/О , полоса частот, необходимая для передачи на несущей, всегда превышает полосу

'in,.....гргланасмого сообщения более чем в два раза:AF>2AFn .(Мнополосная амплитудная модуляция (ОБП). Как следует из выражения

",», "„ocos<yo' + m ——cos(u>0 -0)t и рис. 2, б, информация о передаваемых сообщениях

ржится только в боковой полосе частот амплитудно-модулированного колебания. Это позволяет,., мин гнить передачу сообщения только на одной из боковых полос частот (верхней или нижней).При i il . II полоса частот передаваемого сообщения AFn переносится в область высоких частот безI...иирения общей полосы пропускания, т.е.

bFom =&FQ-Передача на ОБП имеет ряд преимуществ: 1) полоса частот

сокращается в два раза или более,.......1воляет увеличить число передаваемых сообщений; 2) при ОБП напряжение несущей частоты1,о 1НОЙ из боковых полос частот подавляется, что позволяет сосредоточить мощность передатчика....,ко на одной боковой полосе и повысить уровень передаваемого сигнала.

Более мощный сигнал....почивает большую помехоустойчивость передачи. Однако использование передачи на ОБПИТрудняется из-за сложности ее приема, о чем сказано ниже.Нииратура 1осн [229-233], 2 доп [608-612], 3 доп [267-270]Контрольные вопросы:I I ,1кой параметр меняется при фазовой и частотной модуляций?2. Какую модуляцию называют угловой модуляцией?I I |»рисуйте взаимосвязь фазовой и частотной модуляций ? А. Какие виды амплитудной модуляций можете назвать ? I ;IK определить коэффициент модуляций?

2.3 Планы лабораторных занятийЛабораторная работа № 1 Исследования устройств прима и передачи сигналов Hi- п. работы: Практическое знакомство с устройствами приема и передачи сигналов (ндаиия:I <) шакомиться с основными средствами приема передачи 3 ( обрать рабочую схему системы приема и передачи . I.Снять характеристики с передатчика и приемника. I ( „I гавить по требуемой форме отчет. Литература 1осн[7-44]. 5 доп [4-9] Контрольные вопросы:1 .Какие средства включает в себя система приема и передачи ? 2.Какую функцию выполняет терминал управления? I Какую функцию выполняет кодер. 4.Какую функцию выполняет модулятор? J Какие средства включает в себя приемник? Лабораторная работа Л"» 2Цель работы. Исследование передачи данных с помехам. Практическое знакомства влияния помех на сигналы IIIIIIIIIIH:

46 47

Page 49: ПТИ1

1.Ознакомиться с стендом источника помех2. Собрать рабочую схему .3. Снять полученные характеристики. * 5.Составить по требуемой форме отчет.Литература 1осн[81-88], 4доп[9-15] Контрольные вопросы:1. Какие типы помех можете назвать?2. Какие помехи называют флуктуационые?3. Какие помехи называются мультипликационными?4. Какие помехи называются аддитивные?5. Опишите классификацию аддитивных помех и его источников?Лабораторная работа № 3 Исследование кодирования и декодирования кода Хэмминга: Цель работы: Практическое знакомство с принципом кодирования кода Хэмминга. Задания:1. Ознакомиться с методикой построения кода Хэмминга.2. Собрать рабочую схему кодирования и декодирования кода Хэмминга

2.Снять показание по полученным данным..3.Составить отчет по требуемой форме. Литература Зосн[88-93], 4доп[ 14-20] Контрольные вопросы:

1. Какие корректирующие способности имеет код Хэмминга?2. Как строится код Хэмминга если кодовое расстояние d=4?3. Как определяется искаженная позиция кода Хэмминга?4. Как определяется наличие контрольных символов в коде Хэмминга?5. Как определить длину кода Хэмминга?Лабораторная работа № 4 Исследование кодирования и декодирования кодов обнаруживающиеошибки.Цель работы: Практическое знакомство с принципом кодирования и декодирования кодовобнаруживающие ошибки.Задания:1.Ознакомиться с принципами построения обнаруживающих кодов.2.Собрать схему обнаруживающих кодов .3.Снять полученные характеристики.4.Составить отчет по требуемой форме. Литература Зосн[111-123], 1доп[20-25]. Контрольные

вопросы:I. Какие виды обнаруживающих кодов можеге назвать?

2. Какие корректирующие способности имеют обнаруживающие коды?3. Опишите метод построения инверсного кода ?4. Как определить кодовое расстояние обнаруживающих кодов?Лабораторная работа № 5 Исследование помехоустойчивой модуляции и демодуляции при передачи данных.Цель работы: Практическое знакомства с влияниями различных модуляторов и демодуляторов на помехоустойчивые кодыЗадания:1.Ознакомиться со всеми модуляторами и демодуляторами примененных на стенде .2.Собрать рабочие семы различных модуляторов и демодуляторов схему.3.Произвести анализ полученных результатов.4.Составить отчет и ответит на контрольные вопросы. Литература 1осн[400-411], 4доп [20-25]. Контрольные вопросы:1 .Какую функцию выполняет процесс модуляций ?2.По какому признаку классифицируют методы модуляций?3. Какой из изученных методов модуляций является наиболее эффективным?

Page 50: ПТИ1

I I 1кую функцию выполняет процесс демодуляций?I in Ш1ПЯС1 процесс модуляций на помехоустойчивые коды?

г | тир.! горная работа № 6 Исследование частотного модулятора и демодулятора.11г 'п. работы: Практическое знакомства с частотным модулятором и демодулятором.. 1имп:I 11....мм I р.ся с возможностями частотного модулятора и демодулятора..' ( обрить рабочую схему.I 11роизвссти анализ полученных результатов .|,Со< гавить отчет и ответит на контрольные вопросы.Ътнратура 1осн[161-164], 4 доп [20-25].Контрольные вопросы:1. Для чего применяют частотный модулятор?2. Дня чего применяют частотный демодулятор?i Как связанна частотная модуляция с фазовой модуляцией ?4. Кикой имеет вид зависимость частотной модуляций с фазовой модуляцией?Лабораторная работа № 7 Исследование фазового модулятора и демодулятора на помехоустойчивое коды. "I («ль работы: Практическое знакомства влияния фазового модулятора и демодулятора на различные помехоустойчивые коды. Задания:I. Ознакомиться с фазовым модулятором и демодулятором . 1 i 'обрать рабочую схему.

3.Произвести анализ полученных результатов преобразований и снять характеристики.

4.Составить отчет и ответит на контрольные вопросы. * Литература 1осн[229-232], 4 доп[25-30]. контрольные вопросы:

1. Напишите аналитическое выражения фазовой модуляций?2. Что такое угловая модуляция?1 Какие параметры меняются при фазовой модуляций?4 Как влияет фазовый модулятор на помехоустойчивый код?5 Как влияет фазовый демодулятор на помехоустойчивый код?

2. 4 Планы практических занятийПрактическое занятие № 1 Геометрическая мера. Комбинаторная мера. Адаптивная мера (мераХартли)Цель работы: Научить навыкам расчета и построения .Задание:I. В алфавите три буквы А. В, С.а)Составить максимальное количество сообщений, комбинируя по три буквы в сообщении.б) Какое количество информации приходится на одно такое сообщение?в)Чему равно количество информации на символ первичного алфавита?Методические рекомендации: Для того чтобы решить задачу необходимо по рекомендуемой литературе определить формулы для нахождения количество информации, первичного алфавита меру для равновероятных и разновероятных передачи информации.

Page 51: ПТИ1

Прим 1.Решение, а) пъ =3:n=3;N=AAA ВА СААААВ ВА CABААС ВА САСABA ВВ CBAABB ВВ сввABC ВВ СВСАСА ВС ССААСВ ВС севАСС вес ССС

48 49

Page 52: ПТИ1

6)1 log2N4ofo27-4.75 ) H= logjmi= logjN= logjm/

Литература 5осн[45-6] Контрольные вопросы:

1. Как определяется число неповторяющихся сообщений?2. Как определяется неопределенность приходящегося на символ первичного алфавита?3. Как определить оценку энтропии в двоичных единицах?4. Как определить оценку энтропии в десятичных единицах?5. Как определить оценку энтропии в натуральных единицах?

Практическое занятие № 2. Представление кода в виде многочленов и арифметические

операции над ними. .Цель работы: Научить навыкам построения кодов в виде многочлена и производить арифметические операций над ними.

Задание: Показать кодовые комбинаций в виде многочленов и произвести арифметические

операций над ними .Методические рекомендации: Дня решения необходимо представленный

код записать в виде многочленов произвести арифметические операции по ниже указанному примеру.

Пример 1 Сложениех6 + х5 + х3 + х2 + 1 110110!е

+ х5 + х4+0 + х2+0 + 0 0110100

ех 6 + х 5 + х 4 + х3 + х2 + х + 1 1)1111110+х 5+0+0+х 2+х+0 0100110Умножение

I101101x' + xs+x3 + x2 + l х_____110100

х 5 +х 4 +х 2 1101101хЧх' + 0 + х5+х4+0 + х2 0000000

х,0 + х' + 0 + х7 + х6+0 + х4 1101101

х"- х'° + 0 + х 8 + х 7 +0 + х 5 П01101х"+0 + х'+0 + х7 + х6 + 0 + 0 + 0 + х2=х,, + х'+х7 + х6 + х2-> 1010ПОООЮО

101011000100Делениех8 + х7+0 + х5 + х4+0 + х2+0 + 1 xj+ x -'+ x + jх'+0 + х' + 0 +х"+ +х 2 хэ+х2 + х->П10

х7 + х" + х!+0 + х3+х2+0 + 1 х7 + 0 + х 5 + 0+х 3 +х 2

х'+0т0 + 0 +0 +0 +1 X 6 +0тх" +0 + Х 2 +х

х" + 0 + х2+х + Г-Н0Ш

Page 53: ПТИ1

I10110101I0I0JJ 1)10шоп 101011 100000101011

10111-)- х4 +х2+х + 1 Ъшчратура Зосн[44-57] Л. ттрольные вопросы:

I. Как можно представить любое число в системе счисления с основанием х можно в видемногочлена?2.Как можно представить двоичное число в виде многочлена?З.Как можно представить десятичное число в виде многочлена?4. По какому правилу производится операций над многочленами?5.Опишите правила сложения по модулю два?

Практическое занятие .№ 3 Непомехозашишенные коды методы построения. Hi-т. работы: Научить методом построения непомехозащишенных кодов.. In шине.

1, Построить двоично-десятинный код2. Построить код Грея.

Методические рекомендации: Каждый разряд десятичного числа записывается в виде комбинации». .чного кода. Например, цифра 9 в двоичной .систему запишется как 1001, а цифра 3 - как 0011.ни миму число 399 при записи двоично-десятичным кодом будет иметь вид ООП 10011001.

Его построение соответствует форме записи комбинаций двоичного кода

на все сочетания.При использовании маски обычного двоичного кода ошибка может быть

минимальной, если ММ юзникает в младшем разряде, и максимальной в старшем разряде. В общем случае, если старший р«ряд имеет номер п, то максимальная ошибка составит 2""'. Во избежание подобных ошибок Место обычного двоичного применяют коды, в которых при переходе от одного числа к другому Комбинация изменяется только в одном разряде, и, следовательно, кодовая маска составляется так, •ни это изменение в любом разряде может дать погрешность лишь на единицу. К таким кодам Относится и код Грея.Обычный двоичный код преобразуется в код Грея путем суммирования по модулю 2 данной комбинации с такой же, но сдвинутой вправо на один разряд. Например, преобразование двоичных чисел 1101 и 1010 в код Грея производится следующим образом: 1101® JJ0J 1011 При сложении младший разряд второго слагаемого отбрасывается. Преобразование кода Грея в двоичный начинается с младшего разряда путем сложения суммы цифр Кода I рея, начиная со старшего разряда и кончая разрядом, который преобразуется. Если при вложении по модулю 2 сумма оказывается четной, то записывается 0, если нечетной, то I. Например, при переводе комбинации кода Грея 1011 в младшем разряде комбинации двоичного кода запишется I, теки как 1 © 1 Ф 1 = 1. Во втором разряде будет 0, так как I Ф 1=0. В третьем разряде запишется 1, щк кик в третьем разряде кода Грея стоит 0, а в четвертом 1. Запишется 1 также в последнем разряде, I.IK как в последнем разряде кода Грея стоит 1. Таким образом, комбинация рефлексного кода 1011 в I10H4HOM коде примет вид i 101. Ътпратура Зосн[44-57] А. ттро.чьные вопросы:

I |«ие корректирующие способности имеет непомехозашишенные коды? .' i (нределите кодовое расстояние непомехозащишенных кодов ? ), Какие непомехозашишенные коды можете назвать. I Ч»М) равно длина непомехозащишенных кодов?

11арисуйте геометрическую интерпретация непомехозащишенных кодов?

50 51

101011

Page 54: ПТИ1

Практическое занятие № 4 Помехозащишенные коды обнаруживающие ошибкиЦель работы: Научить методом построения помехозащишенных кодов.Задание: Построить код Хэмминга при к=5, к=7. •Методические рекомендации:. Рассмотрим теперь последовательность кодирования и декодирования по методу Хэмминга. Кодирование:Определение числа контрольных символов.Таблица 1. Число контрольных символов m в коде Хэмминга в зависимости от числа информационных символов кк 1 2 3 4 5 6 7 8 9 10 1 12 13m 2 3 3 з 4 4 4 4 4 4 1 4 5 5

Размещение контрольных символов. Для удобства обнаружения искаженного символа целесообразно размещать их на местах, кратных степени 2, т. е. позициях 1, 2, 4, 8 и т. д. Информационные символы располагаются на оставшихся местах. Поэтому, например, для семиэлементной закодированной комбинации можно записать:

m, т2 k, m3 k3 к2 к, (9)причем к^ - это старший или четвертый разряд исходной кодовой комбинации двоичного кода, подлежащей кодированию, ki - младший или первый разряд.

Определение состава контрольных символов.Таблица 2 Составление проверочной таблицы для кода Хэмминга

Разряды двоичных Символы кода

Разряды двоичных Символы кода3(кз) 2(к2) 1(к,) 3(к,) 2&1_ Кк,)

0 0 0

01 1

1 0 1

т, т2

к.

11 1

0 0 1

010

кзк2 -• к,

В таблице 2 выписаны все кодовые комбинации (исключая нулевую) для четырехразрядного двоичного кода на все сочетания, и рядом справа, сверху вниз проставлены символы комбинации кода Хэмминга, записанные в последовательности (9). Из таблице 2 составляется таблице 3, в которой выписаны символы в трех строках в следующей закономерности.Таблица З-Проверочная таблица для кода Хэмминга

Ш| + к, + к3 + к,пъ + кд +к2 +к,т3 + кз +к2 ■Не,

В случае кодирования более длинных кодовых комбинаций таблицы 2 и 3 должны быть расширены

Число проверок, а значит, и число строк в таблице 3 равно числу контрольных символов т.Нахождение состава контрольных символов при помощи проверок

производится следующим образом. Суммируются информационные символы, входящие в каждую строку таблицы 3. Если сумма единиц в данной строке четная, то значение символа т. входящего в эту строку, равно

0.если нечетная, то 1. При помощи первой строки таблицы 3 определяется значение символа - mi,при помощи второй строки значение - т2, третьей - mj.

Декодирование. Для проверки правильности комбинации снова используется метод проверки на четность по коэффициентам таблицы 3. Если комбинация принята без искажения, то сумма единиц по модулю 2 даст нуль. При искажении какого-либо символа суммирование при проверке даст единицу. По результату суммирования каждой из проверок составляется двоичное число, указывающее на место искажения. Литература Зосн[119-123] Контрольные вопросы:1. Какие коды называются помехоустойчивыми?2. Как связать корректирующую способность кода с кодовым расстоянием?3. Как определить длину помехоустойчивых кодов .

Page 55: ПТИ1

>1 Как определяется избыточность кода?Кикой метод используется для проверки правильности комбинации?

Практическое занятие Л« 5 Циклические коды d=3 d=4. lb ii. работы: Научить навыкам расчета циклические кодов d=3. d=4. кдание: Рассчитать и построить циклические коды d=3. d=4.k=4 при k=4. \4тюдические рекомендации: i ||ходим число контрольных символов '" I "logJi(4+l)]+E''log,[(4+l)]=E'log2(5+3)=3 II i габлицы выбираем один из образующих многочленов третьей степени.Пусть Р(Х)=Х +Х+1 1011. Находим остатки от деления единицы с нулями на Р(Х) которые......".тетвенно равны 011, ПО, 111, 101 Остоатков должно быть четыре согласло числуИнформационных символов. Выписывая транспонированную единичную матрицу и приписывая к ■ и и справа матрицу дополнений в виде оттатков, получим образующую матрицу. k< kj к2 к, m-, m2 nil

а,// 0 0 0 1 „0 1 1а2// 0 0 1 0 1 1 0а3// 0 10 0 11 1а4// 10 0 0 10 1

Так все члены единичной матрицы являются комбинациями заданного четырехразрядного пличного кода, то четыре комбинации образующей матрицы представляют собой четыре Комбинации требуемого циклического кода. Остальные 11 комбинаций циклического кода, (начиная с пятой) могут быть получены путем суммирования по модулю з этих четырех комбинаций I" >разующей матрицы так, как было проделано для кода с d=2:

5.а,ф а2=0011101 П. а,® а,ф а,=0Ш0106.а,ф а,=0101100 12. а,® а2е а«=10П000 7.а,ф 34=1001110 13. а,ф а2©

34=1101001 8. а2® а,=0110001 14. а2ф а,® 34=1110100 9.а2ф 34=1010011 15.3,® а2ф а,® а4=11ПП1 Ю.з,® а4=1100010Заметим, что комбинация 13 была получена при выводе уравнения

(3.17). Если сложить комбинации 1ф2®4, то получим циклический код 1011000, в котором контрольными символами являются одни нули. Нулевая комбинация может быть также использована: у нее все символы - нули.

Как следует из табл. 3.15, в качестве образующего можно было бы взять и многочлен Р(Х)=Х +Х +1-»1101. В этом случае образующая матрица приняла бы вид

а, 00011 Oil]а, 001011 llа, 010001 ]|а4 10001 \0\■|6 аг=0011010а2® а3=0110100 а,® 34=1001011 а3® щ=] 100101 »:Ш а2© а,=0111001 в|ф а3® ал= 1101001 »]ф а2® 34=1011100 «I® а;® а3© а4=1111111 ■ |ф а,=0101110 а2ф а4=1010001Пример 2. Циклический код d=4 Требуется закодировать сообщение 10101010101010 циклическим кодом с d=4<i(X)=X,r'+x"+X9+X7+X5+X-1+x -10101010101010

' Определяем число контрольных символов по уравнениют,; Е log2[(14+l)]

+E/'log2[(14+l)]=E"log2(15+43)=5 md.v=5+l=6

52 53

Page 56: ПТИ1

Выбираем из таблицы 10.1 образующий многочлен для <1=З.Пусть P(X)d.,=X5+X2+l. Тогда P(X)d«i=(X+l )(X5+X2+1 )= Х6+Х5+ Х3+Х2+ Х+1Так как необходимо закодировать только одно сообщение , а не весь

ансамбль двоичных кодов с к=14, то в дальнейшем будем придерживаться процедуры кодирования.

Х"ЧЗ(Х)=Х"+Х|,+ Х'5+Х13+Х'|+Х'>+Х7 10I01010101010000000Разделив полученное выражение на P(X)<HI, находим остатокR(X)= Х4+Х3+ Х2+ Х+1 011111Передаваемая закодированная комбинация будет иметь видF(X)=( Х,9+Х"+ Х1!+ Х,3+ Х"+ Х9+ Х7)+( Х4+Х3+ Х2+ Х+1)---------------------------------------------------------------101010101010100! 1111

Литература Зосн[144-164] Контрольные вопросы:

1. Каким условиям должен удовлетворять образующий многочлен циклический код d=3?2. Как определить число контрольных символов циклического кода d=3?3. Как определить элементы дополнительной матрицы?4. Как определить число контрольных символов циклического "iad-4?5. Как определить образующий полином циклического кода d=4?

Практическое занятие № 6 Операции над многочленами использованием регистров сдвига и с сумматоров по модулю два.

Цель работы: Научить построение функциональных схем регистров сдвига и с сумматоров по модулю два. Задание: Построить схему по G(x)=x3+x+l многочлену Методические рекомендации:При построений схемы по G(x)=x3+x+l многочлену принимают участие регистры сдвига исумматоров п вх улю два. Вых ^

>0 Кг> 1 '—►

2 ^

Литература Здоп[112-113] I 2Контрольные вопросы:

1. Сколько регистров сдвига должно быть в функциональной схеме?2. По какому принципу ставятся сумматоры по модулю два?3. После какого такта будут выдаваться контрольные символы?4. Сколько тактов будет работать схема если длина кодовой комбинаций равно семи?

№ .пп

Наименование темы

1. Свойства энтропии. Условнаяэнтропия и ее свойства. Энтропия2. Проблема

информации в современной науке.3. Количество информации

как мераснятой неопределенности.

4. Спектры периодических

непериодических сигналов.Распределение энергии в спектре

сигнала. Соотношения междудлительностью импульсов и

шириной их импульсов.Стационарный и эргодический

случайные процессы.Спектральное и частотноепредставления случайных

процессов. Спектры случайныхпроцессов

Теоретические и практические аспекты применения теоремы Котельникова.Интерполяционная и экстраполяционные методы дискретизации. Адаптивная дискретизация..

К.Информационные

характеристики дискретныхканалов связи. Модели

дискретных каналов связи.Скорость передачи по

дискретному каналу связи.Пропускная способность

дискретного канала без помех.Пропускная способность

дискретного канала связи с____ помехами..

10Кодирование как процессвыражения информации в

цифровом виде. Эффективноекодирование. Основная теоремы

Шеннона о кодировании дляканала без помех. Методы

эффективного кодирования некоррелированной последовательности символов (методики Шеннона-Фэно и Хаффмена)

Основная теорема Шеннона о кодировании для канала связи с помехами. Помехоустойчивое кодирование

О

помощью использования

Page 57: ПТИ1

12Геометрическая интерпретация

блоковых корректирующихкодов.

Линейные коды. Математическоевведение к линейным кодам

13Математическое введение к циклическим кодам. Требования,

предъявляемые к образующему многочлену. Выбор образующего многочлена по заданному объемукода заданной корректирующей

_______способности.14

Декодирование циклическогокода с обнаружением и

исправлением циклического кода

спектральных характеристик.

■Цариеась:веферахи сделать сравнительны! ——Г~~ случайных процессов.Написать реферат и

указать особенности йпреимущества

применения теоремыКотельникова.

Написать реферат по выбранной теме. Указа!, 4осн, 2

особенности указанных методов восстановления.

Написать реферат и указать особенности

современные модели дискретных каналов.Написать реферат по выбранной теме. На

основе примера определить пропускные " особенности

дискретных каналов .Написать реферат и указать

особенности

кодирования.В реферате описать

особенности и

преимущество.Написать реферат по выбранной

теме. Указ особенности и линейных кодов.

Написать реферат и привести пример циклических кодов.

Написать реферат по выбранной теме. Указ область применения.

54 55

осн, 2

1, 2 осн,

1. 2 осн.

доп.

1,2 осн,

1,2 осн,

1,2,5 осн,

р, 2,5ос

1,2,5 осн,

1.2,3.5 осн.

|1, 2,

Page 58: ПТИ1

с обнаружением и исправлением 1

5Укороченные

циклические коды.Мажоритарное

Написать реферат и проделать анализ циклических кодов.

1, Зосн, 2 доп.

2.6 Планы занятий в

рамках самостоятельной работы студентов пол руководством преподавателя (СРСП)№

пНаименование темы

Методические рекомендации к выполнению СРСП

Формапроведения

Рекомендуемая литератураI. Знакомства

составомбиблиотекиSystemVeiw.

Ознакомиться составом библиотеки SystemVeiw и их особенностями.

презентация

6 доп

2. Создание и исследование различных видов

Ознакомиться с детермированны-ми и случайными сигналами и промоделировать их в

презеь. чия

6 доп

3. Знакомства с основными операторами и работой

Ознакомиться с работой метасистем SystemVeiw.

презентация

6 доп

4. Создание моделей сигналов во

Ознакомиться возможностями во временной области в

презентация

"6 доп

5. Создание моделей сигналов в частотной

Ознакомиться возможностями работы в частотной области

разработка индивидуаль ного

6 доп

6. Создание моделей циклических кодов в среде

Ознакомиться с методами построения циклических кодов SystemVeiw

разработка индивидуаль ного

1 осн,6 доп

7. Создание моделей циклических декодоров в

Разработать имитационный модель декодера в среде SystemVeiw.

разработка индивидуаль ного

5осн,6 доп

8. Построение образующей матрицы для кода БЧХ

Разработать образующие матрицы для кода БЧХ.

разработка индивидуаль ного

5осн,6 доп

9. Декодирования циклического кода с d=3.

Ознакомиться с процессом декодирования циклического кода cd=3.

разработка индивидуаль ного

б доп

10 Декодирования циклического кода с

Ознакомиться с процессом декодирования циклического кода cd=4

разработка индивиду

6 доп

11

группового Декодирования

кодаОзнакомиться с процессом декодирования циклического кода с кодом БЧХ.

разработка индивидуаль ного

6 доп

12

Кодирование кода Файра.

Ознакомиться с процессом кодирования циклического кода с кода Файра.

разработка индивидуаль ного

6 доп

13 Декодирование кода Файр.

Ознакомиться с процессом декодирования циклического кода Файра.

разработка индивидуаль ного

6 доп

14 15

Построение образующей матрицы для

Ознакомиться с математическими методами построения

разработка индивиду

5осн,6 доп

Построение образующей матрицы для циклического

Ознакомиться с математическими методами построения кодовых комбинаций

разработка индивидуаль ного

6 доп

2. 7 Тестовые вопросы для самоконтроля1.Дайте определение линии связи.

\ Л) Физическая среда по которой передается информация Б) Совокупность технических средств по которой передается информация В) Канал передачи информации с помощью электромагнитных колебании Г) Устройства вырабатывающие электрические сигнал Д) Передача информации на расстояние с помощью электромагнитных колебании.2.Дайте определение канал связи.Л) Физическая среда по которой передается информация

V Б) Совокупность технических средств по которой передается информацияВ) Канал передачи информации с помощью электромагнитных колебанииГ) Устройства вырабатывающие электрические сигналД) Передача информации на расстояние с помощью электромагнитных колебании.З.Сколько ошибок обнаруживает и исправляет итеративный код?A) Обнаруживает две ошибки и исправляет одну;

V Б) Обнаруживает и исправляет одну ошибку;B)Обнаруживает три ошибки и не исправляет;Г) Не обнаруживает, а исправляет одну ошибку;Д) Обнаруживает и исправляет две ошибки.

Page 59: ПТИ1

4. Дайте определение радиотехнический канал связи.A) Физическая среда по которой передается информацияБ) Совокупность технических средств по которой передается информацияB)Канал передачи информации с помощью электромагнитных колебании

Г) Устройства вырабатывающие электрические сигналуД) Передача информации на расстояние с помощью электромагнитных колебании.5. Определите понятия теории передачи сигналов.

56

Page 60: ПТИ1

A) Физическая среда по которой передается информацияБ) Совокупность технических средств по которой передается информацияB) Канал передачи информации с помощью электромагнитных колебанииГ) Устройства вырабатывающие электрические сигнал

УД) Передача информации на расстояние с помощью технических средств.6.Какую функция выполняет кодирующее устройство.A) Преобразования электрического сигнала, по электрический сигнал другой форме, болеепригодный для запоминания и передачиБ) Хранит закодированный сигнал до момента его передачиB) Осуществляет модуляцию одного или нескольких параметров высокочастотного колебания позакону передаваемого сигнала

\'Г) Преобразует принятый закодированный сигнал к форме, удобной для обработки в оконечной устройстве.Д) выделяет из высокочастотного модулированного колебания сигнал кот >оым в передатчике была осуществлена модуляция.7.Деление многочленов с помощью регистра сдвига и сумматора по модулю два укажитефункциональную схему для многочлена x + x " + x + x ' + x ~ + x-t-l,

а) Г" X - * А _____;ir 11вход А LX° Н» X' wo x*3 И» x"-J

К у» ,, k к

. i i II

выход

О-Глктовые импульсы сдвига

К Дг пение многочленов с помощью регистра сдвига и сумматора по модулю два укажитефмичшональную схему для многочлена X + X, и)

= Lл

аа-кЯЯ^л

X'

Page 61: ПТИ1

Тактовые ИМПУПЬ.™ 1 1 X A

4T-*<gb х° ИХ)> X1 -<X> >£x> х ><X>> x4 *oo> X5

" '• iL iL

V 6\ Такшвые ИМПУЛЬСЫ Г 1 1 \ 1 1 г

вход ^А^ х° НХ)> X" <*0> X2 гСх> X3 X» X4 >0> X5

►09*, k

i, . . - > 1 к it ЗЫ

ХОТактовые

импульсы сдвига в)

Г х° *6 1 . ( 'тп" <}> *<§> х Л* *Y9* У> х

I i k J

к. к ■■ х j LР

Тактовые импульсы сдвига

л) г -.Ar- -, Ar- -,A 1в-^ч*> X

'ЗСу1 х ♦0* X ><X> x- _HX>» x4 *60> x! —+

■ iL iL i>

Тактовые импульсы сдвигаx 3 [ —H У 4 ИХ)* -

Тактгтые ИМПУЛЬСЫ слвига г)

г 1 к квход Л. Xе X' X2 Ч>0> X3

*v9* ( 1 1 к , к 1 к 1ЫХ

Тактовые импульсы сдвига

■xg> { tх° X 1 X2 Чх> X5 1 „1i, i, а 1.

выходТактовые импульсы сдвига

д)Тактовые импульсы сдвига 5958

Page 62: ПТИ1

S/д)г^ 1 .,

вх-од *-(ixV х° Ч>0* X 1--------И х2

^КУ* "i к г ,, выход

Тактовые импульсы сдвига9.Назовите свойства корректирующих возможности циклического кода d = 4 .а) Обнаружить все одиночные, двоичные и тройные ошибки или обнаружить двойные и исправляетодиночную ошибкуб) Обнаружить и исправляет любое число ошибок

V в) Обнаружить двойные ошибки но не исправляет или обнаружить одиночные ошибки и исправляет

г)Обнаружить двойные ошибки и их исправляетд) Обнаружить тройные ошибки и их исправляет10. Циклические коды обнаруживающие одиночную ошибку d = 2, обнаруживает.а)Не только одиночную ошибку, но и любое нечетное число ошибок

V б) Не только одиночную ошибку, но и любое четное число ошибокв) Двойные ошибки но не исправляет или обнаружить одиночные ошибки и исправляетг)Двойные ошибки и их исправляетд)Тройные ошибки и их исправляет] 1. Дайте определение детерминированному сигналу -..

We) Сигналы, значения которых в любой момент времени полностью известны, т.е. предсказуемы с вероятностью, равной единицеб) Сигналы, значения которых в любой момент времени невозможно предсказать с вероятностью,равной единицев) Сравнительно низкочастотные колебания, содержащие информацию, которые не могут быть,непосредственно использованы для передачи на большее расстояния с помощью электромагнитныхколебанииг)Высокочастотные колебания, которые способны распространяться в виде электромагнитных волина большие расстоянияд) Высокочастотные колебания, один или нескольких параметров которых промоделированколебанием.12. Дайте определение случайному сигналуа) Сигналы, значения которых в любой момент времени полностью известны, т.е. предсказуемы свероятностью, равной единице

V б) Сигналы, значения которых в любой момент времени невозможно предсказать с вероятностью,равной единицев) Сравнительно низкочастотные колебания, содержащие информацию, которые не могут быть,

непосредственно использованы для передачи на большее расстояния с помощью электромагнитныхколебанииг)Высокочастотные колебания, которые способны распространяться в виде электромагнитных волина большие расстоянияд) Высокочастотные колебания, один -или нескольких параметров которых промоделированколебанием.13.Дайте определение управляющему сигналуа) Сигналы, значения которых в любой момент времени полностью известны, т.е. предсказуемы свероятностью, равной единицеб)Сигналы, значения которых в любой момент времени невозможно предсказать с вероятностью,равной единице

60

Page 63: ПТИ1

in H.II11 низкочастотные колебания, содержащие информацию, которые не могут быть.

|и , иннин использованы для передачи на большее расстояния с помощью электромагнитных.....

, i Им....штатные колебания, которые способны распространяться в виде электромагнитных воли

и.пни- расстоянияи i......■ .частотные колебания, один или нескольких параметров которых промоделирован

шигмInn. определение высокочастотным не модулирующим сигналам

... налы, значения которых в любой момент времени полностью известны, то есть предсказуемь. ... роггностью, равной единице м с iiNi.ui.i. значения которых в любой момент времени невозможно предсказать с вероятностью, (ниш..и единицеin 1 равнительно низкочастотные колебания, содержащие информацию, которые не могут быть. ■. родственно использованы для передачи на большее расстояния с помощью электромагнитных .;шии 11 Мы. ок(.частотные колебания, которые способны распространяться в виде электромагнитных воли.......ыиие расстоянияи Высокочастотные колебания, один или нескольких параметров которых промоделирован Колебанием.Г. Дайте определение модулированная сигналам.. . шпалы, значения которых в любой момент времени полностью известны, т.е. предсказуемы с вероятностью, равной единицеы i игналы, значения которых в любой момент времени невозможно предсказать с вероятностью.■Мной единице *•ID Сравнительно низкочастотные колебания, содержащие информацию, которые не могут быть. Непосредственно использованы для передачи на

большее расстояния с помощью электромагнитных колебанииi ) Нмсокочастотные колебания, которые способны распространяться в виде электромагнитных воли ... ьольшие расстояния \. и| Высокочастотные колебания, один или нескольких параметров которых промоделирован Колебанием.

16. Укажите формулу определяющая кодовое расстояние, если код обнаруживает и исправляет.а) n = r + m

Уб) d = r + s + l1 vi n-r m

II) N =- -= —n n г) r

+ m *0, r *0,m #0 fl)d=s+I17. Найдите формулу описывающее длину

кодового слова.Va) п = г + m

б)d=r->-lп п

г) г + m * 0, г * 0, m * Од)d=s+ I18.Укажите формулу описывающее избыточность кодаa) n = r + m

Очз) d = г + 1, ., п - г m

ув) N=----= —п п

г) г + m * 0. г * 0, m * 061

J

Page 64: ПТИ1

д) d = s + 119. Укажите формулу определяющая кодовое расстояния, если код обнаруживает ошибкиа) п = г + m

Vб) d = г + 1. ., п -г m

в)N =- - -= —п п

г) г + гп * 0. г * о, m * Од)d = s + 120. Укажите формулу определяющая кодовое расстояния, если код исправляет ошибкиа)п = г + mб)d = г + 1

n-r mв)N =----= —

и пг) r + m*0,r *0,m*0

УД) d = s + l21. Дайте определение дискретизации

\/а) Преобразование функции непрерывного времени в функцию дискретного времени, представляемую совокупностью величин (по значениям которых исходная непрерывная функция может быть восстановлена с заданной точностью)б) Преобразование некоторой значений в величинув) Изменение одного или нескольких параметров во времени в соответствии с изменениемпервичного сигналаг)Преобразование дискретного сообщения в дискретный сигнал, осуществляемое по определенномуправилуд) Совокупность условных сигналов, обозначающих дискретные сообщение22. Дайте определение квантованиюа) Преобразование функции непрерывного времени в функцию дискретного времени, представляемую совокупностью величин (по значениям которых исходная непрерывная функция может быть восстановлена с заданной точностью) б) Преобразование некоторой значений в величину

Vв) Изменение одного или нескольких параметров во времени в соответствии с изменениемпервичного сигналаг)Преобразование дискретного сообщения в дискретный сигнал, осуществляемое по определенномуправилуд) Совокупность условных сигналов, обозначающих дискретные

сообщение23. Дайте определение модуляцииа) Преобразование функции непрерывного времени в функцию дискретного времени,представляемую совокупностью величин (по значениям которых исходная непрерывная функцияможет быть восстановлена с заданной точностью)б) Преобразование некоторой значений в величину

VB) Изменение одного или нескольких параметров во времени в соответствии с изменением первичного сигналаг)Преобразование дискретного сообщения в дискретный сигнал, осуществляемое по определенномуправилуд) Совокупность условных сигналов, обозначающих дискретные сообщение24. Дайте определение кодированиюа) Преобразование функции непрерывного времени в функцию дискретного времени,представляемую совокупностью величин (по значениям которых исходная непрерывная функцияможет быть восстановлена с заданной точностью)б) Преобразование некоторой значений в величину

Page 65: ПТИ1

п HI i< iк- одною или нескольких параметров во времени в соответствии с изменением1ИЧН1МО l Hi llil'lili 11|. .|<.i. .лине дискретного сообщения в дискретный сигнал, осуществляемое по определенномл

1ИЛ) '. .iviniot п. условных сигналов, обозначающих дискретные сообщение

11Й11 определение код «I Преобразование функции непрерывного времени в функцию дискретного времени, чпшнемую совокупностью величин (по значениям которых исходная непрерывная, функция i ■ i быть восстановлена с заданной точностью) б) 11реобразование некоторой значений в величину»i II(мснение одного или нескольких параметров во времени в соответствии с изменением in |iiui'iinHo сигнала 11 11рсобразование дискретного сообщения в дискретный сигнал, осуществляемое по определенному

.Ч1Лу" ' ■ 'иокупность условных сигналов, обозначающих дискретные сообщениеIt («пишите формулу кодового расстояния: Л)(1 »г+ 1; В) d " S + 1; \ | Ш - г + S + 1: ffid"T-S + 2; I | d - 2S+ r + l .

^пишите многочлен х6+ х5+ х + I - в виде двоичного числа: Л) 1110010;11)1011001; •-

/С) 1100101; Д) 1010011; Е)!

10001128. Укажите частотную модуляцию при гармонической переносчике f(x) = Ucos((ot + (p) , гденормированный модулирующие сигнал■0)-, ™ ,

|b(t)|max я) <o(t) = <o0 + A(fl,(t) б) U(t) = U0 + AUx(t) V») ф(0 = ф0 + Д<рч(0 r)Q(t) = Q„+AQ(t) д) P(t) = Р0 + ДР(0

29. Что такое случайный процесс.V а) Изменение которого зависит не только от времени, но и от случайных факторов

б) Представляет непрерывную функцию непрерывного аргументав) Мгновенные значения не образуют непрерывного ряда.г)Дискретный поток непрерывных случайных величинд) Дискретный поток дискретных случайных величин30. Что такое непрерывный случайный процесса)Изменение которого зависит не только от времени, но и от случайных факторовб) Представляет непрерывную функцию непрерывного аргументав)Отличается от вполне непрерывного тем. что его мгновенные значения не образуют непрерывногоряда.

\/ г) Дискретный поток непрерывных случайных величин д) Дискретный поток дискретных случайных величин

62 63

Page 66: ПТИ1

Ответы тестовых вопросов для самоконтроля

Ответ № вопроса Ответ № вопроса ОтветА 11 А 21 АБ 12 Б 22 ВБ 13 Г 23 Вд 14 Д 24 Гд 15 Д 25 дг 16 Б 26 сБ 17 А 27 сд 18 В 28 вв 19 Б 29 АБ 20 Д 30 Г2. 8 Перечень экзаменационных вопросов по пройденному курсуv 1.Основная структура приема передачи сообщения.•/2.Определить и обосновать этапы обращения и преобразования сигналов. ^/3.Какие устройство включают в себя система связи.

. Какие устройство включают в себя какал связи. ^5.Структурные меры информации. уб.Энтропия как мера неопределенности информации, у 7.Свойства энтропии. Условная энтропия непрерывного источника сообщений и их свойства.^Жоличество информации как мера снятой

неопределенности. г 9.Определите аддитивную меру информации. У 10. Основные понятие сигнала и его модели. Ш. Формы представления детерминированных сигналов > 12. Основные принципы дискретизаций и квантования. У13. Равномерное и неравномерное квантование. V14. Адаптивное дискретизация. */15. Основные методы восстановления сигнала VI6. Практические аспекты теорема Котельникова.Ц 17. Основные понятия и определения информационных характеристик источника сообщений Q и канала связи. $&) Основные модели дискретных каналов связи. V 19. Скорость передачи по дискретному каналу связи. (/ 20. Пропускная способность дискретного канала с помехами и без помех, v 21. Определите основные методы восстановления сигнапов \/ 22. Случайные сигналы. Ансамбль реализаций. \/23. Спектры периодических и непериодических сигналов. /24. Модели случайных процессов. i/25. Непомехозащищенные кода.

Примеры непомехозащищенных кодов." 26. Основные принципы помехоустойчивое кодирование. 27. Связь корректирующей способности кода с кодовым расстоянием

JJ6 28. Обнаруживающие коды.«У29. Примеры обнаруживающих кодов методы построения. «J^JO. Математическое введение к линейным кодам. 131. Пропускная способность дискретного канала без помех. Пропускная способностьдискретного канала связи с помехами. ■v/32. Опишите модель дискретный канала с памятью. V © Опишите модель дискретный канала без памяти. V34. Опишите модель дискретного симметричного канала. ^35. Структурная схема системы передачи дискретного сообщения. (£?> Основная классификация кодов. Определение их корректирующих способнотей. 0^37. Математические операций с двоичными числами. 38. Кодирование как процесс выражения информации в цифровом виде. Эффективное кодирование.

№ вопрос

Page 67: ПТИ1

II I и 11 ■» целить основную теорему Шеннона о кодировании для канала связи с помехами и |,. i ПОМвХ

| I....нопные свойства помехоустойчивого кодирования. Связь корректирующей

i (ИкоГнюсти кода с кодовым расстоянием. и iii ионные свойства обнаруживающих кодов. Обнаруживающие коды, код с постоянным несом, корреляционный и инверсный коды. \/ А2. Нарисуйте и объясните геометрическую интерпретацию блоковых корректирующих ^^^Чко'И'11

i Основные определения и свойства линейных кодов. Математическое введение к линейным кодам

()сновные определения и свойства корректирующих групповых кодов. Методы построения кода Хэмминга с d=3,d=4.

u 4S Общие понятия и определения циклических кодов. Методы образования циклического ' кода.

46.Методика построения циклического кода d=3,d=4.47.Методика построения циклического кода d < 5.48.Методика построения кода обнаруживающие и исправляющие пакет ошибок.

yj\j 49. Декодирование циклического кода с обнаружением и исправлением циклического кода с обнаружением и исправлением нескольких ошибок. SO < )пределите основное требования, предъявляемые к образующему многочлену. Выбор образующего многочлена по заданному объему кода заданной корректирующей способности.51.Методика построения итеративного кода.52.Методика построения укороченного циклического кода.53.По основным видам носителей классифицируйте

метода модуляций . С^. Математическая модель амплитудной м'одуляций.

55. Математическая модель частотной модуляций. 56. Математическая модель

фазовой модуляций. #Ы. Спектральные составляющие амплитудной модуляций. ■fP/ ^

\^58. Определение и свойства угловой модуляций.' 59. Достоинства и недостатки амплитудной модуляций с одной

боковой полосой . 60. Достоинства и недостатки амплитудной модуляций с двумя боковыми полосами.

ГЛОССАРИЙИнформация - сообщение представляющую определенную новизну получателю.Средства - это технические устройства и линии связи по которым проходит сигнал..Каналом связи -это совокупность

технических сообщений по линий связи от источника к приемнику.

Сигнал - это переносчик нанесенным на нем сообщением или информацией.Линия связи- физическая среда по которой передается сигнал.Системы связи- совокупность технических средств от источника до получателя.Энтропия-это мера неопределенности.Длительность и.ипульса-интерв&л времени , в течений которого

мгновенные значения напряжения превышают половину амплитудного значения.

Спектр - совокупность гармонических составляющих на которые разложен сигнал.Квантование по уровню - процесс замены непрерывной функции ее

отдельными значениями .отстоящими друг от друга на конечный интервал.Дискретизация - замена непрерывной функций ее отдельными

значениями в определенными моментами времени.Кодирование — преобразование дискретного сообщения в дискретный

сигнал, осуществляемое по определенному правилу. Обратный процесс - декодирование - это восстановление дискретного сообщения по сигналу на выходе дискретного канала, осуществляемое с учетом правила кодирования.

Код - совокупность условных сигналов, обозначающих дискретные сообщения. Кодовая последовательность (комбинация) - представление дискретного сигнала.

Мини-мальное кодовое расстояние - минимальное различие двух кодовых комбинаций друг от друга.

64 65

, ИГ

средств, предназначенных для

Page 68: ПТИ1

Дискретным каналом - называют совокупность средств, предназначенных для передачи дискретных сигналов.

Шумы - хаотически изменяющиеся во времени электромагнитные колебания, возникающие в разнообразных физических системах из-за беспорядочного движения носителей заряда.

Устройства сбора информации - средства для получения информации.Устройства телемеханики- средства для передачи информации.Модуляция - это образование сигнала путем изменения параметров

переносчика под воздействием сообщения.Достоверность -степень соответствия принятой информации переданной информации.

УМКДС обсужден на заседании кафедры ATM Протокол № 5 «14» января 2006 г. УМКДС одобрен на заседании учебно-методического Сипе та института Автоматики и управления Протокол Л» 4 « 7 » февраля _2006г.

УЧЕБНО-МЕТОДИЧЕСКИЙ КОМПЛЕКС ДИСЦИПЛИНЫ ДЛЯ СТУДЕНТОВ

о дисциплине «Прикладная теория информации» для специальностей 050702

Сматов Косы Сматович Илипбаева Ляззат Болатовна

Подписано в печать .___.200 j. Формат 60x84 1/16. Бумага книжно-журнальная. Объем ?; д£ уч.-иад.л. Тираж/'Нжз. Заказ №/£.'■?V

Отпечатано в типографии издательства ЕИТИ имени К.И. Сатпасва г.Экибастуз, ул.Ладыгина, 32

Ы, 67