Гончаренко Е.А., Знаменский В.С. The Phenomenon of Information / ФЕНОМЕН ИНФОРМАЦИИ Рассматриваются вопросы определения понятия “информация” Содержание Введение 1. Феномен информации 1.1. Определение информации 1.2. Количественная мера информации (- Что такое величина или количество информации; - Формула Шеннона; - Бит и байт; - Экспертные методы оценки информации и становление новых мер информации) 1.3. Классификация информации (- По способу кодирования; - По сфере возникновения; - По способу передачи и восприятия; - По общественному назначению) 1.4. Свойства информации (- Атрибутивные свойства информации; - Прагматические свойства информации; - Динамические свойства информации) 2. Что такое информатика 2.1. Определение информатики 2.2. Основные составляющие (- Теоретическая информатика; - Симеотика; - Кибернетика; - Аналоговая и цифровая обработка информации) 2.3. Некоторые определения. Введение Проблема обучения информатике на начальном этапе как в старших классах среднеобразовательных школ, так и на первых курсах высшей школы вызывает многочисленные споры. До последнего времени считалось одной из основных задач общее знакомство с компьютерной техникой и умение программировать на одном из простейших языков (как правило “Школьный алгоритмический язык”, “Бейсик” или “Паскаль”). Такая ориентация наметила уклон в сторону программирования. У обучаемого появилась ассоциация слова “информатика” со словом “программирование”. В данной методическом пособии сделана попытка
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Гончаренко Е.А., Знаменский В.С.
The Phenomenon of Information / ФЕНОМЕН ИНФОРМАЦИИ
Рассматриваются вопросы определения понятия “информация”
Содержание
Введение
1. Феномен информации
1.1. Определение информации
1.2. Количественная мера информации (- Что такое величина или количество
информации; - Формула Шеннона; - Бит и байт; - Экспертные методы оценки
информации и становление новых мер информации)
1.3. Классификация информации (- По способу кодирования; - По сфере
возникновения; - По способу передачи и восприятия; - По общественному
назначению)
1.4. Свойства информации (- Атрибутивные свойства информации; -
Прагматические свойства информации; - Динамические свойства информации)
2. Что такое информатика
2.1. Определение информатики
2.2. Основные составляющие (- Теоретическая информатика; - Симеотика; -
Кибернетика; - Аналоговая и цифровая обработка информации)
2.3. Некоторые определения.
Введение
Проблема обучения информатике на начальном этапе как в старших классах
среднеобразовательных школ, так и на первых курсах высшей школы вызывает
многочисленные споры. До последнего времени считалось одной из основных
задач общее знакомство с компьютерной техникой и умение программировать на
одном из простейших языков (как правило “Школьный алгоритмический язык”,
“Бейсик” или “Паскаль”). Такая ориентация наметила уклон в сторону
программирования. У обучаемого появилась ассоциация слова “информатика” со
словом “программирование”. В данной методическом пособии сделана попытка
раскрыть понятия информатики и информации с целью использования их
специалистами гуманитарных направлений. Обучаемые должны получить
возможность оперировать с информацией любого вида: лингвистической,
изобразительной, музыкальной. Пособие поможет им приступит к получению
навыков обработки и систематизации информации, ориентации в
информационных сетях.
1. Феномен информации
1.1. Определение информации
Понятие “Информация” достаточно широко используется в обычной жизни
современного человека, поэтому каждый имеет интуитивное представление, что
это такое. Но когда наука начинает применять общеизвестные понятия, она
уточняет их, приспосабливая к своим целям, ограничивает использование
термина строгими рамками его применения в конкретной научной области. Так
физика определила понятие силы, и физический термин силы это уже совсем не
то, что имеется в виду, когда говорят: сила воли, или сила разума. В то же время
наука, занимаясь изучением явления, расширяет представление человека о нем.
Поэтому, например, для физика понятие силы, даже ограниченное его строгим
физическим значением, гораздо более богаче и содержательнее, чем для
несведущих в физике. Так понятие информации, становясь предметом изучения
многих наук, в каждой из них конкретизируется и обогащается. Понятие
информация является одним из основных в современной науке и поэтому не
может быть строго определено через более простые понятия. Можно лишь,
обращаясь к различным аспектам этого понятия, пояснять, иллюстрировать его
смысл [8]. Деятельность людей связана с переработкой и использованием
материалов, энергии и информации. Соответственно развивались научные и
технические дисциплины, отражающие вопросы материаловедения, энергетики и
информатики. Значение информации в жизни общества стремительно растет,
меняются методы работы с информацией, расширяются сферы применения
новых информационных технологий. Сложность явления информации, его
многоплановость, широта сферы применения и быстрое развитие отражается в
постоянном появлении новых толкований понятий информатики и информации.
Поэтому имеется много определений понятия информации, от наиболее общего
философского - “Информация есть отражение реального мира” [1] до узкого,
практического - “Информация есть все сведения, являющееся объектом
хранения, передачи и преобразования” [2].
Приведем для сопоставления также некоторые другие определения и
характеристики:
Информация (Information)- содержание сообщения или сигнала; сведения,
рассматриваемые в процессе их передачи или восприятия, позволяющие
расширить знания об интересующем объекте [7].
Информация - является одной из фундаментальных сущностей
окружающего нас мира (акад. Поспелов).
Информация - первоначально - сведения, передаваемые одними людьми
другим людям устным, письменным или каким - нибудь другим способом
(БСЭ).
Информация - отраженное разнообразие, то есть нарушение однообразия
[1].
Информация - является одним из основных универсальных свойств
материи [1].
Под информацией необходимо понимать не сами предметы и процессы, а их
отражение или отображение в виде чисел, формул, описаний, чертежей,
символов, образов. Сама по себе информация может быть отнесена к области
абстрактных категорий, подобных, например, математическим формулам, однако
работа с ней всегда связана с использованием каких-нибудь материалов и
затратами энергии. Информация хранится в наскальных рисунках древних людей
в камне, в текстах книг на бумаге, в картинах на холсте, в музыкальных
магнитофонных записях на магнитной ленте, в данных оперативной памяти
компьютера, в наследственном коде ДНК в каждой живой клетке, в памяти
человека в его мозгу и т.д. Для ее записи, хранения, обработки, распространения
нужны материалы (камень, бумага, холст, магнитная лента, электронные
носители данных и пр.), а также энергия, например, чтобы приводить в действие
печатающие машины, создавать искусственный климат для хранения шедевров
изобразительного искусства, питать электричеством электронные схемы
калькулятора, поддерживать работу передатчиков на радио и телевизионных
станциях. Успехи в современном развити информационных технологий в первую
очередь связаны с созданием новых материалов, лежащих в основе электронных
компонентов вычислительных машин и линий связи.
1.2. Количественная мера информации
·Каждый предмет или явление человек пытается охарактеризовать, для сравнения
с подобными, его величиной. Не всегда это можно просто и однозначно сделать.
Даже величины физических предметов можно оценивать по-разному: по объему,
весу, массе, количеству составляющих его элементов, стоимости. Поэтому,
например, понятно, что даже на простой вопрос: “Что больше, килограммовая
гиря или детский воздушный шарик?” - можно ответить по-разному. Чем явление
более сложно и многопланово и чем больше характеристик у этого явления, тем
труднее подобрать для него удовлетворяющее всех, кто занимается этим
явлением, определение его величины. Так и количество информации можно
мерить по-разному: в количествах книг, страниц, знаков, метрах кинопленки,
тоннах архивных материалов, килобайтах оперативной памяти ЭВМ, а также
оценивать по эмоциональному восприятию человека, по полученной пользе от
обладания информацией, по необходимым затратам на обработку,
систематизацию информации и т.д. Попробуйте оценить, где больше
информации: в формуле Энштейна E=mc2, лежащей в основе физики водородной
бомбы, в картине Айвазовского “Девятый вал” или в ежедневной телевизионной
передаче “Новости”. Видимо проще всего оценить количество информации по
тому, сколько необходимо места для ее хранения, выбрав какой-нибудь единый
способ представления и хранения информации. С развитием ЭВМ таким единым
способом стало кодирование информации с помощью цифр 1 и 0. Кодированием
мы здесь называем перезапись информации из одного способа представления в
другой. Количество позиций (называемых двоичными), в которых находятся
только цифры 1 или 0, необходимое для прямой записи сообщения, является
одним из критериев количества информации и называется объемом информации
в битах. Для записи одного символа (буквы, цифры, пробела между словами,
знаков препинания) в ЭВМ чаще всего используют 8 двоичных позиций, и это
называется байтом. Таким образом фраза: “Белоснежка и семь гномов” состоит
из 21 буквы (без кавычек) и двух пробелов между словами и будет занимать в
памяти ЭВМ 23 байта или 184 бита. Возможна не прямая, а сжатая запись
информации, т.е. кодирование его меньшим количеством бит. Это производится
за счет специальной обработки и анализа частоты появления, расположения и
количества символов в сообщении. На практике человек применяет также сжатие
сообщение, исходя из его смысла. Например, длинное сообщение объемом в 37
байт “тысяча девятисот девяносто шестой год” можно сжать до четырех символов
“1996” Впервые, как научное понятие, информация стала применяться в
библиотековедении, теории журналистики. Затем еe стала рассматривать наука
об оптимальном кодировании сообщений и передаче информации по
техническим каналам связи.
Формула Шеннона
Клод Элвуд Шеннон предложил в 1948 году теорию информации [2], которая
дала вероятностно-статистическое определение понятия количества
информации. Каждому сигналу в теории Шеннона приписывается вероятность
его появления. Чем меньше вероятность появления того или иного сигнала, тем
больше информации он несет для потребителя. Шеннон предложил следующую
формулу для измерения количества информации:
𝐼 = ∑ 𝒑𝒊 · 𝒍𝒐𝒈𝟐𝒑𝒊
𝑁
𝑖=1
где I - количество информации; pi- вероятность появления i-го сигнала;
N - количество возможных сигналов.
Формула показывает зависимость количества информации от числа событий и от
вероятности появления этих событий. Информация равна нулю, если возможно
только одно событие. С ростом числа событий информация увеличивается. I=1 -
единица информации, называемая “бит”. Бит - основная единица измерения
информации.
Бит и байт
В технике возможны два исхода, которые кодируются следующим образом: