Информация

 

1.     Понятие информации.

2.     Свойства информации.

3.     Виды (классификация) информации.

4.     Общая характеристика процессов сбора, передачи, обработки и накопления информации.

5.     Количество информации: формулы Хартли и Шеннона.

6.     Понятия информационного процесса, информатизации, информационной технологии, информационного общества.

7.     Кодирование информации.

8.     Машинная арифметика.

 

Содержание.

1. Понятие информации с точки зрения различных наук

В любой науке основные понятия определить достаточно сложно. Так и понятие «информация» невозможно определить через другие, более «простые» понятия. В каждой науке оно связано с различными системами понятий. Например, в определении понятия «информация» необходимо отразить, что она:

1.     существует в неживой природе;

2.     существует в биологических системах;

3.     не всегда может быть выражена словами;

4.     возникает в процессе общения;

5.     хранится, обрабатывается, передается,  и т.д.

В зависимости от области знания существуют различные подходы к определению понятия «информация».

Впервые как научное понятие термин «информация» стал применяться в теории журналистики в 30-х годах ХХ века, хотя в исследованиях по библиотечному делу он появился еще раньше. Под информацией понимались различные сведения, сообщения. Что соответствует переводу с латинского языка informatio – сведение, разъяснение,  ознакомление.

В физике понятие информация рассматривается как антиэнтропия или энтропия с обратным знаком. Поскольку мерой беспорядка  термодинамической системы является энтропия системы, то информация (антиэнтропия) является мерой упорядоченности и сложности системы. По мере увеличения сложности системы величина энтропии уменьшается,  и величина информации увеличивается. Процесс увеличения информации характерен для открытых, обменивающихся веществом и энергией с окружающей средой, саморазвивающихся систем живой природы (белковых молекул, организмов, популяций животных и т.д.).

В неживой природе понятие информация связано с понятием отражения, отображения. В некоторых физических и химических теориях информация определяется как отраженное многообразие. Отражение заключается в таком изменении одного материального объекта под воздействием другого, при котором все особенности отражаемого объекта каким-либо образом воспроизводятся отражающим объектом. В процессе отражения и происходит передача информации. Т.е. информация - это результат отражения. В соответствии с этим взглядом информация существовала и будет существовать вечно, она содержится во всех элементах и системах материального мира. Информация, наряду с веществом и энергией, является неотъемлемым свойством материи.

Под информацией в технике понимают сообщение, передаваемое с помощью знаков и символов. В теории связи, например, под информацией принято понимать любую последовательность символов, не учитывая их смысл. В основанной американским ученым Клодом Шенноном математической теории информации под информацией понимались не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность (неизвестность). Каждому сигналу в теории Шеннона соответствует вероятность его появления. Например, при передаче текста телеграммы вероятность появления буквы «т» равна 1/33. Чем меньше вероятность появления того или иного сигнала, тем больше информации он несет для потребителя. В обыденном понимании, чем неожиданнее новость, тем больше  ее информативность.

Математическая теория информации не охватывает всего богатства содержания понятия информация, поскольку отвлекается от содержательной (смысловой, семантической) стороны сообщения. С точки зрения этой теории фраза из 100 слов, взятая из газеты, пьесы Шекспира или теории относительности Эйнштейна имеют приблизительно одинаковое количество информации.

Наш соотечественник математик Ю.А. Шрейдер оценивал информацию по увеличению объема знаний у человека под воздействием информационного сообщения. Академик А.А. Харкевич измерял содержательность сообщения по увеличению вероятности достижения цели после получения информации человеком или машиной. Таким образом, под информацией всемантической теории понимают сведения обладающие новизной.

В кибернетике – науке об управлении в живых, неживых и искусственных системах – понятие информации связывают воедино с понятием управления (Норберт Винер, Б.Н. Петров). Жизнедеятельность любого организма или нормальное функционирование технического устройства зависит от процессов управления, благодаря которым поддерживаются в необходимых пределах значения их параметров. Процессы управления включают в себя получение, хранение, преобразование и передачу информации. Информация является обозначением содержания, полученного из внешнего мира в процессе приспособления к нему наших чувств. Информацию составляет та часть знания, которая используется для ориентирования, принятия решений, активного действия, управления, т.е. в целях сохранения, совершенствования и развития системы.

Данная концепция отрицает существование  информации в неживой природе, не дает ответа на вопросы: являются ли информацией неиспользованные знания, являются ли информацией неосмысленная информация?

Для преодоления этих противоречий академик В.П. Афанасьев ввел понятие информационных данных. Информационные данные – это всякие сведения, сообщения, знания, которые могут храниться, перерабатываться, передаваться, но характер информации они приобретут лишь тогда, когда получат содержание и форму пригодную для управления и используются в управлении.

Дальнейшим развитием математического подхода к феномену информация послужили работы Р. Карнапа, И. Бар-Хиллела, А.Н. Колмогорова и многие др.

В этих теориях понятие информации не связано с содержанием сообщений, передаваемых по каналу связи. Информация – абстрактная величина, не существующая в физической реальности, подобно тому, как не существует мнимое число или не имеющая линейных размеров материальная точка.

В биологии, которая изучает живую природу, понятие «информация» связано с целесообразным поведением живых организмов. Такое поведение строится на основе получения и использования организмом информации об окружающей среде.

Понятие информация используется в связи с исследованием механизмов наследственности. В генетике сформулировано понятие генетической информации, которое определяется как программа (код) биосинтеза белков, представленных цепочками ДНК. Реализуется эта информация в ходе развития особи. Последнее обстоятельство позволило проводить научные эксперименты по клонированию, т.е. созданию точных копий организмов их одной клетки.

В социальных науках (социологии, психологии, политологии и др.) под информацией понимают сведения, данные, понятия, отраженные в нашем сознании и изменяющие наши представления о реальном мире. Эту информацию, передающуюся в человеческом обществе и участвующую в формировании общественного сознания,  называют социальной информацией.

Под информацией в документолистике понимают все то, что так или иначе зафиксировано в знаковой форме в виде документов.

С точки зрения индивидуального человеческого сознания информация – это то, что поступает в наш мозг из многих источников в разных формах и, взаимодействуя там, образует структуру нашего знания.  Под информацией в быту (житейский аспект) понимают сведения об окружающем мире и протекающем в нем процессах, воспринимаемые человеком или специальными устройствами. Информацией для человека являются не только сухие факты, строгие инструкции, но и то, что радует нас, волнует, печалит, заставляет переживать, восторгаться, презирать, негодовать. Более половины общего объема сведений, полученных в процессе разговора, приходится на так называемую несмысловую информацию. Эту  информации говорящий по своему желанию, а иногда и непроизвольно, сообщает нам своей тональностью разговора, своей возбужденностью, жестикуляцией, выражением лица, глаз и т.д.

2. Свойства информации

Все знания об окружающем мире человек получает с помощью органов чувств. Насколько мы им можем доверять?

 

Информация нам нужна для того, чтобы принимать правильные решения. Поэтому необходимо, чтобы она обладала следующими свойствами или качественными признаками

1.     Объективность информации. Информация объективна, если она не зависит от чьего-либо мнения.

  Пример. а) На улице тепло. б) Температура воздуха 22 ºС (если термометр исправен).

2.     Достоверность. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Недостоверной информация может быть по следующим причинам:

1)    преднамеренное искажение (дезинформация);

2)    искажение в результате действия помех;

3)    когда значение отдельного факта или ряда фактов преуменьшается или преувеличивается (слухи, рыбацкие истории).

3.     Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решения. Неполная информация может привести к ошибочному выводу или решению. (Русская пословица «Недоученный хуже неученого»).

4.     Актуальность (своевременность) информации – важность, существенность для настоящего времени. Только вовремя полученная информация может принести пользу. Неактуальной может быть информация по двум причинам:

1)    она может быть устаревшей (прошлогодняя газета);

2)    незначимой, ненужной (сообщение, что цены в Италии снижены на 5%).

5.     Ценность (полезность или бесполезность) информации оценивается  применительно к задачам, которые можно решить с ее помощью.

Самая ценная информация – это достаточно полезная, полная, объективная, достоверная и новая.

Самая достоверная информация не может быть новой.

6.     Ясность, понятность. Информация понятна, если она выражена на языке, доступном для получателя.

 

3. Классификация информации

Некоторые представления о разнообразии информации может дать следующее определение (энциклопедический словарь). Информация – общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетки, от организма к организму. Из этого определения  следует существование 4 видов информации:

1.     социальная (человек-человек);

2.     техническая (человек-автомат, автомат-автомат);

3.     биологическая (информация в живом и растительном мире);

4.     генетическая (передача признаков от клетки к клетке, от организма к организму).

Другие основания классификации информации:

•       по способам и формам получения (восприятия);

•       по характеру носителя;

•       по характеру источника;

•       по сфере применения;

•       по общественному значению.

У человека 5 органов чувств:

  зрение.

Человек воспринимает информацию по зрительному каналу: текстовую, числовую, графическую.

 слух.

Человек воспринимает звуковую информацию: речь, музыка, звуковые сигналы, шум.

 обоняние.

Человек воспринимает запахи окружающего мира.

 вкус.

Вкусовые рецепторы языка дают возможность получить информацию о вкусовых качествах предмета.

 осязание.

 

Человек имеет возможность получить информация «наощупь», через кожу.

Около 90% всей информации человек получает при помощи органов зрения (визуальный), около 9% - при помощи органов слуха (аудиальный) и только около 1% - при помощи всех остальных органов чувств. Органы чувств получили название анализаторов, поскольку именно через это органы информация попадает в головной мозг.

 

информация

по способу восприятия     по форме представления            по общественному значению

Визуальная

Аудиальная

Тактильная

Обонятельная

Вкусовая Текстовая

Числовая

Графическая

Звуковая

Комбинированная   Массовая: 1.обыденная;                 2. общественно-  политическая;

               3. эстетическая.

Специальная:

1. научная;

2. производственная;

3. техническая;

4. управленческая.

Личная: 1. знания;

               2. умения;

               3. интуиция.

 

4. Общая характеристика процессов сбора, передачи, обработки и накопления информации.

Сбор информации – это процесс получения информации из внешнего мира и приведение ее к стандарту для данной информационной системы. Обмен информацией между воспринимающей ее системой и окружающей средой осуществляется посредством сигналов. Сигнал – средство передачи информации в пространстве и времени. В качестве носителя сигнала могут выступать звук, свет, электрический ток, магнитное поле и т.д. Сбор информации, как правило, сопровождается ее регистрацией, т.е. фиксацией информации на материальном носителе (документе или  машинном носителе).

Передача информации осуществляется различными способами: с помощью курьера, пересылка по почте, доставка транспортными средствами, дистанционная передача по каналам связи. Для осуществления последней необходимы специальные технические средства. Дистанционно может передаваться как первичная информация с мест ее возникновения, так и результатная информация в обратном направлении. Поступление информации по каналам связи осуществляется двумя способами: на машинном носителе и непосредственно в компьютер при помощи специальных программных и аппаратных средств.

 

 

Преобразование (обработка) информации – внесение изменений в набор данных, вычисления, информационный поиск, сортировка, построение графиков и т.п.

В современных развитых информационных системах машинная обработка информации предполагает последовательно-параллельное во времени решение вычислительных задач. Это возможно при наличии определенной организации вычислительного процесса. Вычислительная задача по мере необходимости обращается с запросами в вычислительную систему. Организация процесса предполагает определение последовательности решения задач и реализацию вычислений. Последовательность решения задается, исходя из информационной взаимосвязи, когда результаты решения одной задачи используются как исходные данные для решения другой.

Технология электронной обработки информации – человеко-машинный процесс исполнения взаимосвязанных операций, протекающих в установленной последовательности с целью преобразования исходной информации (первичной) в результатную. Операция представляет собой комплекс совершаемых технологических действий, в результате которых информация преобразуется. Технологические операции разнообразны по сложности, назначению, технике реализации, выполняются на различном оборудовании разными исполнителями.

Хранение и накопление информации вызвано многократным ее использованием, применением постоянной информации, необходимостью комплектации первичных данных до их обработки. Хранение осуществляется на машинных носителях в виде информационных массивов, где данные располагаются по установленному в процессе проектирования группировочному признаку.

6 . Понятия информационного процесса,

информатизации,

информационной технологии,

информационного общества.

Информатизация – социальный процесс повышения престижа информационных наук, распространения информационных методов в практической деятельности. Информатизация – всеобъемлющий и неизбежный период развития человеческой цивилизации, охватывающий примерно столетний период: с 50-х гг. X в. до начала XXI в. и направленный на обеспечение полного использования достоверного, исчерпывающего и своевременного знания во всех общественно значимых видах человеческой деятельности.  Техническим средством освоения информатизации выступают компьютеры, средства связи и др. информационные машины. В глобальном масштабе процесс информатизации – условие мирового сообщества государств и народов, экономики и политики, а особенно экологии.

Человек живет в мире информации. Человеческое мышление можно рассматривать как процессы обработки информации в мозгу человека. В процессе общения с другими людьми человек передает и получает информацию. Процессы, связанные с хранением, получением, обработкой и передачей информации, называются информационными процессами. История человеческого общества – это, в определенном смысле, история накопления и преобразования информации.

В информационном обществе главным ресурсом является информация. На основе владения информацией о различных процессах и явлениях можно эффективно и оптимально строить любую деятельность. В информационном обществеосновная часть населения занята в сфере обработки информации или использует информационные и коммуникационные технологии в своей повседневной производственной деятельности. Информационные и коммуникационные технологии – это совокупность методов, устройств и производственных процессов, используемых обществом для сбора, хранения, обработки и распространения информации.

Для жизни и деятельности в информационном обществе необходимо обладать информационной культурой, т.е. знаниями и умениями в области информационных технологий, а также юридическими и этическими нормами в этой сфере.

Информационный подход к исследованию мира реализуется в рамках информатики, комплексной науки об информации и информационных процессах, аппаратных и программных средствах информатизации, информационных и коммуникационных технологиях, а также социальных аспектах программы информатизации.

5. Количество информации: формулы Хартли и Шеннона.

ИЗМЕРЕНИЕ ИНФОРМАЦИИ

1.     Измерение информации в быту (информация как новизна).

Разные люди, получив одно и тоже сообщение, по-разному оценивают количество информации, содержащееся в нем. Оно зависит от того, насколько ново это сообщение для получателя. При этом подходе трудно выделить критерии, по которым можно было вывести единицу измерения информации.

2. Измерение информации в технике (информация – любая хранящаяся, обрабатываемая или передаваемая последовательность знаков).

А) В технике часто используют способ определение количества информации называемый объемным. Он основан на подсчете числа символов в сообщении, т.е. связан с его длиной и не зависит от содержания.

Б) В вычислительной технике (ВТ) применяют две стандартные единицы измерения:

бит (binary digit) ибайт (bate). 1 байт = 8 бит

Бит – минимальная единица измерения информации, которая представляет собой двоичный знак двоичного алфавита0;1.

Байт – единица количества информации в СИ, представляющая собой восьмиразрядный двоичный код, с помощью которого можно представить один символ.

Информационный объем сообщения (информационная емкость сообщения) - количество информации в сообщении, измеренное в стандартных единицах или производных от них (Кбайтах, Мбайтах и т.д.).

1 байт = 8 бит

1 Кбайт = 210 байт = 1024 байт

1 Мбайт = 210 Кбайт = 220 байт

1 Гбайт = 210 Мбайт = 220 Кбайт = 230 байт

В теории информации количеством информации называют числовую характеристику сигнала, не зависящую от его формы и содержания, и характеризующую неопределенность, которая исчезнет после получения сообщения в виде данного сигнала. В этом случае количество информации зависит от вероятности получения сообщения о том или ином событии.

Для абсолютно достоверного события (событие обязательно произойдет, поэтому его вероятность равна 1) количество информации в сообщении  о нем равно 0. Чем неожиданнее событие, тем больше информации он несет.

Лишь  при равновероятных событиях: ответ «да» или «нет»,  несет 1 бит.

Количество информации. Формулы Хартли и Шеннона

   В 1928 г. американский инженер Р. Хартли предложил научный подход к оценке сообщений. Предложенная им формула имела следующий вид:

            I = log2 K ,

Где К - количество равновероятных событий; I - количество бит в сообщении, такое, что любое из К событий произошло. Тогда K=2I.

Иногда формулу Хартли записывают так:

            I = log2K = log2 (1 / р) = - log2 р,

т. к. каждое из К событий имеет равновероятный исход р = 1 / К, то К = 1 / р.

   Задача.

   Шарик находится в одной из трех урн: А, В или С. Определить сколько бит информации содержит сообщение о том, что он находится в урне В.

   Решение.

   Такое сообщение содержит I = log2 3 = 1,585 бита информации.

   Но не все ситуации имеют одинаковые вероятности реализации. Существует много таких ситуаций, у которых вероятности реализации различаются. Например, если бросают несимметричную монету или "правило бутерброда".

   "Однажды в детстве я уронил бутерброд. Глядя, как я виновато вытираю масляное пятно, оставшееся на полу, старший брат успокоил меня:

   -    не горюй, это сработал закон бутерброда.

   -    Что еще за закон такой? - спросил я.

   -    Закон, который гласит: "Бутерброд всегда падает маслом вниз". Впрочем, это шутка, - продолжал брат.- Никакого закона нет. Прсто бутерброд действительно ведет себя довольно странно: большей частью масло оказывается внизу.

   -    Давай-ка еще пару раз уроним бутерброд, проверим, - предложил я. - Все равно ведь его придется выкидывать.

   Проверили. Из десяти раз восемь бутерброд упал маслом вниз.

   И тут я задумался: а можно ли заранее узнать, как сейчас упадет бутерброд маслом вниз или вверх?

   Наши опыты прервала мать…"

   ( Отрывок из книги "Секрет великих полководцев", В.Абчук).

   В 1948 г. американский инженер и математик К Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями.

Если I - количество информации,

         К - количество возможных событий,

         рi - вероятности отдельных событий,

то количество информации для событий с различными вероятностями можно определить по формуле:

            I = - Sum рi log2 рi,

где i принимает значения от 1 до К.

   Формулу Хартли теперь можно рассматривать как частный случай формулы Шеннона:

            I = - Sum 1 / К log2 (1 / К) = I = log2 К.

   При равновероятных событиях получаемое количество информации максимально.

   Задачи.

1. Определить количество информации, получаемое при реализации одного из событий, если бросают

а) несимметричную четырехгранную пирамидку;

б) симметричную и однородную четырехгранную пирамидку.

 

Решение.

 

а) Будем бросать несимметричную четырехгранную пирамидку.

Вероятность отдельных событий будет такова:

р1 = 1 / 2,

р2 = 1 / 4,

р3 = 1 / 8,

р4 = 1 / 8,

тогда количество информации, получаемой после реализации одного из этих событий, рассчитывается по формуле:

I = -(1 / 2 log2 1/2 + 1 / 4 log2 1/4 + 1 / 8 log2 1/8 + 1 / 8 log2 1/8) = 1 / 2 + 2 / 4 + + 3 / 8 + 3 / 8 = 14/8 = 1,75 (бит).

б) Теперь рассчитаем количество информации, которое получится при бросании симметричной и однородной четырехгранной пирамидки:

I = log2 4 = 2 (бит).

2. Вероятность перового события составляет 0,5, а второго и третьего 0,25. Какое количество информации мы получим после реализации одного из них?

3. Какое количество информации будет получено при игре в рулетку с 32-мя секторами?

4. Сколько различных чисел можно закодировать с помощью 8 бит?

Решение: I=8 бит, K=2I=28=256 различных чисел.

   Физиологи и психологи научились определять количество информации, которое человек может воспринимать при помощи органов чувств, удерживать в памяти и подвергать обработке. Информацию можно представлять в различных формах: звуковой, знаковой и др. рассмотренный выше способ определения количества информации, получаемое в сообщениях, которые уменьшают неопределенность наших знаний, рассматривает информацию с позиции ее содержания, новизны и понятности для человека. С этой точки зрения в опыте по бросанию кубика одинаковое количество информации содержится в сообщениях "два", "вверх выпала грань, на которой две точки" и в зрительном образе упавшего кубика.

   При передаче и хранении информации с помощью различных технических устройств информацию следует рассматривать как последовательность знаков (цифр, букв, кодов цветов точек изображения), не рассматривая ее содержание.

    Считая, что алфавит (набор символов знаковой системы) - это событие, то появление одного из символов в сообщении можно рассматривать как одно из состояний события. Если появление символов равновероятно, то можно рассчитать, сколько бит информации несет каждый символ. Информационная емкость знаков определяется их количеством в алфавите. Чем из большего количества символов состоит алфавит, тем большее количество информации несет один знак. Полное число символов алфавита принято называть мощностью алфавита.

    Молекулы ДНК (дезоксирибонуклеиновой кислоты) состоят из четырех различных составляющих (нуклеотидов), которые образуют генетический алфавит. Информационная емкость знака этого алфавита составляет:

            4 = 2I, т.е. I = 2 бит.

   Каждая буква русского алфавита (если считать, что е=е) несет информацию 5 бит (32 = 2I).

   При таком подходе в результате сообщения о результате бросания кубика , получим различное количество информации, Чтобы его подсчитать, нужно умножить количество символов на количество информации, которое несет один символ.

   Количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на число знаков в сообщении.

7.   Кодирование информации.

ПРЕДСТАВЛЕНИЕ И КОДИРОВАНИЕ ИНФОРМАЦИИ

Для обмена информации с другими людьми человек использует естественные языки (русский, английский, китайский и др.), т.е. информация представляется с помощью естественных языков. В основе языка лежит алфавит, т.е. набор символов (знаков), которые человек различает по их начертанию. Например, в основе русского языка лежит кириллица, содержащая 33 знака, английский язык использует латиницу (26 знаков), китайский язык использует иероглифы (десятки тысяч знаков).

Последовательности символов алфавита в соответствии с правилами грамматики образуют основные объекты языка – слова. Правила, согласно которым образуются предложения из слов данного языка, называют синтаксисом.

Наряду с естественными языками были разработаны и формальные языки (системы счисления, язык алгебры, символы, языки программирования и др.). При этом алфавит могут составлять цифры, символы, формулы, ноты, изображения элементов электрических или логических схем, дорожные знаки, точки и тире и т.п. Основное отличие формальных языков от естественных состоит в наличии строгих правил грамматики и синтаксиса.

Представление  информации может осуществляться с помощью языков, которые являются знаковыми системами. Каждая знаковая система строится на основе определенного алфавита и правил выполнения операций над знаками.

Знаки могут иметь различную физическую природу. Например, для представления информации с использованием языка в письменной форме, используются знаки, которые являются изображениями на бумаге или других носителях, в устной речи в качестве знаков языка используют различные звуки (фонемы), а при обработке текста на компьютере знаки представляются в виде последовательностей электрических импульсов (компьютерных кодов).

КОДИРОВАНИЕ ИНФОРМАЦИИ

Преобразование информации из одной формы представления в другую называют кодированием.

Средством кодирования служит таблица соответствия знаковых систем, которая устанавливает взаимнооднозначное соответствие между знаками или группой знаков двух различных знаковых систем.

В процессе обмена информацией часто приходится производить операции кодирования и декодирования информации. Например, при вводе знака алфавита в компьютер путем нажатия соответствующей клавиши на клавиатуре происходит кодирование знака, т.е. преобразование его в компьютерный код. При выводе знака на экран монитора или принтер происходит обратный процесс – декодирование, когда из компьютерного кода знак преобразуется в его графическое изображение.

Кодирование – это операция преобразования знаков или групп знаков одной знаковой системы в знаки или группы знаков другой знаковой системы.

Двоичное кодирование

В компьютере для представления информации используется двоичное кодирование, т.к. используются технические устройства, которые могут сохранять и распознавать не более двух различных состояний (цифр):

       Электромагнитные реле (замкнуто/разомкнуто), широко использовались в конструкциях первых ЭВМ.

       Участок поверхности магнитного носителя информации (намагничен/размагничен).

       Участок поверхности лазерного диска (отражает/не отражает).

       И т.д.

Все виды информации в компьютере кодируются на машинном языке, в виде логических последовательностей нулей и единиц.

Информация в компьютере представлена в двоичном коде, алфавит которого состоит из двух цифр (0 и 1).

Цифры двоичного кода можно рассматривать как два равновероятных состояния (события). При записи двоичной цифры реализуется выбор одного из двух возможных состояний (одной из двух цифр).

Каждая цифра машинного двоичного кода несет количество информации равное одному биту.

Для записи информации о количестве объектов используются числа. Числа записываются с помощью систем счисления.

Система счисления – это знаковая система, в которой числа записываются по определенным правилам с помощью символов некоторого алфавита, называемых цифрами.

Все системы счисления делятся на две большие группы: позиционные и непозиционные. В позиционных системах счисления значение цифры зависит от ее положения (позиции) в числе. Позиция цифры в числе называется разрядом. Например, десятичная: 343, 222 и т.д. В непозиционных  значение цифры не зависит от ее положения в числе, например, Римская непозиционная система счисления: I(1), V(5), X(10), L(50), C(100),  D(500), M(1000): XXX (тридцать) = X+X+X.

Наиболее распространенными в настоящее время позиционными системами являются десятичная, двоичная, восьмеричная, шестнадцатеричная. Каждая  позиционная система имеет определенный алфавит цифр и основание. Например, десятичная система имеет десять, так называемых, арабских цифр и основание «10»; двоичная система имеет две цифры и основание «2» и т.д.

В позиционных системах счисления основание системы равно количеству цифр (знаков в ее алфавите) и определяет, во сколько раз различаются значения одинаковых цифр, стоящих в соседних позициях.

Представление чисел в компьютере

Целые числа в компьютере хранятся в памяти в формате с фиксированной запятой.  При этом каждому разряду ячейки памяти всегда соответствует один и тот же определенный разряд числа. Запятая находится вне разрядной сетки, справа от младшего разряда Для хранения целых неотрицательных чисел отводится одна ячейка памяти (8битов). Например, 0

0         0         0         0         0         0         0         0

 Для хранения целых чисел со знаком отводится две ячейки памяти (16 бит) старший левый разряд отводится под знак. Для положительного числа знак обозначают 0, знак отрицательного числа обозначают «1».

Для представление чисел с дробной частью выделяют 4 или 8 ячеек памяти.

Кодирование текстовой информации

Для кодирования одного символа используется

1 байт = 8бит

информации.

Следовательно, можно закодировать N = 2I = 28 = 256 символов.

Такое количество символов вполне достаточно для представления текстовой информации, включая прописные и строчные буквы русского и латинского алфавита, цифры, знаки, графические символы и пр.

Кодирование заключается в установлении однозначного соответствия символа и уникального десятичного кода от 0 до 255 или двоичного кода от 00000000 до 11111111. Человек различает символы по начертаниям, а компьютер по их кодам.

Присвоение символу конкретного кода – это вопрос соглашения, которое фиксируется в кодовой таблице. Первые 33 кода (0-32) соответствуют операциям: ввод пробела, удаление символа и т.д. Коды с 33 по 127 являются интернациональными и соответствуют символам латинского алфавита, цифрам, знакам арифметических операций, знакам препинания. Коды со 128 по 255 являются национальными, т.е. в национальных кодировках одному и тому же коду соответствуют разные символы.

Каждая кодировка задается своей собственной таблицей. Для русских букв в настоящее время существует 5 таблиц (КОИ8, СР1251, СР866, Mac, ISO).

В настоящее время широкое распространение получил новый международный стандарт Unicode, который отводит на каждый символ не один байт, а два, поэтому с его помощью можно закодировать не 256, а

N = 216 = 65 536

различных символов. Эту кодировку поддерживают начиная с 1997 года Microsoft Windows&Office.

Кодирование графической информации

В процессе кодирования изображения производится его пространственная дискретизация. Изображение разбивается на отдельные маленькие фрагменты и каждому из них присваивается значение или код его цвета.

Качество двоичного кодирования изображения определяется разрешающей способностью экрана и глубиной цвета.

Глубина цвета задается количеством битов, используемых для кодировки цвета. Наиболее распространенные значения глубины цвета являются 8, 16, 24, 32 бита. Кроме этого можно задать еще уровень интенсивности цвета. Например, глубина 24 бит можно выбрать уровень  интенсивности от 0 до 255 (минимальная 00000000, максимальная 11111111).

Двоичное кодирование звуковой информации

Звук представляет собой волну с непрерывно меняющейся амплитудой и частотой. Чем больше амплитуда – тем он громче. Чем больше частота сигнала – тем выше тон. Для того чтобы компьютер мог обрабатывать звук, непрерывный звуковой сигнал должен быть превращен в последовательность электрических импульсов (двоичных нулей и единиц).

В компьютерной технике применяются три формы записи (кодирования) целых чисел со знаком:  прямой код,   обратный код,   дополнительный код.

Положительные числа в прямом, обратном и дополнительном кодах изображаются одинаково  -  двоичными кодами с цифрой 0 в знаковом разряде.

Отрицательные числа в прямом, обратном и дополнительном кодах имеют разное изображение.

1. Прямой код. В знаковый разряд помещается цифра 1, а в разряды цифровой части числа — двоичный код его абсолютной величины.

2. Обратный код. Получается инвертированием всех цифр двоичного кода абсолютной величины числа, включая разряд знака: нули заменяются единицами, а единицы — нулями. Например:

 

3. Дополнительный код. Получается образованием обратного кода с последующим прибавлением единицы к его младшему разряду.

 

Обычно отрицательные десятичные числа при вводе в машину автоматически преобразуются в обратный или дополнительный двоичный код и в таком виде хранятся, перемещаются и участвуют в операциях. При выводе таких чисел из машины происходит обратное преобразование в отрицательные десятичные числа.

 

7.                Машинная арифметика.

Для перевода целого десятичного числа  N  в систему счисления с основанием  q  необходимо  N  разделить с остатком ("нацело") на  q , записанное в той же десятичной системе. Затем неполное частное, полученное от такого деления, нужно снова разделить с остатком на  q , и т.д., пока последнее полученное неполное частное не станет равным нулю. Представлением числа N  в новой системе счисления будет последовательность остатков деления, изображенных одной q-ичной цифрой и записанных в порядке, обратном порядку их получения.

 

 

Рассмотрим основные арифметические операции: сложение, вычитание, умножение и деление. Правила выполнения этих операций в десятичной системе хорошо известны — это сложение, вычитание, умножение столбиком   и  деление углом. Эти правила применимы и ко всем другим позиционным системам счисления. Только таблицами сложения и умножения надо пользоваться особыми для каждой системы.

С л о ж е н и е

Таблицы сложения легко составить, используя Правило Счета. 

Сложение в двоичной системе          Сложение в восьмеричной системе

                 Сложение в шестнадцатиричной системе

 

При сложении цифры суммируются по разрядам, и если при этом возникает избыток, то он переносится влево.

    Пример 1. Сложим числа 15 и 6 в различных системах счисления.

 

    

Шестнадцатеричная: F16+616           Ответ: 15+6 = 2110 = 101012 = 258 = 1516. 

Проверка. Преобразуем полученные суммы к десятичному виду:

101012 = 24 + 22 + 20 = 16+4+1=21, 

258 = 2 . 81 + 5 . 80 = 16 + 5 = 21, 

1516 = 1 . 161 + 5 . 160 = 16+5 = 21.

  Пример 2. Сложим числа 15, 7 и 3.

Шестнадцатеричная: F16+716+316

 

Ответ: 5+7+3 = 2510 = 110012 = 318 = 1916. 

Проверка:

110012 = 24 + 23 + 20 = 16+8+1=25,

318 = 3 . 81 + 1 . 80 = 24 + 1 = 25, 

1916 = 1 . 161 + 9 . 160 = 16+9 = 25.

  Пример 3. Сложим числа 141,5 и 59,75.

 

 

Ответ: 141,5 + 59,75 = 201,2510 = 11001001,012 = 311,28 = C9,416

Проверка. Преобразуем полученные суммы к десятичному виду:

11001001,012 = 27 + 26 + 23 + 20 + 2-2 = 201,25

311,28 = 3 . 82 + 181 + 1 . 80 + 2 . 8-1 = 201,25

C9,416 = 12 . 161 + 9 . 160 + 4 . 16-1 = 201,25

В ы ч и т а н и е

Пример 4. Вычтем единицу из чисел 102, 108 и 1016

     

     

 

  Пример 5. Вычтем единицу из чисел 1002, 1008 и 10016.

     

     

 

  Пример 6. Вычтем число 59,75 из числа 201,25.

 

  

Ответ: 201,2510 - 59,7510 = 141,510 = 10001101,12 = 215,48 = 8D,816.

Проверка. Преобразуем полученные разности к десятичному виду:

10001101,12 = 27 + 23 + 22 + 20 + 2-1 = 141,5;

215,48 = 2 . 82 + 1 . 81 + 5 . 80 + 4 . 8-1 = 141,5;

8D,816 = 8 . 161 + D . 160 + 8 . 16-1 = 141,5.

У м н о ж е н и е

Выполняя умножение многозначных чисел в различных позиционных системах счисления, можно использовать обычный алгоритм перемножения чисел в столбик, но при этом результаты перемножения и сложения однозначных чисел необходимо заимствовать из соответствующих рассматриваемой системе таблиц умножения и сложения.

Умножение в двоичной системе      Умножение в восьмеричной системе

Ввиду чрезвычайной простоты таблицы умножения в двоичной системе, умножение сводится лишь к сдвигам множимого и сложениям.

    Пример 7. Перемножим числа 5 и 6.

 

Ответ: 5 . 6 = 3010 = 111102 = 368.

Проверка. Преобразуем полученные произведения к десятичному виду:

111102 = 24 + 23 + 22 + 21 = 30;

368 = 381 + 680 = 30.

 

  Пример 8. Перемножим числа 115 и 51.

 

Ответ: 115 . 51 = 586510 = 10110111010012 = 133518.

Проверка. Преобразуем полученные произведения к десятичному виду:

10110111010012 = 212 + 210 + 29 + 27 + 26 + 25 + 23 + 20 = 5865;

133518 = 1 . 84 + 3 . 83 + 3 . 82 + 5 . 81 + 1 . 80 = 5865.

Д е л е н и е

Деление в любой позиционной системе счисления производится по тем же правилам, как и деление углом в десятичной системе. В двоичной системе деление выполняется особенно просто, ведь очередная цифра частного может быть только нулем или единицей.

    Пример 9. Разделим число 30 на число 6.

 

Ответ: 30 : 6 = 510 = 1012 = 58.

 

Пример 10. Разделим число 5865 на число 115.

Восьмеричная: 133518 :1638

 

Ответ: 5865 : 115 = 5110 = 1100112 = 638.

Проверка. Преобразуем полученные частные к десятичному виду:

1100112 = 25 + 24 + 21 + 20 = 51; 638 = 6 . 81 + 3 . 80 = 51.

 

 Пример 11. Разделим число 35 на число 14.

Восьмеричная: 438 : 168

 

Ответ: 35 : 14 = 2,510 = 10,12 = 2,48.

Проверка. Преобразуем полученные частные к десятичному виду:

10,12 = 21 + 2 -1 = 2,5;

2,48 = 2 . 80 + 4 . 8-1 = 2,5.

 

 

 

ВРЕМЯ

"Кодексу Кода"

Символ всех внешних, космических информационных служб контроля.

 - Ближнего и дальних космических пространств.

Сайты Укр. Института Космической Информации. ********************** http://folt1986.jimdo.com http://bog1.jimdo.com http://bog2.jimdo.com http://folt2.jimdo.com/ http://folt3.jimdo.com http://folt333.jimdo.com http://666folt999.jimdo.com http://folt4.jimdo.com http://folt5.jimdo.com http://folt6.jimdo.com http://folt7.jimdo.com http://folt8.jimdo.com http://folt9.jimdo.com http://folt10.jimdo.com http://folt11.jimdo.com http://folt12.jimdo.com http://folt13.jimdo.com http://folt14.jimdo.com/ http://foltkieb.jimdo.com http://folt000.jimdo.com http://folt666999.jimdo.com
http://bog1.jimdo.com http://bog2.jimdo.com http://folt2.jimdo.com/ http://folt3.jimdo.com http://folt333.jimdo.com http://666folt999.jimdo.com http://folt4.jimdo.com http://folt5.jimdo.com http://folt6.jimdo.com http://folt7.jimdo.com http://folt8.jimdo.com http://folt9.jimdo.com http://folt10.jimdo.com http://folt11.jimdo.com http://folt12.jimdo.com http://folt13.jimdo.com http://folt14.jimdo.com/ http://foltkieb.jimdo.com http://folt000.jimdo.com http://folt666999.jimdo.com
Календари на любой год - Календарь.Юрец.Ру

Поделись методом кодирования с друзьями.