Информация. Единица измерения количества информации (стр. 1 из 3). В чем измеряется информация


3 Понятие «информация». Единицы измерения количества информации.

Слово «информация» происходит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление. Понятие «информация» является базовым в курсе информатики, невозможно дать его определение через другие, более «простые» понятия. В геометрии, например, невозможно выразить содержание базовых понятий «точка», «луч», «плоскость» через более простые понятия. Содержание основных, базовых понятий в любой науке должно быть пояснено на примерах или выявлено путем их сопоставления с содержанием других понятий.

В случае с понятием «информация» проблема его определения еще более сложная, так как оно является общенаучным понятием. Данное понятие используется в различных науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой науке понятие «информация» связано с различными системами понятий.

Информация в биологии. В биологии, которая изучает живую природу, понятие «информация» связывается с целесообразным поведением живых организмов. Такое поведение строится на основе получения и использования организмом информации об окружающей среде.

Понятие «информация» в биологии используется также в связи с исследованиями механизмов наследственности. Генетическая информация передается по наследству и хранится во всех клетках живых организмов. Гены представляют собой сложные молекулярные структуры, содержащие информацию о строении живых организмов. Последнее обстоятельство позволило проводить научные эксперименты по клонированию, то есть созданию точных копий организмов из одной клетки.

Информация в кибернетике. В кибернетике (науке об управлении) понятие «информация» связано с процессами управления в сложных системах (живых организмах или технических устройствах). Жизнедеятельность любого организма или нормальное функционирование технического устройства зависит от процессов управления, благодаря которым поддерживаются в необходимых пределах значения их параметров. Процессы управления включают в себя получение, хранение, преобразование и передачу информации.

Социально значимые свойства информации. Человек - существо социальное, для общения с другими людьми он должен обмениваться с ними информацией, причем обмен информацией всегда производится на определенном языке — русском, английском и так далее. Участники дискуссии должны владеть тем языком, на котором ведется общение, тогда информация будет понятной всем участникам обмена информацией. Информация должна быть полезной, тогда дискуссия приобретает практическую ценность. Бесполезная информация создает информационный шум, который затрудняет восприятие полезной информации. Примерами передачи и получения бесполезной информации могут служить некоторые конференции и чаты в Интернете. Широко известен термин «средства массовой информации» (газеты, радио, телевидение), которые доводят информацию до каждого члена общества. Такая информация должна быть достоверной и актуальной. Недостоверная информация вводит членов общества в заблуждение и может быть причиной возникновения социальных потрясений. Неактуальная информация бесполезна и поэтому никто, кроме историков, не читает прошлогодних газет.

Для того чтобы человек мог правильно ориентироваться в окружающем мире, информация должна быть полной и точной. Задача получения полной и точной информации стоит перед наукой. Овладение научными знаниями в процессе обучения позволяют человеку получить полную и точную информацию о природе, обществе и технике.

Единицы измерения количества информации.

Информация и знания. Человек получает информацию из окружающего мира с помощью органов чувств, анализирует ее и выявляет существенные закономерности с помощью мышления, хранит полученную информацию в памяти. Процесс систематического научного познания окружающего мира приводит к накоплению информации в форме знаний (фактов, научных теорий и так далее). Таким образом, с точки зрения процесса познания информация может рассматриваться как знания.

Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний. Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение содержит информацию.

Уменьшение неопределенности знаний. Подход к информации как мере уменьшения неопределенности знаний позволяет количественно измерять информацию, что чрезвычайно важно для информатики. Рассмотрим вопрос об определении количества информации более подробно на конкретных примерах.

Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной вероятностью произойдет одно из двух возможных событий — монета окажется в одном из двух положений: «орел» или «решка».

Можно говорить, что события равновероятны, если при возрастающем числе опытов количества выпадений «орла» и «решки» постепенно сближаются. Например, если мы бросим монету 10 раз, то «орел» может выпасть 7 раз, а решка — 3 раза, если бросим монету 100 раз, то «орел» может выпасть 60 раз, а «решка» — 40 раз, если бросим монету 1000 раз, то «орел» может выпасть 520 раз, а «решка» — 480 и так далее.

В итоге при очень большой серии опытов количества выпадений «орла» и «решки» практически сравняются. Перед броском существует неопределенность наших знаний (возможны два события), и, как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим (получаем зрительное сообщение), что монета в данный момент находится в определенном положении (например, «орел»). Это сообщение приводит к уменьшению неопределенности наших знаний в два раза, так как до броска мы имели два вероятных события, а после броска — только одно, то есть в два раза меньше.

В окружающей действительности достаточно часто встречаются ситуации, когда может произойти некоторое количество равновероятных событий. Так, при бросании равносторонней четырехгранной пирамиды существуют 4 равновероятных события, а при бросании шестигранного игрального кубика - 6 равновероятных событий.

Чем больше количество возможных событий, тем больше начальная неопределенность и соответственно тем большее количество информации будет содержать сообщение о результатах опыта.

Единицы измерения количества информации. Для количественного выражения любой величины необходимо определить единицу измерения. Так, для измерения длины в качестве единицы выбран метр, для измерения массы — килограмм и так далее. Аналогично, для определения количества информации необходимо ввести единицу измерения.

За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица названа «бит».

Если вернуться к опыту с бросанием монеты, то здесь неопределенность как раз уменьшается в два раза и, следовательно, полученное количество информации равно 1 биту.

Минимальной единицей измерения количества информации является бит, а следующей по величине единицей является байт, причем 1 байт = 23 бит = 8 бит.

В информатике система образования кратных единиц измерения количества информации несколько отличается от принятых в большинстве наук. Традиционные метрические системы единиц, например Международная система единиц СИ, в качестве множителей кратных единиц используют коэффициент 10n, где n = 3, 6, 9 и так далее, что соответствует десятичным приставкам Кило (103), Мега (106), Гига (109) и так далее.

Компьютер оперирует числами не в десятичной, а в двоичной системе счисления, поэтому в кратных единицах измерения количества информации используется коэффициент 2n.

Так, кратные байту единицы измерения количества информации вводятся следующим образом:

1 Кбайт = 210 байт = 1024 байт;

1 Мбайт = 210 Кбайт = 1024 Кбайт;

1 Гбайт = 210 Мбайт = 1024 Мбайт.

1 Тбайт = 210 Гбайт = 1024 Гбайт 

studfiles.net

Единицы измерения информации

Компьютерная техника использует двоичную систему счисления, выбор которой определяется реализацией аппаратуры компьютера (электронными схемами) с использованием двоичного элемента хранения данных -- триггера. Триггер имеет два возможных состояния (включено -- условно обозначается $1$, и выключено - $0$) и может хранить минимальный объем данных равный $1$ биту.

Рисунок 1.

Бит является элементарной единицей объема информации вне зависимости от ее содержания.

Количество всех возможных комбинаций $0$ и $1$ в $n$ триггерах равно $2n$.

Т.к. формально появление нуля или единицы в ячейке можно ожидать с одинаковой вероятностью, то, применив формулу Хартли:

можно сделать вывод, что в $n$ триггерах можно хранить $n$ бит информации.

Определение 1

Бит -- это количество информации, которое содержится в сообщении и вдвое уменьшает неопределенность знаний о чем-либо.

Т.к. бит -- минимальная единица измерения информации, объем информации в $1$ бит является слишком малой величиной, поэтому принято для измерения информации использовать более крупную единицу -- $1$ байт, который является основной единицей измерения информации.

Байтом называют последовательность из $8$ бит:

В компьютерной технике наименьшей адресуемой единицей принято считать $1$ байт.

В $1$ байте можно хранить, например, $1$ символ.

В настоящее время для хранения информации в компьютерной технике используют более крупные единицы объема информации:

Замечание 1

В Кбайтах, Мбайтах, Гбайтах и т.д. измеряется также потенциальная информационная ёмкость оперативной памяти и запоминающих устройств, предназначенных для хранения данных (магнитные, лазерные, жесткие диски, флэш-накопители и т.д.).

Если проследить какой стороной упадет подброшенная монета, мы получаем определенную информацию. Можно считать, что обе стороны монеты равноправны, т.е. с одинаковой вероятностью может выпасть как одна, так и другая сторона. В таком случае говорят, что событие несет информацию в $1$ бит.

Если вытащить из мешка вслепую один из двух шаров разного цвета, мы также получаем информацию о цвете шара в $1$ бит.

Пример 1

Вычислить, сколько бит информации будет нести сообщение о том, в какой из восьми коробок находится шар.

Решение:

Возможны $4$ равновероятные события, т.е. $n=8$.

Применим формулу Хартли:

\[8=2^i;\] \[2^3=2^i;\] \[i=3.\]

Ответ: сообщение будет нести $3$ бита информации.

Пример 2

Найти информационный объем одного символа русского языка.

Решение:

Количество букв русского языка равно $32$ (букву "ё" учитывать не будем, т.к. она редко используется). Таким образом, количество равновероятных событий $32$, т.е. $n=32$.

По формуле Хартли найдем информационный объем одного символа:

\[32=2^i;\] \[2^5=2^i;\] \[i=5.\]

Ответ: информационный объем одной буквы русского языка равен $5$ битам.

В случае, когда невозможно найти целую степень числа, то округлять необходимо производить в сторону увеличения.

Пример 3

Найти информационный объем одного символа английского алфавита.

Решение:

Количество букв английского алфавита равно $26$. Таким образом, количество равновероятных событий $26$, т.е. $n=26$.

По формуле Хартли найдем информационный объем одного символа:

\[26=2^i;\] \[2^4Ответ: информационный объем одной буквы английского алфавита равен $5$ битам.

Пример 4

На световом табло размещены лампочки, каждая из которых может принимать два значения («включено» или «выключено»). Найти наименьшее количество лампочек, которые нужно разместить на табло, чтобы с его помощью можно было передать $50$ различных сигналов?

Решение:

С помощью $n$ лампочек, каждая из которых может принимать одно из двух состояний, можно закодировать $2^n$ сигналов:

\[2^5Ответ: наименьшее количество лампочек, необходимых для передачи $50$ различных сигналов равно $6$.

Пример 5

На метеостанции ведется наблюдение за влажностью воздуха. Результаты каждого измерения являются целым числом от $0$ до $50$, которое записывается при помощи минимально возможного количества битов. Станция произвела $60$ измерений. Найти информационный объем результатов наблюдений.

Решение:

В данном случае количеством равновероятных событий является множество чисел от $0$ до $50$, т.е. $51$ значение:

\[2^5Одно измерение равно $6$ битам. Т.к. измерений было проведено $60$, то общий информационный объем равен: \[6\ \cdot 60=360\ бит.\]

Переведем в байты:

\[\frac{360\ бит}{8}=45\ байт.\]

Ответ: $360$ бит = $45$ байт.

Пример 6

Найти информационный объем (в битах) предложения:

Кто владеет информацией -- тот владеет миром!

Решение:

Каждый символ кодируется $1$ байтом. Подсчитаем количество символов, включая знаки препинания и пробелы. Получаем всего $44$ символа. Значит информационный объем данного предложения равен:

\[1\ байт\cdot 44\ символа=44\ байт\ \cdot 8=352\ бит.\]

Ответ: $352$ бит.

spravochnick.ru

Единицы измерения количества информации

Как можно измерить информацию?

Не для кого не секрет, что для измерения длины, температуры, массы, времени были изобретены приборы (инструменты) и соответствующие методы измерения. Например, длина карандаша может быть измерена при помощи линейки, температура воздуха — при помощи термометра, а масса тела — при помощи весов.

Конкретные значения этих величин выражаются в определенных единицах измерения: длина — в метрах, сантиметрах или миллиметрах; температура — в градусах, фаренгейтах, кельвинах; масса — в миллиграммах, граммах или килограммах, тоннах и так далее.

Единицы для измерения количества информации

Появляется вопрос: как же мы можем найти количество информации, которое содержится в любом слове или тексте, в изображении или звуковой последовательности, и в каких единицах она может измеряется? Поскольку в компьютере «инфа» любого вида представляется в виде последовательности двоичных цифр, то в качестве единицы для измерения количества информации используется бит (bit). Вспомним, что слово «bit» происходит от английского словосочетания «binary digit» — другими словами, — двоичная цифра.

В случае с текстовой информацией, каждому из 256 символов со ответствует единственный код, сформированный из 8 двоичных цифр. Является ли последовательность из 8 двоичных цифр самой короткой для такого кодирования? Ответ на этот вопрос положительный, так как, используя 7 двоичных цифр, мы можем представить (или закодировать) только 27 = 128 символов. Следовательно, количество информации, содержащейся в одном символе кода ASCII, составляет 8 битов.

Для измерения количества «инфы» кроме бита, применяется байт, который в 8 раз превосходит бит: 1 байт равняется 8 битам. Количество «инфы» , содержащееся в тексте из N символов, будет составлять: I = N (байтов) или I = 8*N (битов).

Например, количество информации в слове START составляет I = 5 байтов = 40 бит, то есть мы умножили количество символов, которое равно 5, умножаем на 4, вот и получаем 40 бит.

Газетная страница содержит около 10 тысяч символов. Количество информации в четырехстраничной газете I = 4*10000 = 40 000 байтов = 320 000 битов.

Итак, а теперь представляю Вашему вниманию такую таблицу, может кому пригодится…

1 kylobyte (1 килобайт = 1 kb) 1.000 байт (103)
1 Megabyte (1 Мегабайт = 1 MB) 1.000.000 байт (106)
1 Gigabyte (1 Гигабайт = 1 GB) 1.000.000.000 байт (109)
1 Terabyte (1 Терабайт = 1 TB) 1.000.000.000.000 байт (1012)
1 Petabyte (1 Петабайт = 1 PB) 1.000.000.000.000.000 байт (1015)
1 Exabyte (1 Эксобайт = 1 EB) 1.000.000.000.000.000.000 байт (1018)
1 Zettabyte (1 Зеттабайт = 1 ZB) 1.000.000.000.000.000.000.000 байт (1021)
1 Yottabyte (1 Ётабайт = 1 YB) 1.000.000.000.000.000.000.000.000 байт (1024)

Надеюсь теперь Вам понятно в чём и как измеряется количество информации, которую при случайном удалении можно восстановить программами для восстановления удаленной информации!

Оцените статью:

Источник: undelete-file.ru

Срочно рассказать друзьям:

Статья обновлена: 10.04.2017

Интересное на сайте:

Категория: Настройка компьютера

undelete-file.ru

В чем измеряется объём информации?

Бит (bit) — минимальный объем информации в двоичной системе счисления, равен 0 или 1. Это конечно хорошо, но как нам записать, что то более осмысленное? Выход находится в комбинировании нескольких бит. Если взять два бита, то вместе они уже имеют не два состояния (0 или 1), а четыре: 00, 01, 10, 11. Восемь последовательных бит дают в сумме 256 (28) возможных комбинаций нуля и единицы. Такое количество комбинаций достаточно, чтобы закодировать все буквы алфавита, цифры, знаки препинания и остальные служебные вещи. 2)Байт (byte) — восемь последовательных битов образуют 1 байт. Это минимальный объем информации, к которому можно обратится напрямую и с которым имеют дело компьютерные программы. В современной компьютерной технике 1 байт равен 8 битам, но есть исключения, поэтому его еще иногда называют «октет» для полной однозначности. Теперь вы знаете, сколько бит в байте. 3)Килобайт (КБ, Кбайт) — единица информации равная 1 024 байтам. Хотя правильнее как уже говорилось выше, называть ее кибибайтом. Чтобы перевести килобайты в байты, их нужно умножить на 1 024, а чтобы получились биты, умножить получившееся число еще на 8. В итоге, в 1 КБ содержит 8 192 бита.

Мегабайт (МБ, Мбайт) — единица информации равная 1 024 килобайта. Чтобы перевести байты в мегабайты их нужно разделить на 1 024 и еще раз на 1 024, то есть он равен 1 048 576 байтам. Обычно вес музыки, фотографий или коротких видеоклипов измеряется как раз в них.

Гигабайт (ГБ, Гбайт) — единица информации равная 1 024 мегабайта, 1 048 576 килобайт, 1 073 741 824 байтам или 8 589 934 592 бит. В основном это фильмы в хорошем качестве. Высчитывать все это вручную не очень удобно, поэтому ниже есть специальный конвертер для пересчета единиц измерения объема информации.

Терабайт (ТБ, Тбайт) — самая большая единица объема информации, с которой может столкнуться обычный пользователь компьютера на сегодняшний день и то не в виде отдельных файлов, а в виде объема жесткого диска. Равен 1 024 гигабайтам или 1 048 576 мегабайтам. С другой стороны, объем потребляемой информации постоянно растет и в будущем терабайт может стать такой же привычной величиной и повсеместное внедрение видео формата 4K вполне может этому поспособствовать.

otvet.mail.ru

Измерение информации

Измерение информации

ПОНЯТЬ

Верно ли, что истрепанная книжка, если в ней нет вырванных страниц, несет для Вас ровно столько же информации, сколько такая же новая?

Каменная скрижаль весом в три тонны несет для археологов столько же информации, сколько ее хороший фотоснимок в археологическом журнале. Не так ли?

Когда московская радиостудия передает последние известия, то одну и ту же информацию получает и подмосковный житель и житель Новосибирска. Но поток  энергии радиоволн в Новосибирске намного меньше, чем в Москве.

Следовательно, мощность сигнала, также как и  размер и вес носителя, не могут служить оценкой количества информации, переносимой сигналом.  Как же оценить это количество?

Из курса физики вы знаете, что прежде, чем измерять значение какой-либо физической величины, надо ввести единицу измерения. У информации тоже есть такая единица - бит, но смысл ее различен при разных подходах к определению понятия “информация”.

I ПОДХОД. Неизмеряемость информации в быту (информация как новизна)

ПРИМЕР

Вы получили какое - то сообщение, например, прочитали статью в любимом журнале. В этом сообщении содержится какое-то количество информации. Как оценить, сколько информации Вы получили? Другими словами, как измерить информацию? Можно ли сказать, что чем больше статья, тем больше информации она содержит?

Разные люди, получившие одно и то же сообщение, по-разному оценивают его информационную ёмкость, то есть количество информации, содержащееся в нем. Это происходит оттого, что  знания людей о событиях, явлениях, о которых идет речь в сообщении, до получения сообщения были различными. Поэтому те, кто знал об этом мало, сочтут, что получили много информации, те же, кто знал больше, могут сказать, что информации не получили вовсе. Количество информации в сообщении, таким образом, зависит от того, насколько ново это сообщение для получателя.

В таком случае, количество информации в одном и том же сообщении должно определяться отдельно для каждого получателя, то есть иметь субъективный характер. Но субъективные вещи не поддаются сравнению и анализу, для их измерения трудно выбрать одну общую для всех единицу измерения.

Таким образом, с точки зрения информации как новизны, мы не можем однозначно и объективно оценить количество информации, содержащейся даже в простом сообщении. Что же тогда говорить об измерении количества информации, содержащейся в научном открытии, новом музыкальном стиле, новой теории общественного развития.

Поэтому, когда информация рассматривается как новизна сообщения для получателя, не ставится вопрос об измерении количества информации.

II ПОДХОД - объемный. Измерение информации в технике (информация как сообщения в форме знаков или сигналов, хранимые, передаваемые и обрабатываемые с помощью технических устройств).

В технике, где информацией считается любая хранящаяся, обрабатываемая или передаваемая последовательность знаков, сигналов, часто используют простой способ определения количества информации, который может быть назван объемным. Он основан на подсчете числа символов в сообщении, то есть связан только с длиной сообщения и не учитывает его содержания.

Длина сообщения зависит от числа знаков, употребляемых для записи сообщения. Например, слово “мир” в русском алфавите записывается тремя  знаками, в английском - пятью (peace), а в КОИ -8 - двадцатью четырьмя битами (111011011110100111110010). 

ПРИМЕР

Исходное сообщение

Количество информации

на языке

в машинном представлении (КОИ - 8)

в символах

в битах

в байтах

рим

11110010 11101001 11101101

3

24

3

мир

11101101 11101001 11110010

3

24

3

миру мир!

11101101 11101001 11110010 11110101 00100000 11101101 1110101 11110010 00100001

9

72

9

(**  */

00101000 00101010 00101010 00100000 00101010 00101111

6

48

6

В вычислительной технике применяются две стандартные единицы измерения: бит (англ. binary digit - двоичная цифра) и байт (byte).

Конечно, будет правильно, если Вы скажете: “В слове “Рим” содержится 24 бита информации, а в сообщении  “Миру мир!” - 72 бита”. Однако, прежде, чем измерить информацию в битах, Вы определяете количество символов в этом сообщении. Нам привычней работать с символами, машине - с кодами. Каждый символ в настоящее время в вычислительной технике кодируется 8-битным или 16-битным кодом. Поэтому, для удобства была введена более “крупная” единица информации в технике (преимущественно в вычислительной) - байт. Теперь Вам легче подсчитать количество информации в техническом сообщении - оно совпадает с количеством символов в нем.

Поскольку компьютер предназначен для обработки больших объемов информации, то используют производные единицы - килобайт (Кб), мегабайт (Мб), гигабайт (Гб).

Обычно приставка “кило” означает тысячу, а приставка “мега” - миллион, но в вычислительной технике все “привязывается” к принятой двоичной системе кодирования.

В силу этого один килобайт равен не тысяче байтов, а 210 = 1024 байтов.

Аналогично, 1 Мб = 210 Кб = 1024 Кб = 220 байт = 1 048 576 байт.

                         1 Гб = 210 Мб = 220 Кб = 230 байт = 1 073 741 824 байт.

ПРИМЕР

В 100 Мб можно “уместить”:

страниц текста

50 000 или 150 романов

цветных слайдов высочайшего качества

150

аудиозапись речи видного политического деятеля

1.5 часа

музыкальный фрагмент качества CD -стерео

10 минут

фильм высокого качества записи

15 секунд

протоколы операций с банковским счетом

за 1000 лет

 

III ПОДХОД - вероятностный. Измерение информации в теории информации (информация как  снятая неопределенность)

Получение информации (ее увеличение) одновременно означает увеличение знания, что, в свою очередь, означает уменьшение незнания или информационной неопределенности.

За единицу количества информации принимают выбор одного из двух равновероятных сообщений (“да” или “нет”, “1” или “0”). Она также названа бит. Вопрос ценности этой информации для получателя - это уже из иной области.

ПРИМЕР

Книга лежит на одной из двух полок - верхней или нижней. Сообщение о том, что книга лежит на верхней полке, уменьшает неопределенность ровно вдвое и несет 1 бит информации.

Сообщение о том, как упала монета после броска - “орлом” или “решкой”, несет один бит информации.

В соревновании участвуют 4 команды. Сообщение о том, что третья команда набрала большее количество очков, уменьшает первоначальную неопределенность ровно в четыре раза (дважды по два) и несет два бита информации.

Очень приближенно можно считать, что количество информации в сообщении о каком-то событии совпадает с количеством вопросов, которые необходимо задать и ответом на которые могут быть лишь “да” или “нет”, чтобы получить ту же информацию. Причем событие, о котором идет речь, должно иметь равновероятные исходы.

 

ПРИМЕР

Сколько вопросов надо задать, чтобы отгадать одну из 32 карт (колода без шестерок), если ответами могут быть лишь “да” или “нет”?

Оказывается достаточно всего лишь 5 вопросов, но задавать их надо так, чтобы после каждого ответа можно было “отбрасывать” из рассмотрения ровно половину карт, среди которых задуманной не может быть. Такими , например, являются вопросы о цвете масти карты (“Задуманная карта красной масти?”), о типе карты (“Задуманная карта - “картинка”?”) и т.п.

То есть сообщение о том, какая карта из 32 задумана несет 5 бит информации.

Во всех приведенных примерах число равновероятных исходов события, о котором идет речь в сообщении, было кратным степени числа 2 (4 = 22, 32 = 25). Поэтому сообщение “несло” количество бит информации всегда было целым числом. Но в реальной практике могут встречаться самые разные ситуации.

ПРИМЕР

Сообщение о том, что на светофоре красный сигнал, несет в себе информации больше, чем бит. Попробуйте объяснить почему.

ПРИМЕР

Известно, что Иванов живет на улице Весенней. Сообщение о том, что номер его дома есть число четное, уменьшило неопределенность. Получив такую информацию, мы стали знать больше, но информационная неопределенность осталась, хотя и уменьшилась.

Почему в этом случае мы не можем сказать, что первоначальная неопределенность уменьшилась вдвое (иными словами, что мы получили 1 бит информации)? Если Вы не знаете ответа на этот вопрос, представьте себе улицу, на четной стороне которой, например, четыре дома, а на нечетной - двадцать. Такие улицы не такая уж большая редкость.

Последние примеры показывают, что данное выше определение количества информации слишком упрощено. Уточним его. Но прежде разберем еще один пример.

ПРИМЕР

Пылкий влюбленный, находясь в разлуке с объектом своей любви, посылает телеграмму: “Любишь?”. В ответ приходит не менее лаконичная телеграмма: “Да!”. Сколько информации несет ответная телеграмма? Альтернатив здесь две- либо Да, либо Нет. Их можно обозначить символами двоичного кода 1 и 0. Таким образом, ответную телеграмму можно было бы закодировать всего одним двоичным символом.

Можно ли сказать, что ответная телеграмма несет одну единицу информации?

Если влюбленный уверен в положительном ответе, то ответ “да” почти не даст ему никакой новой информации. То же самое относится и к безнадежно влюбленному, уже привыкшему получать отказы. Ответ “нет” также принесет ему очень мало информации. Но внезапный отказ уверенному влюбленному (неожиданное огорчение) или ответ “да” безнадежному влюбленному (нечаянная радость) несет сравнительно много информации, настолько много, что радикально изменяется все дальнейшее поведение влюбленного, а, может быть, его судьба!

Таким образом, с точки зрения на информацию как на снятую неопределенность количество информации зависит от вероятности получения данного сообщения. Причем, чем больше вероятность события, тем меньше количество информации в сообщении о таком событии.

Иными словами, количество информации в сообщении о каком-то событии зависит от вероятности свершения данного события.

Научный подход к оценке сообщений был предложен еще в 1928 году Р.Хартли. Расчетная формула имеет вид:

I = log2 N   или   2I = N,

где       N - количество равновероятных событий (число возможных выборов),

            I - количество информации.

Если N = 2 (выбор из двух возможностей), то I = 1 бит.

Бит выбран в качестве единицы количества информации потому, что принято считать, что двумя двоичными словами исходной длины k или словом длины 2k можно передать в 2 раза больше информации, чем одним исходным словом. Число возможных равновероятных выборов при этом увеличивается в 2k раз, тогда как I удваивается.

Иногда формула Хартли записывается иначе. Так как наступление каждого из N возможных событий имеет одинаковую вероятность  p = 1 / N, то N = 1 / p и формула имеет вид

I = log2 (1/p) = - log2 p

Познакомимся с более общим случаем вычисления количества информации в сообщении об одном из N, но уже неравновероятных событий. Этот подход был предложен К.Шенноном в 1948 году.

Пусть имеется строка текста, содержащая тысячу букв. Буква “о” в тексте встречается примерно 90 раз, буква ”р” ~ 40 раз, буква “ф” ~ 2 раза, буква “а” ~ 200 раз. Поделив 200 на 1000, мы получим величину 0.2, которая представляет собой среднюю частоту, с которой в рассматриваемом тексте встречается буква “а”. Вероятность появления буквы “а” в тексте (pa)можем считать приблизительно равной 0.2. Аналогично, pр = 0.04, pф = 0.002, ро = 0.09.

Далее поступаем согласно К.Шеннону. Берем двоичный логарифм от величины 0.2 и называем то, что получилось количеством информации, которую переносит одна-единственная бква “а” в рассматриваемом тексте. Точно такую же операцию проделаем для каждой буквы. Тогда количество собственной информации, переносимой одной буквой равно

hi = log2 1/pi = - log2 pi,

где pi - вероятность появления в сообщении i-го символа алфавита.

Удобнее в качестве меры количества информации пользоваться не значением hi , а средним значением количества информации, приходящейся на один символ алфавита

H = S pi hi = - S pi log2 pi

Значение Н достигает максимума при равновероятных событиях, то есть при равенстве всех pi

pi = 1 / N.

В этом случае формула Шеннона превращается в формулу Хартли.

Измерение информации

 

ЗНАТЬ

В технике (теория кодирования и передачи сообщений) под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.

Бит - двоичный знак двоичного алфавита {0, 1}.

Бит- минимальная единица измерения информации.

Байт - единица количества информации в системе СИ.

Байт - это восьмиразрядный двоичный код, с помощью которого можно представить один символ.

Единицы измерения информации в вычислительной технике

1 бит

 

 

1 байт

= 8 бит

 

1 Кбайт (килобайт)

= 210 байт = 1024 байт

~ 1 тысяча байт

1 Мбайт (мегабайт)

= 210 Кбайт = 220 байт

~ 1 миллион байт

1 Гбайт (гигабайт)

= 210 Мбайт = 230 байт

~ 1 миллиард байт

Информационный объем сообщения (информационная емкость сообщения) - количество информации в сообщении, измеренное в битах, байтах или производных единицах (Кбайтах, Мбайтах и т.д.).

В теории информации количеством информации называют числовую характеристику сигнала, которая не зависит от его формы и содержания и характеризует неопределенность, которая исчезает после получения сообщения в виде данного сигнала. В этом случае количество информации зависит от вероятности получения сообщения о том или ином событии.

Для абсолютно достоверного события (событие обязательно произойдет, поэтому его вероятность  равна 1) количество информации в сообщении о нем равно 0. Чем невероятнее событие, тем большее  количество информации несет сообщение о нем. Лишь при равновероятных ответах ответ “да” или “нет” несет один бит информации.

Количество информации при вероятностном подходе можно вычислить, пользуясь следующими формулами:

1). Формула Хартли.

I = log2 N   или   2I = N,

где       N - количество равновероятных событий (число возможных выборов),

            I - количество информации.

2). Модифицированная формула Хартли.

и формула имеет вид

I = log2 (1/p) = - log2 p

где       p - вероятность наступления каждого из N возможных равновероятных событий.

3). Формула Шеннона.

H = S pi hi = - S pi log2 pi

где       pi - вероятность появления в сообщении i-го символа алфавита;

            hi = log2 1/pi = - log2 pi -  количество собственной информации, переносимой одним символом;

            Н - среднее значением количества информации.

Измерение информации

 

УМЕТЬ

Технический аспект измерения информации

ЗАДАНИЕ 1

Измерьте информационный объем сообщения “Ура!  Закончились каникулы!!” (с точки зрения технического подхода, то есть не учитывая смысл сообщения). Выразите этот объем в битах, байтах, килобайтах.

ЗАДАНИЕ 2

Измерьте примерную информационную емкость 1 страницы учебника, всего учебника.

Подсказка. Подсчитайте, сколько символов в одной строке и сколько строк на странице, и перемножьте полученные числа.

Сколько таких учебников может поместиться на дискете емкостью 360  Кбайт, 1.44 Мбайт, на винчестере в 420 Мбайт, в 6,4Гбайт ?

Информация как снятая неопределенность

ЗАДАНИЕ 3

Сколько следует задать вопросов и как их следует формулировать, чтобы оценить сообщение о том, что вагон стоит на одном из 16 путей?

ОТВЕТ. 4 бита.

ЗАДАНИЕ 4

Шарик находится в одном из 64 ящичков. Сколько единиц информации будет содержать сообщение о том, где находится шарик?

ОТВЕТ. 6 бит.

ЗАДАНИЕ 5

Определите, сколько бит информации несет сообщение о том, что на светофоре горит зеленый свет.

ОТВЕТ. log23 = 1,585 (бит)

ЗАДАНИЕ 6

Вы бросаете два кубика с нанесенными на гранях цифрами от 1 до 6.

Определите, сколько бит информации несет сообщение, что на одном кубике выпала тройка, а на другом - пятерка.

ОТВЕТ. log26 + log26 = 2,585 + 2,585 = 5,17 (бит)

ЗАДАНИЕ 7

Предположим, вероятность того, что вы получите за контрольную работу оценку “5”, равна 0,6; вероятность получения “4” равна 0,3; вероятность получения “3” - 0,1. Определите, сколько бит информации будет нести сообщение о результатах контрольной работы в каждом из возможных случаев.

ОТВЕТ

“5”:  I = -log2 0,6 = 0,737 (бит)

“4”:  I = -log2 0,3 = 1,737 (бит)

“3”:  I = -log2 0,1 = 3,322 (бит)

ЗАДАНИЕ 8

Проанализируйте и попробуйте дополнить таблицу.

Таблица"Различные подходы к определению и измерению информации"

 

Подход к определению

Подход к измерению

в быту

разнообразные сведения, сообщения, их новизна

новизна не измеряется

в технике

сообщения, передаваемые в форме знаков и сигналов

информационная емкость = количеству символов

теория информации

снятая неопределенность

 

количество информации зависит от вероятности получения  сообщения

теория принятия решений

увеличение вероятности достижения цели

попробуйте

 

кибернетика(теория управления)

часть знания, используемая в управлении

придумать

теория отражения

результат отражения, отраженное разнообразие

сами

 

 Измерение информации

 

РАСШИРЬ СВОЙ КРУГОЗОР

На памятнике немецкому ученому Л. Больцману высечена формула, выведенная в 1877 году и связывающая вероятность состояния физической системы и величину энтропии этой системы.

Энтропия (греч. en - в, внутрь  + trope - превращение, буквально смысловой перевод: то, что внутри, неопределенно) - физическая величина, характеризующая тепловое состояние тела или системы, мера внутренней неупорядоченности системы.

Так вот, формула для энтропии Больцмана совпадает с формулой, предложенной Шенноном для среднего количества информации, приходящейся на один символ в сообщении. Совпадение это произвело столь сильное впечатление, что Шеннон назвал количество информации энтропией. С тех пор слово “энтропия” стало чуть ли не синонимом слова “информации”.

Чем больше энтропия системы, тем больше степень ее неопределенности. Поступающее сообщение полностью или частично снимает эту неопределенность. Следовательно, количество информации можно измерять тем, насколько понизилась энтропия системы после поступления сообщения.

Таким образом, за меру количества информации принимается та же энтропия, но с обратным знаком.

Уменьшая неопределенность, мы получаем информацию, в этом весь смысл научного познания.

ЗАМЕЧАНИЕ. Это утверждение верно, если система замкнута. Может показаться, что легко опровергнуть такое утверждение, но практически всегда такое опровержение будет связано с незамкнутостью, открытостью системы.

ПРИМЕР. Вы решаете математическую задачку и получаете ответ. Затем вам учитель говорит: “Усложним условия задачи”. С одной стороны, вы получили информацию, но эта информация увеличивает степень неопределенности. В чем же дело? Дело в том, что фраза учителя делает систему задачи открытой, что позволяет извне добавить в нее неопределенность, подобно тому, как мы извне нагреваем чайник, повышая энтропию содержащейся в нем воды.

Источник информации:

http://www.ioso.ru/distant/do/curse/informat/inf3.htm

Задачи о количестве информации >>

marklv.narod.ru

Информация. Единица измерения количества информации

Министерство образования и науки Российской Федерации

Федеральное агентство по образованию

Министерство образования Свердловской области

Негосударственное образовательное учреждение

Среднего профессионального образования

Уральский экономический колледж

Ревдинский филиал Контрольная работа

предмет: Информатика - математика

Выполнил:

Козырин А.Л.,15/10 гр,

3 курс

Руководитель:Ревда, 2011

Билет №1. Информация. Единица измерения количества информации.

Информация – это сведения об окружающем мире (объекте, процессе, явлении, событии), которые являются объектом преобразования (включая хранение, передачу и т.д.) и используются для выработки поведения, для принятия решения, для управления или для обучения.

Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений.

При всем многообразии подходов к определению понятия информации, с позиции измерения информации выделяют два из них: определение К. Шеннона, применяемое в математической теории информации (содержательный подход), и определение А. Н. Колмогорова, применяемое в отраслях информатики, связанных с использованием компьютеров (алфавитный подход).

  1. Содержательный подход. Согласно Шеннону, информативность сообщения характеризуется содержащейся в нем полезной информацией — той частью сообщения, которая снимает полностью или уменьшает неопределенность какой-либо ситуации. По Шеннону, информация — уменьшение неопределенности наших знаний.
Содержательный подход часто называют субъективным, так как разные люди (субъекты) информацию об одном и том же предмете оценивают по-разному.

Но если число исходов не зависит от суждений людей (случай бросания кубика или монеты), то информация о наступлении одного из возможных исходов является объективной.

Если сообщение уменьшило неопределенность знаний ровно в два раза, то говорят, что сообщение несет 1 бит информации.

1 бит — объем информации такого сообщения, которое уменьшает неопределенность знания в два раза.

  1. Алфавитный подход. Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита.
Алфавит — упорядоченный набор символов, используемый для кодирования сообщений на некотором языке.

Мощность алфавита — количество символов алфавита.Двоичный алфавит содержит 2 символа, его мощность равна двум. Сообщения, записанные с помощью символов ASCII, используют алфавит из 256 символов. Сообщения, записанные по системе UNICODE, используют алфавит из 65 536 символов.

С позиций computer science носителями информации являются любые последовательности символов, которые хранятся, передаются и обрабатываются с помощью компьютера. Согласно Колмогорову, информативность последовательности символов не зависит от содержания сообщения, алфавитный подход является объективным, т.е. он не зависит от субъекта, воспринимающего сообщение.

Единицы измерения информации.

Как уже было сказано, основная единица измерения информации — бит. 8 бит составляют 1 байт.

Наряду с байтами для измерения количества информации используются более крупные единицы:

1 Кбайт (один килобайт) = 210 байт = 1024 байта;

1 Мбайт (один мегабайт) = 210 Кбайт = 1024 Кбайта;

1 Гбайт (один гигабайт) = 210 Мбайт = 1024 Мбайта.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тб) = 1024 Гбайта = 240 байта,

1 Петабайт (Пб) = 1024 Тбайта = 250 байта.Билет №6. Устройство памяти компьютера. Носители информации (гибкий диск, жесткий диск, диск CD-ROM/R/RW, DVD и т.д.

Основной функцией внешней памяти компьютера является способность долговременно хранить большой объем информации (программы, документы, аудио-и видеоклипы и т. д.). Устройство, которое обеспечивает запись/считывание информации, называется накопителем или дисководом, а хранится информация на носителях (например, дискетах).

В накопителях на гибких магнитных дисках (НГМД или дискетах) и накопителях на жестких магнитных дисках (НЖМД или винчестерах), в основу записи, хранения и считывания информации положен магнитный принцип, а в лазерных дисководах — оптический принцип.

  1. Гибкие магнитные диски помещаются в пластмассовый корпус. Такой носитель информации называется дискетой. Дискета вставляется в дисковод, вращающий диск с постоянной угловой скоростью. Магнитная головка дисковода устанавливается на определенную концентрическую дорожку диска, на которую и записывается (или считывается) информация.
Информационная ёмкость дискеты невелика и составляет всего 1.44 Мбайт. Скорость записи и считывания информации также мала (около 50 Кбайт/с) из-за медленного вращения диска (360 об./мин).

В целях сохранения информации гибкие магнитные диски следует предохранять от воздействия сильных магнитных полей и нагревания, так как это может привести к размагничиванию носителя и потере информации.

  1. Жесткий диск (HDD — Hard Disk Drive) относится к несменным дисковым магнитным накопителям. Первый жесткий диск был разработан фирмой IBM в 1973 г. и имел емкость 16 Кбайт.
 Жесткие магнитные диски представляют собой несколько десятков дисков, размещенных на одной оси, заключенных в металлический корпус и вращающихся с высокой угловой скоростью. За счет множества дорожек на каждой стороне дисков и большого количества дисков информационная емкость жестких дисков может в десятки тысяч раз превышать информационную емкость дискет и достигать сотен Гбайт. Скорость записи и считывания информации с жестких дисков достаточно велика (около 133 Мбайт/с) за счет быстрого вращения дисков (7200 об./мин). Часто жесткий диск называют винчестер.

В жестких дисках используются достаточно хрупкие и миниатюрные элементы. Чтобы сохранить информацию и работоспособность жестких дисков, необходимо оберегать их от ударов и резких изменений пространственной ориентации в процессе работы.

  1. Лазерные дисководы и диски.  За последние несколько лет компьютерные устройства для чтения компакт-дисков (CD), называемые CD-ROM, стали практически необходимой частью любого компьютера. Это произошло потому, что разнообразные программные продукты стали занимать значительное количество места, и поставка их на дискетах оказалась чрезмерно дорогостоящей и ненадёжной. Поэтому их стали поставлять на CD (таких же, как и обычные музыкальные).
Лазерные дисководы используют оптический принцип чтения информации. На лазерных дисках CD (CD — Compact Disk, компакт диск) и DVD (DVD — Digital Video Disk, цифровой видеодиск) информация записана на одну спиралевидную дорожку (как на грампластинке), содержащую чередующиеся участки с различной отражающей способностью. Лазерный луч падает на поверхность вращающегося диска, а интенсивность отраженного луча зависит от отражающей способности участка дорожки и приобретает значения 0 или 1. Для сохранности информации лазерные диски надо предохранять от механических повреждений (царапин), а также от загрязнения.

На лазерных дисках хранится информация, которая была записана на них в процессе изготовления.  Запись на них новой информации невозможна. Производятся такие диски путем штамповки. Существуют CD-R и DVD-R диски информация на которые может быть записана только один раз. На дисках CD-RW и DVD-RW информация может быть записана/перезаписана многократно. Диски разных видов можно отличить не только по маркировки, но и по цвету отражающей поверхности.

Запись на CD и DVD при помощи обычных CD-ROM и DVD-ROM невозможна. Для этого необходимы устройства CD-RW и DVD-RW с помощью которых возможны чтение-однократная запись и чтение-запись-перезапись. Эти устройства обладают достаточно мощным лазером, позволяющем менять отражающую способность участков поверхности в процессе записи диска.

Информационная ёмкость CD-ROM достигает 700 Мбайт, а скорость считывания информации (до 7.8 Мбайт/с) зависит от скорости вращения диска. DVD-диски имеют гораздо большую информационную ёмкость (однослойный односторонний диск - 4.7 Гбайт) по сравнению с CD-дисками, т.к. используются лазеры с меньшей длинной волны, что позволяет размещать оптические дорожки более плотно. Так же существуют двухслойные DVD-диски и двухсторонние DVD-диски. В настоящее время скорости считывания 16-скоростных DVD-дисководов достигает 21 Мбайт/с.

4. Устройства на основе flash-памяти. Flash-память - это энергонезависимый тип памяти, позволяющий записывать и хранить данные в микросхемах. Устройства на основе flash-памяти не имеют в своём составе движущихся частей, что обеспечивает высокую сохранность данных при их использовании в мобильных устройствах.

Flash-память представляет собой микросхему, помещенную в миниатюрный корпус. Для записи или считывания информации накопители подключаются к компьютеру через USB-порт. Информационная емкость карт памяти достигает 1024 Мбайт. Билет №5. Функциональная схема компьютера (основные устройства, их функции и взаимосвязь).

По своему назначению компьютер - это универсальный прибор для работы с информацией. По принципам своего устройства компьютер - это модель человека, работающего с информацией.

Персональный компьютер (ПК) — это компьютер, предназначенный для обслуживания одного рабочего места. По своим характеристикам он может отличаться от больших ЭВМ, но функционально способен выполнять аналогичные операции. По способу эксплуатации различают настольные (desktop), портативные (laptop и notebook) и карманные (palmtop) модели ПК.

Аппаратное обеспечение. Поскольку компьютер предоставляет все три класса информационных методов для работы с данными (аппаратные, программные и естественные), принято говорить о компьютерной системе как о состоящей из аппаратных и программных средств, работающих совместно. Узлы, составляющие аппаратные средства компьютера, называют аппаратным обеспечением. Они выполняют всю физическую работу с данными: регистрацию, хранение, транспортировку и преобразование как по форме, так и по содержанию, а также представляют их в виде, удобном для взаимодействия с естественными информационными методами человека.

Совокупность аппаратных средств компьютера называют его аппаратной конфигурацией.

Программное обеспечение. Программы могут находиться в двух состояниях: активном и пассивном. В пассивном состоянии программа не работает и выглядит как данные, содержательная часть которых - сведения. В этом состоянии содержимое программы можно «читать» с помощью других программ, как читают книги, и изменять. Из него можно узнать назначение программы и принцип ее работы. В пассивном состоянии программы создаются, редактируются, хранятся и транспортируются. Процесс создания и редактирования программ называется программированием.

Когда программа находится в активном состоянии, содержательная часть ее данных рассматривается как команды, согласно которым работают аппаратные средства компьютера. Чтобы изменить порядок их работы, достаточно прервать исполнение одной программы и начать исполнение другой, содержащей иной набор команд.

Совокупность программ, хранящихся на компьютере, образует его программное обеспечение. Совокупность программ, подготовленных к работе, называют установленным программным обеспечением. Совокупность программ, работающих в тот или иной момент времени, называют программной конфигурацией.

Устройство компьютера. Любой компьютер (даже самый большой) состоит из четырех частей:

 Конструктивно эти части могут быть объединены в одном корпусе размером с книгу или же каждая часть может состоять из нескольких достаточно громоздких устройств

Базовая аппаратная конфигурация ПК. Базовой аппаратной конфигурацией персонального компьютера называют минимальный комплект аппаратных средств, достаточный для начала работы с компьютером. С течением времени понятие базовой конфигурации постепенно меняется. 

Чаще всего персональный компьютер состоит из следующих устройств:

1. Системный блок — основной блок компьютерной системы. В нем располагаются устройства, считающиеся внутренними. Устройства, подключаемые к системному блоку снаружи, считаются внешними. Для внешних устройств используют также термин периферийное оборудование.

2. Монитор — устройство для визуального воспроизведения символьной и графической информации. Служит в качестве устройства вывода. Для настольных ПК в настоящее время наиболее распространены мониторы, основанные на электронно-лучевых трубках. Они отдаленно напоминают бытовые телевизоры.

3. Клавиатура — клавишное устройство, предназначенное для управления работой компьютера и ввода в него информации. Информация вводится в виде алфавитно-цифровых символьных данных.

4. Мышь — устройство «графического» управления.

Дополнительно могут подключатся другие устройства ввода и вывода информации, например звуковые колонки, принтер, сканер и др.

Внутренние устройства персонального компьютера. Внутренними считаются устройства, располагающиеся в системном блоке. Доступ к некоторым из них имеется на лицевой панели, что удобно для быстрой смены информационных носителей, например гибких магнитных дисков. Разъемы некоторых устройств выведены на заднюю стенку — они служат для подключения периферийного оборудования. К некоторым устройствам системного блока доступ не предусмотрен — для обычной работы он не требуется.

Процессор. Микропроцессор — основная микросхема персонального компьютера. Все вычисления выполняются в ней. Основная характеристика процессора — тактовая частота (измеряется в мегагерцах, МГц). Чем выше тактовая частота, тем выше производительность процессора. Так, например, при тактовой частоте 500 МГц процессор может за одну секунду изменить свое состояние 500 миллионов раз. Для большинства операций одного такта недостаточно, поэтому количество операций, которые процессор может выполнить в секунду, зависит не только от тактовой частоты, но и от сложности операций.

Единственное устройство, о существовании которого процессор «знает от рождения», — оперативная память — с нею он работает совместно. Оттуда поступают данные и команды. Данные копируются в ячейки процессора (они называются регистрами), а потом преобразуются в соответствии с содержанием команд. Более полную картину того, как процессор взаимодействует с оперативной памятью, вы получите в главах, посвященных основам программирования.

Оперативная память. Оперативную память можно представить как обширный массив ячеек, в которых хранятся числовые данные и команды в то время, когда компьютер включен. Объем оперативной памяти измеряется в миллионах байтов — мегабайтах (Мбайт).

Процессор может обратиться к любой ячейке оперативной памяти (байту), поскольку она имеет неповторимый числовой адрес. Обратиться к индивидуальному биту оперативной памяти процессор не может, так как у бита нет адреса. В то же время, процессор может изменить состояние любого бита, но для этого требуется несколько действий.

Материнская плата. Материнская плата — это самая большая плата персонального компьютера. На ней располагаются магистрали, связывающие процессор с оперативной памятью, — так называемые шины. Различают шину данных, по которой процессор копирует данные из ячеек памяти, адресную шину, по которой он подключается к конкретным ячейкам памяти, и шину команд, по которой в процессор поступают команды из программ. К шинам материнской платы подключаются также все прочие внутренние устройства компьютера. Управляет работой материнской платы микропроцессорный набор микросхем — так называемый чипсет.

Видеоадаптер. Видеоадаптер — внутреннее устройство, устанавливаемое в один из разъемов материнской платы. В первых персональных компьютерах видеоадаптеров не было. Вместо них в оперативной памяти отводилась небольшая область для хранения видеоданных. Специальная микросхема (видеоконтроллер) считывала данные из ячеек видеопамяти и в соответствии с ними управляла монитором.

По мере улучшения графических возможностей компьютеров область видеопамяти отделили от основной оперативной памяти и вместе с видеоконтроллером выделили в отдельный прибор, который назвали видеоадаптером. Современные видеоадаптеры имеют собственный вычислительный процессор (видеопроцессор), который снизил нагрузку на основной процессор при построении сложных изображений. Особенно большую роль видеопроцессор играет при построении на плоском экране трехмерных изображений. В ходе таких операций ему приходится выполнять особенно много математических расчетов.

В некоторых моделях материнских плат функции видеоадаптера выполняют микросхемы чипсета — в этом случае говорят, что видеоадаптер интегрирован с материнской платой. Если же видеоадаптер выполнен в виде отдельного устройства, его называют видеокартой. Разъем видеокарты выведен на заднюю стенку. К нему подключается монитор.

Звуковой адаптер. В настоящее время средства для работы со звуком считаются стандартными. Для этого на материнской плате устанавливается звуковой адаптер. Он может быть интегрирован в чипсете материнской платы или выполнен как отдельная подключаемая плата, которая называется звуковой картой.

Разъемы звуковой карты выведены на заднюю стенку компьютера. Для воспроизведения звука к ним подключают звуковые колонки или наушники. Отдельный разъем предназначен для подключения микрофона. При наличии специальной программы это позволяет записывать звук. Имеется также разъем (линейный выход) для подключения к внешней звукозаписывающей или звуковоспроизводящей аппаратуре (магнитофонам, усилителям и т.п.).

Жесткий диск. Поскольку оперативная память компьютера очищается при отключении питания, необходимо устройство для длительного хранения данных и программ. В настоящее время для этих целей широко применяют так называемые жесткие диски. Принцип действия жесткого диска основан на регистрации изменений магнитного поля вблизи записывающей головки.

Основным параметром жесткого диска является емкость, измеряемая в гигабайтах (миллиардах байтов), Гбайт. Средний размер современного жесткого диска составляет 80 — 160 Гбайт, причем этот параметр неуклонно растет.

Дисковод гибких дисков. Для транспортировки данных между удаленными компьютерами используют так называемые гибкие диски. Стандартный гибкий диск (дискета) имеет сравнительно небольшую емкость 1,44 Мбайт. По современным меркам этого совершенно недостаточно для большинства задач хранения и транспортировки данных, но низкая стоимость носителей и высокая степень готовности к работе сделали гибкие диски самыми распространенными носителями данных.

Для записи и чтения данных, размещенных на гибких дисках, служит специальное устройство — дисковод. Приемное отверстие дисковода выведено на лицевую панель системного блока.

Дисковод CD-ROM. Для транспортировки больших объемов данных удобно использовать компакт-диски CD-ROM. Эти диски позволяют только читать ранее записанные данные — производить запись на них нельзя. Емкость одного диска составляет порядка 650-700 Мбайт.

Для чтения компакт-дисков служат дисководы CD-ROM. Основной параметр дисковода CD-ROM— скорость чтения. Она измеряется в кратных единицах. За единицу принята скорость чтения, утвержденная в середине 80-х гг. для музыкальных компакт-дисков (аудиодисков). Современные дисководы CD-ROM обеспечивают скорость чтения 40х - 52х.Основной недостаток дисководов CD-ROM — невозможность записи дисков — преодолен в современных устройствах однократной записи — CD-R. Существуют также устройства CD-RW, позволяющие осуществлять многократную запись.

Принцип хранения данных на компакт-дисках не магнитный, как у гибких дисков, а оптический. 

Коммуникационные порты. Для связи с другими устройствами, например принтером, сканером, клавиатурой, мышью и т. п., компьютер оснащается так называемыми портами. Порт — это не просто разъем для подключения внешнего оборудования, хотя порт и заканчивается разъемом. Порт — более сложное устройство, чем просто разъем, имеющее свои микросхемы и управляемое программно.

Сетевой адаптер. Сетевые адаптеры необходимы компьютерам, чтобы они могли обмениваться данными между собой. Этот прибор следит за тем, чтобы процессор не подал новую порцию данных на внешний порт, пока сетевой адаптер соседнего компьютера не скопировал к себе предыдущую порцию. После этого процессору дается сигнал о том, что данные забраны и можно подавать новые. Так осуществляется передача.

Когда сетевой адаптер «узнает» от соседнего адаптера, что у того есть порция данных, он копирует их к себе, а потом проверяет, ему ли они адресованы. Если да, он передает их процессору. Если нет, он выставляет их на выходной порт, откуда их заберет сетевой адаптер очередного соседнего компьютера. Так данные перемещаются между компьютерами до тех пор, пока не попадут к адресату.

Сетевые адаптеры могут быть встроены в материнскую плату, но чаще устанавливаются отдельно, в виде дополнительных плат, называемых сетевыми картами.

coolreferat.com

Информация. Единица измерения количества информации

Министерство образования и науки Российской Федерации

Федеральное агентство по образованию

Министерство образования Свердловской области

Негосударственное образовательное учреждение

Среднего профессионального образования

Уральский экономический колледж

Ревдинский филиал

Контрольная работа

предмет: Информатика - математика

Выполнил:

Козырин А.Л.,15/10 гр,

3 курс

Руководитель:

Ревда, 2011

Билет №1. Информация. Единица измерения количества информации.

Информация – это сведения об окружающем мире (объекте, процессе, явлении, событии), которые являются объектом преобразования (включая хранение, передачу и т.д.) и используются для выработки поведения, для принятия решения, для управления или для обучения.

Количество информации можно рассматривать как меру уменьшения неопределенности знания при получении информационных сообщений.

При всем многообразии подходов к определению понятия информации, с позиции измерения информации выделяют два из них: определение К. Шеннона, применяемое в математической теории информации (содержательный подход), и определение А. Н. Колмогорова, применяемое в отраслях информатики, связанных с использованием компьютеров (алфавитный подход).

1. Содержательный подход. Согласно Шеннону, информативность сообщения характеризуется содержащейся в нем полезной информацией — той частью сообщения, которая снимает полностью или уменьшает неопределенность какой-либо ситуации. По Шеннону, информация — уменьшение неопределенности наших знаний.

Содержательный подход часто называют субъективным, так как разные люди (субъекты) информацию об одном и том же предмете оценивают по-разному.

Но если число исходов не зависит от суждений людей (случай бросания кубика или монеты), то информация о наступлении одного из возможных исходов является объективной.

Если сообщение уменьшило неопределенность знаний ровно в два раза, то говорят, что сообщение несет 1 бит информации.

1 бит — объем информации такого сообщения, которое уменьшает неопределенность знания в два раза.

2. Алфавитный подход. Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита.

Алфавит — упорядоченный набор символов, используемый для кодирования сообщений на некотором языке.

Мощность алфавита — количество символов алфавита.Двоичный алфавит содержит 2 символа, его мощность равна двум. Сообщения, записанные с помощью символов ASCII, используют алфавит из 256 символов. Сообщения, записанные по системе UNICODE, используют алфавит из 65 536 символов.

С позиций computer science носителями информации являются любые последовательности символов, которые хранятся, передаются и обрабатываются с помощью компьютера. Согласно Колмогорову, информативность последовательности символов не зависит от содержания сообщения, алфавитный подход является объективным, т.е. он не зависит от субъекта, воспринимающего сообщение.

Единицы измерения информации.

Как уже было сказано, основная единица измерения информации — бит. 8 бит составляют 1 байт.

Наряду с байтами для измерения количества информации используются более крупные единицы:

1 Кбайт (один килобайт) = 210 байт = 1024 байта;

1 Мбайт (один мегабайт) = 210 Кбайт = 1024 Кбайта;

1 Гбайт (один гигабайт) = 210 Мбайт = 1024 Мбайта.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тб) = 1024 Гбайта = 240 байта,

1 Петабайт (Пб) = 1024 Тбайта = 250 байта.

Билет №6. Устройство памяти компьютера. Носители информации (гибкий диск, жесткий диск, диск CD - ROM / R / RW , DVD и т.д.

Основной функцией внешней памяти компьютера является способность долговременно хранить большой объем информации (программы, документы, аудио-и видеоклипы и т. д.). Устройство, которое обеспечивает запись/считывание информации, называется накопителем или дисководом, а хранится информация на носителях (например, дискетах).

В накопителях на гибких магнитных дисках (НГМД или дискетах) и накопителях на жестких магнитных дисках (НЖМД или винчестерах), в основу записи, хранения и считывания информации положен магнитный принцип, а в лазерных дисководах — оптический принцип.

1. Гибкие магнитные диски помещаются в пластмассовый корпус. Такой носитель информации называется дискетой. Дискета вставляется в дисковод, вращающий диск с постоянной угловой скоростью. Магнитная головка дисковода устанавливается на определенную концентрическую дорожку диска, на которую и записывается (или считывается) информация.

Информационная ёмкость дискеты невелика и составляет всего 1.44 Мбайт. Скорость записи и считывания информации также мала (около 50 Кбайт/с) из-за медленного вращения диска (360 об./мин).

В целях сохранения информации гибкие магнитные диски следует предохранять от воздействия сильных магнитных полей и нагревания, так как это может привести к размагничиванию носителя и потере информации.

2. Жесткий диск (HDD — Hard Disk Drive) относится к несменным дисковым магнитным накопителям. Первый жесткий диск был разработан фирмой IBM в 1973 г. и имел емкость 16 Кбайт.

Жесткие магнитные диски представляют собой несколько десятков дисков, размещенных на одной оси, заключенных в металлический корпус и вращающихся с высокой угловой скоростью. За счет множества дорожек на каждой стороне дисков и большого количества дисков информационная емкость жестких дисков может в десятки тысяч раз превышать информационную емкость дискет и достигать сотен Гбайт. Скорость записи и считывания информации с жестких дисков достаточно велика (около 133 Мбайт/с) за счет быстрого вращения дисков (7200 об./мин). Часто жесткий диск называют винчестер.

В жестких дисках используются достаточно хрупкие и миниатюрные элементы. Чтобы сохранить информацию и работоспособность жестких дисков, необходимо оберегать их от ударов и резких изменений пространственной ориентации в процессе работы.

3. Лазерные дисководы и диски. За последние несколько лет компьютерные устройства для чтения компакт-дисков (CD), называемые CD-ROM, стали практически необходимой частью любого компьютера. Это произошло потому, что разнообразные программные продукты стали занимать значительное количество места, и поставка их на дискетах оказалась чрезмерно дорогостоящей и ненадёжной. Поэтому их стали поставлять на CD (таких же, как и обычные музыкальные).

Лазерные дисководы используют оптический принцип чтения информации. На лазерных дисках CD (CD — Compact Disk, компакт диск) и DVD (DVD — Digital Video Disk, цифровой видеодиск) информация записана на одну спиралевидную дорожку (как на грампластинке), содержащую чередующиеся участки с различной отражающей способностью. Лазерный луч падает на поверхность вращающегося диска, а интенсивность отраженного луча зависит от отражающей способности участка дорожки и приобретает значения 0 или 1. Для сохранности информации лазерные диски надо предохранять от механических повреждений (царапин), а также от загрязнения.

На лазерных дисках хранится информация, которая была записана на них в процессе изготовления. Запись на них новой информации невозможна. Производятся такие диски путем штамповки. Существуют CD-R и DVD-R диски информация на которые может быть записана только один раз. На дисках CD-RW и DVD-RW информация может быть записана/перезаписана многократно. Диски разных видов можно отличить не только по маркировки, но и по цвету отражающей поверхности.

Запись на CD и DVD при помощи обычных CD-ROM и DVD-ROM невозможна. Для этого необходимы устройства CD-RW и DVD-RW с помощью которых возможны чтение-однократная запись и чтение-запись-перезапись. Эти устройства обладают достаточно мощным лазером, позволяющем менять отражающую способность участков поверхности в процессе записи диска.

Информационная ёмкость CD-ROM достигает 700 Мбайт, а скорость считывания информации (до 7.8 Мбайт/с) зависит от скорости вращения диска. DVD-диски имеют гораздо большую информационную ёмкость (однослойный односторонний диск - 4.7 Гбайт) по сравнению с CD-дисками, т.к. используются лазеры с меньшей длинной волны, что позволяет размещать оптические дорожки более плотно. Так же существуют двухслойные DVD-диски и двухсторонние DVD-диски. В настоящее время скорости считывания 16-скоростных DVD-дисководов достигает 21 Мбайт/с.

4. Устройства на основе flash-памяти. Flash-память - это энергонезависимый тип памяти, позволяющий записывать и хранить данные в микросхемах. Устройства на основе flash-памяти не имеют в своём составе движущихся частей, что обеспечивает высокую сохранность данных при их использовании в мобильных устройствах.

Flash-память представляет собой микросхему, помещенную в миниатюрный корпус. Для записи или считывания информации накопители подключаются к компьютеру через USB-порт. Информационная емкость карт памяти достигает 1024 Мбайт.

Билет №5. Функциональная схема компьютера (основные устройства, их функции и взаимосвязь).

По своему назначению компьютер - это универсальный прибор для работы с информацией. По принципам своего устройства компьютер - это модель человека, работающего с информацией.

Персональный компьютер (ПК) — это компьютер, предназначенный для обслуживания одного рабочего места. По своим характеристикам он может отличаться от больших ЭВМ, но функционально способен выполнять аналогичные операции. По способу эксплуатации различают настольные (desktop), портативные (laptop и notebook) и карманные (palmtop) модели ПК.

Аппаратное обеспечение. Поскольку компьютер предоставляет все три класса информационных методов для работы с данными (аппаратные, программные и естественные), принято говорить о компьютерной системе как о состоящей из аппаратных и программных средств, работающих совместно. Узлы, составляющие аппаратные средства компьютера, называют аппаратным обеспечением. Они выполняют всю физическую работу с данными: регистрацию, хранение, транспортировку и преобразование как по форме, так и по содержанию, а также представляют их в виде, удобном для взаимодействия с естественными информационными методами человека.

mirznanii.com