Последовательность из 8 нулей и единиц называется

Мы познакомились с системами счисления — способами кодирования чисел. Числа дают информацию о количестве предметов. Эта информация должна быть закодирована, представлена в какой-то системе счисления. Какой из известных способов выбрать, зависит от решаемой задачи.
До недавнего времени на компьютерах в основном обрабатывалась числовая и текстовая информация. Но большую часть информации о внешнем мире человек получает в виде изображения и звука. При этом более важным оказывается изображение. Помните пословицу: “Лучше один раз увидеть, чем сто раз услышать”. Поэтому сегодня компьютеры начинают всё активнее работать с изображением и звуком. Способы кодирования такой информации будут обязательно нами рассмотрены.

Двоичное кодирование числовой и текстовой информации.

Любая информация кодируется в ЭВМ с помощью последовательностей двух цифр — 0 и 1. ЭВМ хранит и обрабатывает информацию в виде комбинации электрических сигналов: напряжение 0.4В-0.6В соответствует логическому нулю, а напряжение 2.4В-2.7В — логической единице. Последовательности из 0 и 1 называются двоичными кодами, а цифры 0 и 1 — битами (двоичными разрядами). Такое кодирование информации на компьютере называется двоичным кодированием. Таким образом, двоичное кодирование — это кодирование с минимально возможным числом элементарных символов, кодирование самыми простыми средствами. Тем оно и замечательно с теоретической точки зрения.
Инженеров двоичное кодирование информации привлекает тем, что легко реализуется технически. Электронные схемы для обработки двоичных кодов должны находиться только в одном из двух состояний: есть сигнал/нет сигнала или высокое напряжение/низкое напряжение.
ЭВМ в своей работе оперируют действительными и целыми числами, представленными в виде двух, четырёх, восьми и даже десяти байт. Для представления знака числа при счёте используется дополнительный знаковый разряд, который обычно располагается перед числовыми разрядами. Для положительных чисел значение знакового разряда равно 0, а для отрицательных чисел — 1. Для записи внутреннего представления целого отрицательного числа (-N) необходимо:
1) получить дополнительный код числа N заменой 0 на 1 и 1 на 0;
2) к полученному числу прибавить 1.

Так как одного байта для представления этого числа недостаточно, оно представлено в виде 2 байт или 16 бит, его дополнительный код: 1111101111000101, следовательно, -1082=1111101111000110.
Если бы ПК мог работать только с одиночными байтами, пользы от него было бы немного. Реально ПК работает с числами, которые записываются двумя, четырьмя, восемью и даже десятью байтами.
Начиная с конца 60-х годов компьютеры всё больше стали использоваться для обработки текстовой информации. Для представления текстовой информации обычно используется 256 различных символов, например большие и малые буквы латинского алфавита, цифры, знаки препинания и т.д. В большинстве современных ЭВМ каждому символу соответствует последовательность из восьми нулей и единиц, называемая байтом.
Байт – это восьмиразрядная комбинация нулей и единиц.
При кодировании информации в этих электронно-вычислительных машинах используют 256 разных последовательностей из 8 нулей и единиц, что позволяет закодировать 256 символов. Например большая русская буква «М» имеет код 11101101, буква «И» — код 11101001, буква «Р» — код 11110010. Таким образом, слово «МИР» кодируется последовательностью из 24 бит или 3 байт: 111011011110100111110010.
Количество бит в сообщении называется информационным объёмом сообщения. Это интересно!

Первоначально в ЭВМ использовался лишь латинский алфавит. В нём 26 букв. Так что для обозначения каждой хватило бы пяти импульсов (битов). Но в тексте есть знаки препинания, десятичные цифры и др. Поэтому в первых англоязычных компьютерах байт — машинный слог — включал шесть битов. Затем семь — не только чтобы отличать большие буквы от малых, но и для увеличения числа кодов управления принтерами, сигнальными лампочками и прочим оборудованием. В 1964 году появились мощные IBM-360, в которых окончательно байт стал равен восьми битам. Последний восьмой бит был необходим для символов псевдографики. Присвоение символу конкретного двоичного кода — это вопрос соглашения, которое фиксируется в кодовой таблице. К сожалению, существует пять различных кодировок русских букв, поэтому тексты, созданные в одной кодировке, не будут правильно отражаться в другой.
Хронологически одним из первых стандартов кодирования русских букв на компьютерах был КОИ8 («Код обмена информацией, 8 битный»). Наиболее распространённая кодировка — это стандартная кириллическая кодировка Microsoft Windows, обозначаемая сокращением СР1251 («СР» означает «Code Page» или «кодовая страница»). Фирма Apple разработала для компьютеров Macintosh собственную кодировку русских букв (Мас). Международная организация по стандартизации (International Standards Organization, ISO) утвердила в качестве стандарта для русского языка кодировку ISO 8859-5. Наконец, появился новый международный стандарт Unicode, который отводит на каждый символ не один байт, а два, и поэтому с его помощью можно закодировать не 256 символов, а целых 65536.
Все эти кодировки продолжают кодовую таблицу стандарта ASCII (Американский стандартный код для информационного обмена), кодирующую 128 символов.

Таблица символов ASCII:

код символ код символ код символ код символ код символ код символ
32 Пробел 48 . 64 @ 80 P 96 112 p
33 ! 49 65 A 81 Q 97 a 113 q
34 " 50 1 66 B 82 R 98 b 114 r
35 # 51 2 67 C 83 S 99 c 115 s
36 $ 52 3 68 D 84 T 100 d 116 t
37 % 53 4 69 E 85 U 101 e 117 u
38 & 54 5 70 F 86 V 102 f 118 v
39 55 6 71 G 87 W 103 g 119 w
40 ( 56 7 72 H 88 X 104 h 120 x
41 ) 57 8 73 I 89 Y 105 i 121 y
42 * 58 9 74 J 90 Z 106 j 122 z
43 + 59 : 75 K 91 [ 107 k 123 <
44 , 60 ; 76 L 92 108 l 124 |
45 61 78 N 94 ^ 110 n 126
47 / 63 ? 79 O 95 _ 111 o 127 DEL
Читайте также:  Автомобили с высокой посадкой водителя

Двоичное кодирование текста происходит следующим образом: при нажатии на клавишу в компьютер передаётся определённая последовательность электрических импульсов, причём каждому символу соответствует своя последовательность электрических импульсов (нулей и единиц на машинном языке). Программа драйвер клавиатуры и экрана по кодовой таблице определяет символ и создаёт его изображение на экране. Таким образом, тексты и числа хранятся в памяти компьютера в двоичном коде и программным способом преобразуются в изображения на экране.

Двоичное кодирование графической информации.

С 80-х годов бурно развивается технология обработки на компьютере графической информации. Компьютерная графика широко используется в компьютерном моделировании в научных исследованиях, компьютерных тренажёрах, компьютерной анимации, деловой графике, играх и т.д.
Графическая информация на экране дисплея представляется в виде изображения, которое формируется из точек (пикселей). Всмотритесь в газетную фотографию, и вы увидите, что она тоже состоит из мельчайших точек. Если это только чёрные и белые точки, то каждую из них можно закодировать 1 битом. Но если на фотографии оттенки, то два бита позволяет закодировать 4 оттенка точек: 00 — белый цвет, 01 — светло-серый, 10 — тёмно-серый, 11 — чёрный. Три бита позволяют закодировать 8 оттенков и т.д.
Количество бит, необходимое для кодирования одного оттенка цвета, называется глубиной цвета.

В современных компьютерах разрешающая способность (количество точек на экране), а также количество цветов зависит от видеоадаптера и может изменяться программно.
Цветные изображения могут иметь различные режимы: 16 цветов, 256 цветов, 65536 цветов (high color), 16777216 цветов (true color). На одну точку для режима high color необходимо 16 бит или 2 байта.
Наиболее распространённой разрешающей способностью экрана является разрешение 800 на 600 точек, т.е. 480000 точек. Рассчитаем необходимый для режима high color объём видеопамяти: 2 байт *480000=960000 байт.
Для измерения объёма информации используются и более крупные единицы:

Следовательно, 960000 байт приблизительно равно 937,5 Кбайт. Если человек говорит по восемь часов в день без перерыва, то за 70 лет жизни он наговорит около 10 гигабайт информации (это 5 миллионов страниц — стопка бумаги высотой 500 метров).
Скорость передачи информации — это количество битов, передаваемых в 1 секунду. Скорость передачи 1 бит в 1 секунду называется 1 бод.

В видеопамяти компьютера хранится битовая карта, являющаяся двоичным кодом изображения, откуда она считывается процессором (не реже 50 раз в секунду) и отображается на экран.

Двоичное кодирование звуковой информации.

С начала 90-х годов персональные компьютеры получили возможность работать со звуковой информацией. Каждый компьютер, имеющий звуковую плату, может сохранять в виде файлов (файл — это определённое количество информации, хранящееся на диске и имеющее имя) и воспроизводить звуковую информацию. С помощью специальных программных средств (редакторов аудио файлов) открываются широкие возможности по созданию, редактированию и прослушиванию звуковых файлов. Создаются программы распознавания речи, и появляется возможность управления компьютером голосом.
Именно звуковая плата (карта) преобразует аналоговый сигнал в дискретную фонограмму и наоборот, «оцифрованный» звук – в аналоговый (непрерывный) сигнал, который поступает на вход динамика.

При двоичном кодировании аналогового звукового сигнала непрерывный сигнал дискретизируется, т.е. заменяется серией его отдельных выборок — отсчётов. Качество двоичного кодирования зависит от двух параметров: количества дискретных уровней сигнала и количества выборок в секунду. Количество выборок или частота дискретизации в аудиоадаптерах бывает различной: 11 кГц, 22 кГц, 44,1 кГц и др. Если количество уровней равно 65536, то на один звуковой сигнал рассчитано 16 бит (216). 16-разрядный аудиоадаптер точнее кодирует и воспроизводит звук, чем 8-разрядный.
Количество бит, необходимое для кодирования одного уровня звука, называется глубиной звука.
Объём моноаудиофайла (в байтах) определяется по формуле:

При стереофоническом звучании объём аудиофайла удваивается, при квадрофоническом звучании – учетверяется.
По мере усложнения программ и увеличения их функций, а также появления мультимедиа-приложений, растёт функциональный объём программ и данных. Если в середине 80-х годов обычный объём программ и данных составлял десятки и лишь иногда сотни килобайт, то в середине 90-х годов он стал составлять десятки мегабайт. Соответственно растёт объём оперативной памяти.

Двоичное кодирование информации.

Одну и ту же информацию можно представить и передать по-разному. В старинном телеграфе с помощью азбуки Морзе—в виде точек и тире. В книгах в виде текстов и изображений и т.д.

В современной вычислительной технике информация чаще всего кодируется с помощью последовательностей сигналов всего двух видов:: намагничено или не намагничено, включено или выключено, высокое или низкое напряжение и т.д. Принято обозначать одно состояние цифрой 0, а другое —цифрой 1. Такое кодирование называется двоичным кодированием, а цифры 0 и 1 битами (от англ. bit—binary digit —двоичная цифра).

При двоичном кодировании текстовой информации каждому символу сопоставляется его код— последовательность из фиксированного количества нулей и единиц. В большинстве современных ЭВМ (электронная вычислительная машина)каждому символу соответствует последовательность из 8 нулей и единиц, называемая байтом (англ. byte), т.е. 1 байт=8 бит. Всего существует 256 (2 8 ) разных последовательностей из 8 нулей и единицэто позволяет закодировать 256 разных символов (большие и малые буквы русского и латинского алфавитов, цифры, знаки препинания и т.д.). Соответствие байтов и символов задается с помощью таблицы, в которой для каждого кода указывается соответствующий символ. Очень часто используется код ASCII (American Standard Code for Information Interchange – американский стандартный код обмена информацией).

Читайте также:  Срок службы телевизора филипс

Последовательностями нулей и единиц можно закодировать и графическую информацию. Если это только черные и белые точки, то каждую из них можно закодировать 1 битом. Два бита позволяют закодировать 4 оттенка точек: 00-белый цвет, 01- светло-серый, 10- темно-серый, 11-черный.

3 бита позволяют закодировать 8 оттенков и т.д.

Как узнать количество информации в сообщении, в каких единицах измерять информацию? Для двоичных сообщений в качестве такой числовой меры используется количество бит в сообщению. Это количество называют информационным объемом сообщения.

Биты и байты используются также для измерения “емкости” памяти и для измерения скорости передачи двоичных сообщений (бит/сек).

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений (типа "орел"—"решка", "чет"—"нечет" и т.п.).

В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

Бит — количество информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза.

Наряду с битами и байтами для измерения количества информации в двоичных сообщениях используются и более крупные единицы:

1 байт =8бит

1 Килобайт (КБ) = 1024 байт (2 10 Б)

1 Мегабайт (МБ) =1024 КБ (2 20 Б)

1 Гигабайт (ГБ) = 1024 МБ (2 30 Б)

1 Терабайт (ТБ) = 1024 ГБ (2 40 Б)

1 Петабайт (ПБ) =1024 ТБ (250 Б)

Бит, байт, килобайт, мегабайт, гигабайт—много это или мало?

В коде ASCII каждый символ—это 1 байт. На странице учебника помещается порядка 50 строк , в каждой строке примерно 60 знаков(60 байт).
Одна страница учебника имеет информационный объем порядка 3000 байт

Если на условной шкале изобразить бит как 1.25 мм, то байт=8 бит на этой шкале равен 1 см, килобайт 10 м, мегабайт 10 км, гигабайт 10000 км (это расстояние от Москвы до Владивостока) и т.д.

Как измеряется количество информации?

Какое количество информации содержится, к примеру, в тексте романа "Война и мир", во фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука не даёт и, по всей вероятности, даст не скоро. А возможно ли объективно измерить количество информации? Важнейшим результатом теории информации является следующий вывод:

В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.

В настоящее время получили распространение подходы к определению понятия "количество информации", основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте. Эти подходы используют математические понятия вероятности и логарифма. Если вы еще не знакомы с этими понятиями, то можете пока пропустить этот материал.

Подходы к определению количества информации. Формулы Хартли и Шеннона. Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N. Формула Хартли: I = log2N Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 > 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации. Приведем другие примеры равновероятных сообщений: 1. при бросании монеты: "выпала решка", "выпал орел"; 2. на странице книги: "количество букв чётное", "количество букв нечётное". Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины. Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе. Формула Шеннона: I = — ( p1log2 p1 + p2 log2 p2 + . . . + pN log2 pN), где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений. Легко заметить, что если вероятности p1, . pN равны, то каждая из них равна 1 / N, и формула Шеннона превращается в формулу Хартли. Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями.

1.9. Что такое обработка информации?

Обработка информации — получение одних информационных объектов из других информационных объектов путем выполнения некоторых алгоритмов [15].
Читайте также:  Из заданных логических функций эквивалентной а является

Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объёма и разнообразия информации.

Средства обработки информации — это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер — универсальная машина для обработки информации.

Дата добавления: 2015-01-03 ; Просмотров: 409 ; Нарушение авторских прав? ;

Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет

Элемент памяти компьютера, состоящий из восьми битов, называется байтом.

Слово «байт» произошло от английского термина byte, представляющего собой сокращение словосочетания BinarY TErm — двоичный терм, выражение. Байт сохраняет все свойства бита, то есть он может сколь угодно долго хранить записанный в него двоичный код, этот код можно прочитать, можно также записать в байт любой новый код. Каждый из восьми битов байта может содержать любую из двоичных цифр независимо от остальных. Следовательно, байт может содержать произвольную комбинацию, последовательность из восьми нулей или единиц, например, последовательность 10110011. Такую последовательность также называют двоичным числом, двоичным кодом либо просто кодом.

Рис. 4.1.Условные изображения: бита (а); байта (б)

Условно бит изображают в виде квадратика, содержащего либо цифру «0», либо цифру «1», а байт рисуют в виде расположенных рядом восьми одинаковых квадратиков, каждый из которых содержит какую-либо двоичную цифру (рис. 4.1).

Запись двоичного кода легко спутать с аналогичным по записи десятичным числом, например, двоичный код 10110011 можно рассматривать и как «обычное» число «десять миллионов сто десять тысяч одиннадцать». В тех случаях, когда есть опасность спутать десятичное и двоичное числа, справа от двоичного числа записывают индекс 2, а около десятичного числа указывают индекс 10. Таким образом, 101100112 — двоичное число, а 1011001110 — десятичное. Для удобства восприятия десятичные числа в текстах на русском языке принято делить на группы по три цифры в каждой и отделять эти группы друг от друга пробелом — 1011001110. По аналогии с этим двоичные числа иногда также группируют, но по четыре цифры в группе — 1011 00112.

Так как байт состоит из восьми двоичных разрядов, то количество различных кодов, различных комбинаций из восьми нулей и единиц, записываемых в один байт, равно 2 8 =256. Для перебора всех возможных комбинаций можно начать с кода, содержащего восемь нулей 0000 00002, следующим записать код 0000 00012, затем — 0000 00102,0000 00112 и т. д. до кода, состоящего только из одних единиц 1111 11112 . Всего таких комбинаций будет как раз 256.

Как видно из приведенных выше примеров, запись содержимого байта довольно длинная — более чем в три раза длиннее записи соответствующего числа в десятичной системе счисления. Кроме того, восприятие человеком двоичного кода затруднено. Поэтому для сокращения записи двоичных кодов часто используют вспомогательную шестнадцатеричную систему счисления. Ее алфавит состоит из шестнадцати символов <0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F>. Эта система связана с двоичной очень простыми правилами перехода от двоичных кодов к шестнадцатеричным и обратно — от шестнадцатеричных к двоичным. Для таких переходов используется таблица, в которой каждой шестнадцатеричной соответствуют ровно четыре двоичных цифры (табл, 4.1). Четверку двоичных цифр иногда называют тетрадой.

Таблица 4.1 . Соответствие между тетрадами и шестнадцатеричными цифрами

16-я, цифра 2-я четверка 16-я цифра 2-я четверка 16-я цифра 2-я четверка 16-я цифра 2-я четверка
А В С D Е F

Собственно переход от двоичных чисел к их шестнадцатеричным эквивалентам и обратно осуществляется простой заменой каждой четверки двоичных цифр кода на соответствующую ей одну шестнадцатеричную и, наоборот, вместо одной шестнадцатеричной цифры подставляются четыре двоичных. Возьмем, например, двоичный код 0011 10112. Он состоит из двух двоичных четверок. Первая — 00112 и вторая — 10112. По таблице находим, что тетраду 00112 нужно заменить на шестнадцатеричную цифру 3, а тетраду 10112 — на шестнадцатеричную цифру В. Таким образом, двоичному коду 0011 10112 соответствует шестнадцатеричный код 3В. Во избежание недоразумений в тех случаях, когда они могут возникнуть, справа от шестнадцатеричных чисел (кодов) выставляется индекс 16 — 3В16. Приведем еще несколько примеров: — 1010 11002 соответствует коду АС16, 111001102 — Е616 и т. д. Обратный переход также прост. Так, шестнадцатеричный код С816 после замены каждой цифры соответствующей четверкой двоичных приобретает вид 1100 10002. Из приведенных примеров видно, что запись кода сокращается ровно в четыре раза. Для записи содержимого байта двоичными цифрами нужно восемь цифр, а если для этого использовать шестнадцатеричные, то всего две. Еще раз обращаем внимание читателя на то, что в компьютере для кодирования программ и данных используется только двоичная система счисления. Шестнадцатеричная же используется только как вспомогательная, для сокращения записи двоичных кодов при письме.

При компьютерной обработке информации приходится иметь дело с числовой, текстовой, графической, звуковой и т. д. информацией. Для хранения данных различной природы применяются различные способы кодировки. Кроме того, для одной и той же разновидности информации также могут использоваться различные способы кодировки, которые отличаются друг от друга эффективностью, а также различными требованиями к ресурсам компьютера.

Оцените статью
Добавить комментарий

Adblock detector