Автор: Пользователь скрыл имя, 04 Января 2012 в 16:27, курсовая работа
Для хранения программ и данных в персональных компьютерах используют различного рода накопители, общая емкость которых, как правило, в сотни раз превосходит емкость оперативной памяти. По отношению к компьютеру накопители могут быть внешними и встраиваемыми (внутренними).
Информатика.
1.1.История
развития.
1).Количество информации |
Определить
понятие “количество Вероятностный подход Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной .кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2,... N. Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью: H = f (N), (1.1) а сама функция f является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2,... 6. Рассмотрим процедуру бросания кости более подробно: 1)
готовимся бросить кость; 2)
кость брошена; информация об
исходе данного опыта получена;
обозначим количество этой 3)
обозначим неопределенность I = H1 – H2 (1.2) Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята (Н2 = 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта. Заметим, что значение Н2 могло быть и не равным нулю, например, в случае, когда в ходе опыта следующей выпала грань со значением, большим “З”. Следующим важным моментом является определение вида функции f в формуле (1.1). Если варьировать число граней N и число бросаний кости (обозначим эту величину черезМ), общее число исходов (векторов длины М, состоящих из знаков 1,2,.... N) будет равноN в степени М: X=NM. (1.3) Так,
в случае двух бросаний кости с
шестью гранями имеем: Х=62=36.
Фактически каждый исход Х есть некоторая
пара (X1, X2), где X1 и X2 – соответстве Ситуацию с бросанием М раз кости можно рассматривать как некую сложную систему, состоящую из независимых друг от друга подсистем – “однократных бросаний кости”. Энтропия такой системы в М раз больше, чем энтропия одной системы (так называемый “принцип аддитивности энтропии”): f(6M) = M ∙ f(6) Данную формулу можно распространить и на случай любого N: F(NM) = M ∙ f(N) (1.4) Прологарифмируем левую и правую части формулы (1.3): lnX=M ∙ lnN, М=lnX/1nM. Подставляем полученное для M значение в формулу (1.4):
Обозначив через К положительную константу , получим: f(X) =К ∙ lnХ, или, с учетом (1.1), H=K ∙ ln N. Обычно принимают К = 1 / ln 2. Таким образом H = log2 N. (1.5) Это – формула Хартли. Важным при введение какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, Н будет равно единице при N=2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты при котором возможны два исхода: “орел”, “решка”). Такая единица количества информации называется “бит”. Все N исходов рассмотренного выше опыта являются равновероятными и поэтому можно считать, что на “долю” каждого исхода приходится одна N-я часть общей неопределенности опыта: (log2 N)1N. При этом вероятность i-го исхода Рi равняется, очевидно, 1/N. Таким образом,
Та
же формула (1.6) принимается за меру
энтропии в случае, когда вероятности
различных исходов опыта В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака “пробел” для разделения слов. По формуле (1.5) Н = log2 34 ≈ 5 бит. Однако, в словах русского языка (равно как и в словах других языков) различные буквы встречаются неодинаково часто. Ниже приведена табл. 1 вероятностей частоты употребления различных знаков русского алфавита, полученная на основе анализа очень больших по объему текстов. |
Воспользуемся для подсчета Н формулой (1.6) и получим, что Н ≈ 4,72 бит. Полученное значение Н, как и можно было предположить, меньше вычисленного ранее. Величина Н,вычисляемая по формуле (1.5), является максимальным количеством информации, которое могло бы приходиться на один знак.
Аналогичные подсчеты Н можно провести и для других языков, например, использующих латинский алфавит – английского, немецкого, французского и др. (26 различных букв и “пробел”). По формуле (1.5) получим
H = log2 27 ≈ 4,76 бит.
Как и в случае русского языка, частота появления тех или иных знаков не одинакова.
Если
расположить все буквы данных
языков в порядке убывания вероятностей,
то получим следующие
АНГЛИЙСКИЙ ЯЗЫК: “пробел”, E, T, A, O, N, R, …
НЕМЕЦКИЙ ЯЗЫК: “пробел”, Е, N, I, S, Т, R, …
ФРАНЦУЗСКИЙ ЯЗЫК: “пробел”, Е, S, А, N, I, Т, …
Рассмотрим алфавит, состоящий из двух знаков 0 и 1. Если считать, что со знаками 0 и 1 в двоичном алфавите связаны одинаковые вероятности их появления (Р(0)=Р(1)=0,5), то количество информации на один знак при двоичном кодировании будет равно
H = 1оg2 2 = 1 бит.
Таким образом, количество информации (в битах), заключенное в двоичном слове, равно числу двоичных знаков в нем.
Объемный подход
В двоичной системе счисления знаки 0 и 1 будем называть битами (от английского выражения Binary digiTs – двоичные цифры). Отметим, что создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).
Для удобства использования введены и более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один, байт информации,1024 байта образуют килобайт (кбайт), 1024 килобайта – мегабайт (Мбайт), а 1024 мегабайта – гигабайт (Гбайт).
Между
вероятностным и объемным количеством
информации соотношение неоднозначное.
Далеко не всякий текст, записанный двоичными
символами, допускает измерение
объема информации в кибернетическом
смысле, но заведомо допускает его
в объемном. Далее, если некоторое
сообщение допускает
2). Машина фон Неймана - математическая модель, абстракция принципов, по которым работают почти все современные электронные компьютеры.
Согласно принципам, сформулированным в начале 20-го века математиком Фон-Нейманом, компьютер должен:
В 1946 году группа ученых во главе с Джоном фон Нейманом ( Г.Голдстайн, А.Беркс) написали статью «Предварительное рассмотрение логической конструкции ЭВ устройства». Там обосновывается использование двоичной системы для представления данных в ЭВМ (преимущественно для технической реализации, простота выполнения арифметических и логических операций). До этого машины хранили данные в 10–ом виде.
1.Принцип
программного управления. Он обеспечивает
автоматизацию процессов
Как
это выполняется? Введем 2 определения.
Регистр – специализированная дополнительная
ячейка памяти в процессоре. Регистр
выполняет функцию
2.
Принцип однородности памяти. Программы
и данные хранятся в одной
и той же памяти. Поэтому компьютер
не различает, что храниться
в данной ячейке памяти –
число, текст или команда. Над
командами можно выполнять
3.
Принцип адресности. Структурно
основная память состоит из
пронумерованных ячеек;
Компьютеры, построенные на этих принципах, относят к типу фон неймановских. На сегодняшний день это подавляющие большинство компьютеров, в том числе и IBM PС–совместимые. Но есть и компьютерные системы с иной архитектурой – например системы для параллельных вычислений.
Архитектура
фон Неймана (англ. von
Neumann architecture) — широко известный принцип
совместного хранения программ и данных в п
Наличие
заданного набора исполняемых команд и
программ было характерной чертой первых компьютерных систем. Сегодня подобный дизайн
применяют с целью упрощения конструкции вычислительного
устройства.
Так, настольные калькуляторы, в принципе, являются
устройствами с фиксированным набором
выполняемых программ. Их можно использовать
для математических расчётов, но невозможно
применить для обработки текста и компьютерны
Всё
изменила идея хранения компьютерных
программ в общей памяти. Ко времени
её появления использование
Принципы фон Неймана
В 1946 году трое учёных[1] — Артур Бёркс (англ. Arthur Burks), Герман Голдстайн (англ. Herman Goldstein) и Джон фон Нейман — опубликовали статью «Предварительное рассмотрение логического конструирования электронного вычислительного устройства»[2]. В статье обосновывалось использование двоичной системы для представления данных в ЭВМ (преимущественно для технической реализации, простота выполнения арифметических и логических операций — до этого машины хранили данные в десятичном виде[3]), выдвигалась идея использования общей памяти для программы и данных. Имя фон Неймана было достаточно широко известно в науке того времени, что отодвинуло на второй план его соавторов, и данные идеи получили название «принципы фон Неймана».
1. Принцип двоичного кодирования. Согласно этому принципу, вся информация, поступающая в ЭВМ, кодируется с помощью двоичных сигналов (двоичных цифр, битов) и разделяется на единицы, называемые словами.
2. Принцип однородности памяти. Программы и данные хранятся в одной и той же памяти. Поэтому ЭВМ не различает, что хранится в данной ячейке памяти - число, текст или команда. Над командами можно выполнять такие же действия, как и над данными.
3. Принцип адресуемости памяти. Структурно основная память состоит из пронумерованных ячеек; процессору в произвольный момент времени доступна любая ячейка.Отсюда следует возможность давать имена областям памяти, так, чтобы к запомненным в них значениям можно было бы впоследствии обращаться или менять их в процессе выполнения программы с использованием присвоенных имен.