Внешняя память компьютера

Автор: Пользователь скрыл имя, 04 Января 2012 в 16:27, курсовая работа

Описание работы

Для хранения программ и данных в персональных компьютерах используют различного рода накопители, общая емкость которых, как правило, в сотни раз превосходит емкость оперативной памяти. По отношению к компьютеру накопители могут быть внешними и встраиваемыми (внутренними).

Работа содержит 1 файл

Информатика.docx

— 158.29 Кб (Скачать)
 

     Информатика.

     1.1.История  развития. 
 

     1).Количество информации      
     Определить  понятие “количество информации”  довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти  одновременно. В конце 40-х годов XX века один из основоположников кибернетики  американский математик Клод Шеннон развил вероятностный подход к измерению  количества информации, а работы по созданию ЭВМ привели к “объемному”  подходу.

     Вероятностный подход

     Рассмотрим  в качестве примера опыт, связанный  с бросанием правильной игральной .кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2,... N.

     Введем  в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:

     H = f (N), (1.1)

     а сама функция является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N = 1, 2,... 6.

     Рассмотрим  процедуру бросания кости более  подробно:

     1) готовимся бросить кость; исход  опыта неизвестен, т.е. имеется  некоторая неопределенность; обозначим  ее H1;

     2) кость брошена; информация об  исходе данного опыта получена; обозначим количество этой информации  через I;

     3) обозначим неопределенность данного  опыта после его осуществления  через H2. За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей “до” и “после” опыта:

     I = H– H(1.2)

     Очевидно, что в случае, когда получен  конкретный результат, имевшаяся неопределенность снята = 0), и, таким образом, количество полученной информации совпадает с первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта. Заметим, что значение Нмогло быть и не равным нулю, например, в случае, когда в ходе опыта следующей выпала грань со значением, большим “З”.

     Следующим важным моментом является определение  вида функции в формуле (1.1). Если варьировать число граней и число бросаний кости (обозначим эту величину черезМ), общее число исходов (векторов длины М, состоящих из знаков 1,2,.... N) будет равнов степени М:

     X=NM. (1.3)

     Так, в случае двух бросаний кости с  шестью гранями имеем: Х=62=36. Фактически каждый исход Х есть некоторая пара (X1, X2), где Xи X– соответственно исходы первого и второго бросаний (общее число таких пар – X).

     Ситуацию  с бросанием М раз кости можно рассматривать как некую сложную систему, состоящую из независимых друг от друга подсистем – “однократных бросаний кости”. Энтропия такой системы в М раз больше, чем энтропия одной системы (так называемый “принцип аддитивности энтропии”):

     f(6M) = M ∙ f(6)

     Данную  формулу можно распространить и  на случай любого N:

     F(NM) = M ∙ f(N) (1.4)

     Прологарифмируем  левую и правую части формулы (1.3): lnX=M ∙ lnNМ=lnX/1nM. Подставляем полученное для значение в формулу (1.4):

     

     Обозначив через К положительную константу , получим: f(X) =К ∙ lnХ, или, с учетом (1.1), H=K ∙ ln N. Обычно принимают К = 1 / ln 2. Таким образом

     H = logN. (1.5)

     Это – формула Хартли.

     Важным  при введение какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, Н будет равно единице при N=2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты при котором возможны два исхода: “орел”, “решка”). Такая единица количества информации называется “бит”.

     Все исходов рассмотренного выше опыта являются равновероятными и поэтому можно считать, что на “долю” каждого исхода приходится одна N-я часть общей неопределенности опыта: (logN)1N. При этом вероятность i-го исхода Рравняется, очевидно, 1/N.

     Таким образом,

     

(1.6)

     Та  же формула (1.6) принимается за меру энтропии в случае, когда вероятности  различных исходов опыта неравновероятны (т.е. Рмогут быть различны). Формула (1.6) называется формулой Шеннона.

     В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем  считать, что русский алфавит  состоит из 33 букв и знака “пробел” для разделения слов. По формуле (1.5)

     Н = log34 ≈ 5 бит.

     Однако, в словах русского языка (равно как  и в словах других языков) различные  буквы встречаются неодинаково  часто. Ниже приведена табл. 1 вероятностей частоты употребления различных знаков русского алфавита, полученная на основе анализа очень больших по объему текстов.

     Воспользуемся для подсчета Н формулой (1.6) и получим, что Н ≈ 4,72 бит. Полученное значение Н, как и можно было предположить, меньше вычисленного ранее. Величина Н,вычисляемая по формуле (1.5), является максимальным количеством информации, которое могло бы приходиться на один знак.

     Аналогичные подсчеты Н можно провести и для других языков, например, использующих латинский алфавит – английского, немецкого, французского и др. (26 различных букв и “пробел”). По формуле (1.5) получим

     = log27 ≈ 4,76 бит.

     Как и в случае русского языка, частота  появления тех или иных знаков не одинакова.

     Если  расположить все буквы данных языков в порядке убывания вероятностей, то получим следующие последовательности:

     АНГЛИЙСКИЙ  ЯЗЫК: “пробел”, E, T, A, O, N, R, …

     НЕМЕЦКИЙ  ЯЗЫК: “пробел”, Е, N, I, S, Т, R, …

     ФРАНЦУЗСКИЙ ЯЗЫК: “пробел”, Е, S, А, N, I, Т, …

     Рассмотрим  алфавит, состоящий из двух знаков 0 и 1. Если считать, что со знаками 0 и 1 в двоичном алфавите связаны одинаковые вероятности их появления (Р(0)=Р(1)=0,5), то количество информации на один знак при двоичном кодировании будет равно

     H = 1оg2 = 1 бит.

     Таким образом, количество информации (в битах), заключенное в двоичном слове, равно  числу двоичных знаков в нем.

     Объемный подход

     В двоичной системе счисления знаки 0 и 1 будем называть битами (от английского выражения Binary digiTs – двоичные цифры). Отметим, что создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).

     Для удобства использования введены  и более крупные, чем бит, единицы  количества информации. Так, двоичное слово из восьми знаков содержит один, байт информации,1024 байта образуют килобайт (кбайт), 1024 килобайта – мегабайт (Мбайт), а 1024 мегабайта – гигабайт (Гбайт).

     Между вероятностным и объемным количеством  информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными  символами, допускает измерение  объема информации в кибернетическом  смысле, но заведомо допускает его  в объемном. Далее, если некоторое  сообщение допускает измеримость  количества информации в обоих смыслах, то они не обязательно совпадают, при этом кибернетическое количество информации не может быть больше объемного.В дальнейшем практически всегда количество информации понимается в объемном смысле.

     2). Машина фон Неймана математическая модель, абстракция принципов, по которым работают почти все современные электронные компьютеры.

     Согласно  принципам, сформулированным в начале 20-го века математиком Фон-Нейманом, компьютер должен:

  • иметь оперативную память
  • программу, которая используется для управления компьютером и хранится в оперативной памяти наравне с данными
  • код программы хранится и выполняется последовательно (линейно) сверху вниз

     В 1946 году группа ученых во главе с  Джоном фон Нейманом ( Г.Голдстайн, А.Беркс) написали статью «Предварительное рассмотрение логической конструкции ЭВ устройства». Там обосновывается использование двоичной системы для представления данных в ЭВМ (преимущественно для технической реализации, простота выполнения арифметических и логических операций). До этого машины хранили данные в 10–ом виде.

     1.Принцип  программного управления. Он обеспечивает  автоматизацию процессов вычислений  на ЭВМ. Согласно этому принципу  программа состоит из набора  команд, которые выполняются процессором  автоматически друг за другом  в определенной последовательности.

     Как это выполняется? Введем 2 определения. Регистр – специализированная дополнительная ячейка памяти в процессоре. Регистр  выполняет функцию кратковременного хранения числа или команды. Счетчик  команд – регистр УУ, содержимое которого соответствует адресу очередной  выполняемой команды, он служит для  автоматической выборки программы  из последовательных ячеек памяти. То есть, с его помощью осуществляется выборка программы из памяти. Этот регистр последовательно увеличивает  хранимый в нем адрес очередной  команды на длину команды. А так  как команды программы расположены  в памяти друг за другом, то тем самым  осуществляется выборка цепочки  команд из последовательно расположенных  ячеек памяти. Если же нужно после выполнения команды перейти не к следующей, а к какой – то другой, используются команды условного или безусловного переходов. Таким образом, процессор исполняет программу автоматически, без вмешательства человека.

     2. Принцип однородности памяти. Программы  и данные хранятся в одной  и той же памяти. Поэтому компьютер  не различает, что храниться  в данной ячейке памяти –  число, текст или команда. Над  командами можно выполнять такие  же действия, как и над данными.  Иногда этот принцип называют  «принцип хранимой команды». И  это отсутствие принципиальной  разницы между программой и  данными дало возможность ЭВМ  самой формировать для себя  программу в соответствии с  результатом вычислений.

     3. Принцип адресности. Структурно  основная память состоит из  пронумерованных ячеек; процессору  в произвольный момент времени  доступна любая ячейка. Это позволяет  обращаться к произвольной ячейке (адресу) без просмотра предыдущих.

     Компьютеры, построенные на этих принципах, относят  к типу фон неймановских. На сегодняшний  день это подавляющие большинство  компьютеров, в том числе и IBM PС–совместимые. Но есть и компьютерные системы с иной архитектурой – например системы для параллельных вычислений.

     Архитектура фон Неймана (англ. von Neumann architecture) — широко известный принцип совместного хранения программ и данных в памятикомпьютераВычислительные системы такого рода часто обозначают термином «машина фон Неймана», однако, соответствие этих понятий не всегда однозначно. В общем случае, когда говорят об архитектуре фон Неймана, подразумевают физическое отделение процессорного модуля от устройств хранения программ и данных.

     Наличие заданного набора исполняемых команд и программ было характерной чертой первых компьютерных систем. Сегодня подобный дизайн применяют с целью упрощения конструкции вычислительного устройства. Так, настольные калькуляторы, в принципе, являются устройствами с фиксированным набором выполняемых программ. Их можно использовать для математических расчётов, но невозможно применить для обработки текста и компьютерных игр, для просмотра графических изображений или видео. Изменение встроенной программы для такого рода устройств требует практически полной их переделки, и в большинстве случаев невозможно. Впрочем, перепрограммирование ранних компьютерных систем всё-таки выполнялось, однако требовало огромного объёма ручной работы по подготовке новой документации, перекоммутации и перестройки блоков и устройств и т. п.

     Всё изменила идея хранения компьютерных программ в общей памяти. Ко времени  её появления использование архитектур, основанных нанаборах исполняемых инструкций, и представление вычислительного процесса как процесса выполнения инструкций, записанных в программе, чрезвычайно увеличило гибкость вычислительных систем в плане обработки данных. Один и тот же подход к рассмотрению данных и инструкций сделал лёгкой задачу изменения самих программ.

     Принципы  фон Неймана

     В 1946 году трое учёных[1] — Артур Бёркс (англ. Arthur Burks), Герман Голдстайн (англHerman Goldstein) и Джон фон Нейман — опубликовали статью «Предварительное рассмотрение логического конструирования электронного вычислительного устройства»[2]. В статье обосновывалось использование двоичной системы для представления данных в ЭВМ (преимущественно для технической реализации, простота выполнения арифметических и логических операций — до этого машины хранили данные в десятичном виде[3]), выдвигалась идея использования общей памяти для программы и данных. Имя фон Неймана было достаточно широко известно в науке того времени, что отодвинуло на второй план его соавторов, и данные идеи получили название «принципы фон Неймана».

     1. Принцип двоичного кодирования. Согласно этому принципу, вся информация, поступающая в ЭВМ, кодируется с помощью двоичных сигналов (двоичных цифр, битов) и разделяется на единицы, называемые словами.

     2. Принцип однородности памяти. Программы и данные хранятся в одной и той же памяти. Поэтому ЭВМ не различает, что хранится в данной ячейке памяти - число, текст или команда. Над командами можно выполнять такие же действия, как и над данными.

     3. Принцип адресуемости памяти. Структурно основная память состоит из пронумерованных ячеек; процессору в произвольный момент времени доступна любая ячейка.Отсюда следует возможность давать имена областям памяти, так, чтобы к запомненным в них значениям можно было бы впоследствии обращаться или менять их в процессе выполнения программы с использованием присвоенных имен.

Информация о работе Внешняя память компьютера