История развития суперкомпьютеров в России и за рубежом

Автор: Пользователь скрыл имя, 30 Сентября 2011 в 18:35, реферат

Описание работы

На сегодняшний день информационные технологии и электронно-вычислительная техника играют очень большую роль в нашей жизни. Но потребности общества растут практически с каждым днем, и, соответственно, уровень производительности компьютеров возрастает также быстро. За 50 лет производительность компьютеров возросла в несколько раз, да и это еще мягко сказано.

Содержание

Введение 2

Линейка процессоров супер-ЭВМ. 4

Супер ЭВМ 5

Что же вообще такое – суперкомпьютеры? 5

Для чего же необходимы суперкомпьютеры? 7

Принципы обработки данных 9

Параллельная обработка 10

Конвейерная обработка 11

Современные суперкомпьютеры. 12

Четыре направления идёт развитие высокопроизводительной вычислительной техники: 12

Суперкомпьютеры в России. 15

Зарубежные суперкомпьютеры 17

Заключение 19

Работа содержит 1 файл

реферат_информатика.docx

— 98.29 Кб (Скачать)

 

Принципы  обработки данных

   Итак, мы видим, что без суперкомпьютеров сегодня действительно не обойтись. Осталось прояснить еще один вопрос: почему они считают так быстро? Это может быть связано, во-первых, с развитием элементной базы и, во-вторых, с использованием новых решений  в архитектуре компьютеров. | Попробуем  разобраться, какой из этих факторов оказывается решающим для достижения рекордной производительности. Обратимся  к известным историческим фактам. На одном из первых компьютеров мира EDSAC, появившемся в 1949 году в Кембридже и имевшем время такта 2 микросекунды (210* секунды), можно было выполнить 2п арифметических операций за 18п миллисекунд, то есть в среднем 100 арифметических операций в секунду. Сравним с одним вычислительным узлом современного суперкомпьютера Hewlett-Packard V2600: время такта приблизительно 1,8 наносекунды , а пиковая производительность—около 77 миллиардов арифметических операций в секунду.

   Что же получается? За полвека производительность компьютеров выросла более чем  в семьсот миллионов раз. При  этом выигрыш в быстродействии, связанный  с уменьшением времени такта  с 2 микросекунд до 1,8 наносекунды, составляет лишь около 1000 раз. Откуда же взялось  остальное? Ответ очевиден — за счет использования новых решений  в архитектуре компьютеров. Основное место среди них занимает принцип  параллельной обработки данных, воплощающий  идею одновременного (параллельного) выполнения нескольких действий.

   Различают два способа параллельной обработки: собственно-параллельную и конвейерную. Оба способа интуитивно абсолютно  понятны, поэтому сделаем лишь небольшие  пояснения.

 

Параллельная  обработка

   Предположим для простоты, что некое устройство выполняет одну операцию за один такт. В этом случае тысячу операций такое  устройство выполнит за тысячу тактов. Если имеется пять таких же независимых  устройств, способных работать одновременно, то ту же тысячу операций система из пяти устройств может выполнить  уже не за тысячу, а за двести тактов. Аналогично система из N устройств ту же работу выполнит за 1000/N тактов. Подобные примеры можно найти и в жизни: если один солдат выкопает траншею за 10 часов, то рота солдат из пятидесяти человек с такими же способностями, работая одновременно, справится с той же работой за 12 минут—  принцип параллельности в действии!

   Кстати, пионером в параллельной обработке  потоков данных был академик А. А. Самарский, выполнявший в начале 50-х годов расчеты, необходимые  для моделирования ядерных взрывов. Самарский решил эту задачу методом  сеток, посадив несколько десятков барышень с арифмометрами за столы (узлы сетки). Барышни передавали данные одна другой просто на словах и откладывали  необходимые цифры на арифмометрах. Таким образом, в частности, была рассчитана эволюция взрывной волны. Работы было много,  барышни уставали, а  Александр Андреевич ходил между  ними и подбадривал. Так создали, можно сказать, первую параллельную систему. Хотя расчеты водородной бомбы  провели мастерски, точность их оказалась  очень низкой, потому что узлов  в используемой сетке было мало, а время счета получалось слишком  большим.

 

Конвейерная обработка

   Что необходимо для сложения двух вещественных чисел, представленных в форме с плавающей запятой? Целое множество мелких операций, таких, как сравнение порядков, выравнивание порядков, сложение мантисс, нормализация и т.п. Процессоры первых компьютеров выполняли все эти «микрооперации» для каждой пары слагаемых последовательно, одну за другой, до тех пор, пока не доходили до окончательного результата, и лишь после этого переходили к обработке следующей пары слагаемых.

   Идея  конвейерной обработки заключается  в расчленении операции на отдельные этапы, или, как это принято называть, ступени конвейера. Каждая ступень, выполнив свою работу, передает результат следующей ступени, одновременно принимая новую порцию входных данных. Получается очевидные выигрыш в скорости обработки

 

Современные суперкомпьютеры.

Четыре  направления идёт развитие высокопроизводительной вычислительной техники:

Векторно-конвейерные  компьютеры

     Две главные особенности таких машин: наличие функциональных конвейерных  устройств и набора векторных  команд. В отличие от обычных команд векторные оперируют целыми массивами  независимых данных, то есть команда  вида А=В+С может означать сложение двух массивов, а не двух чисел. Характерный  представитель данного направления  — семейство векторно-конвейерных  компьютеров CRAY, куда входят, например, CRAY EL, CRAY J90, CRAY T90 (в марте этого года американская компания TERA перекупила подразделение CRAY у компании Silicon Graphics, Inc.).

     Идея  построения компьютеров этого класса тривиальна: серийные микропроцессоры  соединяются с помощью сетевого оборудования — вот и все. Достоинств у такой архитектуры масса: если нужна высокая производительность, то можно добавить процессоры, а  если ограничены финансы или заранее  известна требуемая вычислительная мощность, то легко подобрать оптимальную  конфигурацию. К этому же классу можно отнести и простые сети компьютеров, которые сегодня все  чаще рассматриваются как дешевая  альтернатива крайне дорогим суперкомпьютерам. (Правда, написать эффективную параллельную программу для таких сетей  довольно сложно, а в некоторых  случаях просто невозможно). К массивно параллельным можно отнести компьютеры Intel Paragon, ASCI RED, IBM SP1, Parsytec, в какой-то степени IBM SP2 и CRAYT3D/T3E.

 

     

Параллельные  компьютеры с общей памятью.

     Вся оперативная память в таких компьютерах  разделяется несколькими одинаковыми  процессорами, обращающимися к общей  дисковой памяти. Проблем с обменом  данными между процессорами и  синхронизацией их работы практически  не возникает. Вместе с тем главный  недостаток такой архитектуры состоит  в том, что по чисто техническим  причинам число процессоров, имеющих  доступ к общей памяти, нельзя сделать  большим. В данное направление суперкомпьютеров входят многие современные SMP-компьютеры (Symmetric).

 

Кластерные  компьютеры

     Этот  класс суперкомпьютеров, строго говоря, нельзя назвать самостоятельным, скорее, он представляет собой комбинации предыдущих трех. Из нескольких процессоров, традиционных или векторно-конвейерных, и общей  для них памяти формируется вычислительный узел. Если мощности одного узла недостаточно, создается кластер из нескольких узлов, объединенных высокоскоростными  каналами. По такому принципу построены  CRAY SV1..HP Exemplar, Sun StarFire, NEC SX-5, последние модели IBM SP2 и другие. В настоящее время именно это направление считается наиболее перспективным.

     Два раза в год составляется список пятисот  самых мощных вычислительных установок  мира Согласно последней редакции списка top500, вышедшей в ноябре прошлого года, первое место занимает массивно-параллельный компьютер Intel ASCI Red. На второй позиции стоит компьютер ASCI Blue-Pacific от IBM, объединяющий 5808 процессоров PowerPC 604e/332MHz. Оба эти суперкомпьютера созданы в рамках американской национальной программы Advanced Strategic Computing Initiative, аббревиатура которой и присутствует в названии. Производительность компьютера, стоящего на последнем, 500-м, месте в списке самых мощных, составляет 33,4 миллиарда операций в секунду.

   Если  мощность существующих компьютеров  поражает, то что говорить о планах. В декабре 1999 года корпорация IBM сообщила о новом исследовательском проекте общей стоимостью около 100 миллионов долларов, цель которого — построение суперкомпьютера, в 500 раз превосходящего по производительности самые мощные компьютеры сегодняшнего дня. Компьютер, имеющий условное название Blue Gene, будет иметь производительность порядка 1 PETAFLOPS (10й операций в секунду) и использоваться для изучения свойств белковых молекул. Предполагается, что каждый отдельный процессор Blue Gene будет иметь производительность порядка 1 GFLOPS (109 операций в секунду). 32 подобных процессора будут помещены на одну микросхему. Компактная плата размером 2x2 фута будет вмещать 64 микросхемы, что по производительности не уступает упоминавшимся ранее суперкомпьютерам ASCI, занимающим площадь 8000 квадратных метров. Более того, 8 таких плат будут помещены в 6-футовую стойку, а вся система будет состоять из : 64 стоек с суммарной производительности) 1 PFLOPS.

 

Виртуальная многопроцессорность

     Основной  смысл технологии Hyper-Threading заключается в поддержке многопотокового исполнения программ. Эта технология позволяет на одном физическом процессоре одновременно исполнять два задания или два фрагмента кода одной программы. Таким образом, один процессор воспринимается операционной системой как два логических устройства, интенсивная работа которых осуществляется параллельно. Производительность таких систем, как правило, значительно превышает аналогичные параметры компьютеров, построенных на основе процессоров традиционной архитектуры. Нередки случаи, когда производительность однопроцессорных решений с реализацией Hyper-Threading повышается на 30%. А это для конфигурации с 3 ГГц процессором эквивалентно применению модели с частотой работы 4 ГГц. Остается добавить, что аудитории были продемонстрированы различные смеси задач, в которых рост производительности превышал 60%, что соответствует уже, по крайней мере, процессору 5 ГГц — уровень пока практически недостижимый даже для оверклокеров, оперирующих традиционными средствами охлаждения. Поддержка технологии Hyper Treading осуществляется многозадачными операционными системами. В качестве таких систем можно привести, Сравнение ПК на базе процессора Pentium® 4 с поддержкой технологии Hyper-Threading и обычной двухпроцессорной системы.

    Суперкомпьютеры в  России.

   Идеи  построения собственных суперкомпьютерных  систем существовали в России всегда. Еще в 1966 году М.А.Карцев выдвинул идею создания многомашинного вычислительного  комплекса М-9 производительностью  около миллиарда операций в секунду. В то время ни одна из машин мира не работала с такой скоростью. Однако, несмотря на положительную оценку министерства, комплекс М-9 промышленного освоения не получил. Работы по созданию суперкомпьютерных  систем и суперкомпьютерных центров  ведутся в России и сейчас. Наиболее известна линия отечественных суперкомпьютеров М8С-1000, создаваемая в кооперации научно-исследовательских институтов Российской академии наук и 1ромышленности. Супер-ЭВМ линии МВС-1000—это мультипроцессорный массив, объединенный с внешней дисковой памятью, устройствами ввода/вывода информации и управ 1яющим компьютером. Компьютеры МВС-КЮ0 используют микропроцессоры  Alpha 21I64 (разработка фирмы DEC-Compaq) с производительностью до 1—2 миллиардов операций в секунду и оперативной памятью объемом 0,1—2 Кбайт.

   Моделирование структурообразования и динамики молекулярных и бимолекулярных систем, решение  задач линейных дифференциальных игр, расчет деформаций твердых тел с  учетом процессов разрушения и многие другие. Одна из самых мощных систем линии КIBC-1000, установленная в Межведомственно и суперкомпьютерном центре, содержит 96 процессоров. В последнее время в России, так же как и во всем мире, активно используется кластерный подход к построению суперкомпьютеров. Подкупаются стандартные компьютеры и рабочие. станции, которые с помощью стандартных сетевых средств объединяются в параллельную вычислительную систему. По такому пути пошел, и, надо сказать, успешно, НИ вычислительный центр МГУ, создавший кластер из 12 двухпроцессорных серверов. Сегодня это одна из самых крупнейших в России вычислительных станций. При невысокой стоимости кластер НИВЦ МГУ имеет производительность 5,7 миллиарда операций в секунду при решении линейных уравнений с плотной матрицей размером 16000*16000! В будущем планируется увеличить мощность кластера, как за счет добавления новых узлов, так и за счет технической модернизации старых.

 

Зарубежные  суперкомпьютеры

  Организация TOP500 Supercomputer sites с 1993 года публикует статистику по 500 наиболее мощным суперкомпьютерам. По данным на июнь 2003 года 5 лучших компьютеров:

  1. Система Earth Simulator (ES), созданная японскими агентствами NASDA, JAERI and JAMSTEC с производительностью 40 TFLOPS, предназначена для точного прогнозирования погодных условий
  2. Компьютер ASCI Q. Национальная лаборатория США, г. Лос-Аламос. Производитель Hewlett-Packard. 3072 серверов AlphaServer ES45s, 12288 процессоров EV-68 1.25 ГГц. Быстродействие 13,88 TFLOPS Суперкомпьютерная система Q в Национальной лаборатории Лос Аламоса (LANL) - компонент Программы Углубленных Моделирований и вычислений (ASCI) - сотрудничества между департаментом Ядерной Безопасности Министерства Энергетики США и национальных лабораторий Лос Аламоса. Задачей ASCI является  создание и использование возможностей для обеспечения безопасности хранения ядерного запаса.
  3. Кластер G5 в Блэксбурге, США, содержит 1100 компонентов Apple  G5, каждый из которых содержит 970 процессоров IBM PowerPC, частотой в 2GHz. Каждый узел имеет 4GB КЭШ-памяти и 160GB SATA накопителей. 176TB общих накопителей.  главных узла для запуска компиляций/работы.  узел управления. Быстродействие 10,28 TFLOPS. Производитель – Apple G5/Mellanox.
  4. Tungsten, самый последний кластер NCSA, будет использовать более чем 1450 двойных процессоров Dell PowerEdge, 1750 серверов, управляемых Red Hat Linux, специальную cеть высокого быстродействия Myrinet 2000,  группу ввода-вывода с более чем 120 TB памяти. Этот комплекс создан для вычислений по решению проблем окружающей среды. Как ожидается, Tungsten будет обладать производительностью в 17.7 TFLOPS.
  5. Тихоокеанская Северо-западная Национальная лаборатория Ричланда, США, обладает пятым в мире по производительности суперкомпьютером MPP2. Его производительность равняется 11 TFLOPS? Что достигнуто благодаря 980 процессорам HP/Linux Titanium 2 (Madison), каждый с тактовой частотой в 1,5 ГГц. Система управляется операционной системой Linux версии Red Hat Linux Advanced Server. Комплекс предназначен для решения сложных вычислительных процессов, связанных с экологическими и биологическими процессами.

Информация о работе История развития суперкомпьютеров в России и за рубежом