Комп'ютерна мережа

Автор: Пользователь скрыл имя, 19 Мая 2013 в 16:11, реферат

Описание работы

Комп'ютерна мережа (обчислювальна мережа, мережа передачі даних) - система зв'язку комп'ютерів і/або комп'ютерного устаткування (сервери, маршрутизатори і інше устаткування, канали зв'язку). Для передачі інформації можуть бути використані різні фізичні явища, як правило - різні види електричних, світлових сигналів або електромагнітного випромінювання.
Розрізняють два поняття мережі : комунікаційна мережа і інформаційна мережа.
Комунікаційна мережа призначена для передачі даних, також вона виконує завдання, пов'язані з перетворенням даних. Комунікаційні мережі розрізняються за типом використовуваних фізичних засобів з'єднання.

Работа содержит 1 файл

kl-komp-seti.doc

— 878.50 Кб (Скачать)

Для того, щоб ефективно консолідувати різні види трафіку в мережі АТМ, вимагається спеціальна попередня підготовка (адаптація) даних, таких, що мають різний характер : кадри - для цифрових даних, сигнали імпульсно-кодової модуляції - для голосу, потоки бітів - для відео. Ефективна консолідація трафіку вимагає також обліку і використання статистичних варіацій інтенсивності різних типів трафіку.

Керованість

ISO (International Standardization Organization - Міжнародна організація по стандартизації) внесла великий вклад до стандартизації мереж. Модель управління мережі є основним засобом для розуміння головних функцій систем управління мережі. Ця модель складається з 5 концептуальних областей:

- управління ефективністю;

- управління конфігурацією;

- управління обліком використання ресурсів;

- управління несправностями;

- управління захистом даних.

Управління  ефективністю

Мета управління ефективністю - вимір і забезпечення різних аспектів ефективності мережі для того, щоб  міжмережева ефективність могла  підтримуватися на прийнятному рівні. Прикладами змінних ефективності, які  могли б бути забезпечені, є пропускна спроможність мережі, час реакції користувачів і коефіцієнт використання лінії.

Управління ефективністю включає декілька етапів:

- збір інформації про ефективність по тих змінних, які представляють інтерес для адміністраторів мережі;

- визначення відповідних порогів ефективності для кожної важливої змінної таким чином, що перевищення цих порогів вказує на наявність проблеми в мережі, гідній уваги.

Управління  конфігурацією 

Мета управління конфігурацією - контроль інформації про мережеву і системну конфігурацію для того, щоб можна було відстежувати і управляти дією на роботу мережі різних версій апаратних і програмних елементів. Оскільки усі апаратні і програмні елементи мають експлуатаційні відхилення, погрішності (чи те і інше разом), які можуть впливати на роботу мережі, така інформація важлива для підтримки гладкої роботи мережі.

Кожен пристрій мережі має  в розпорядженні різноманітну інформацію про версії, що асоціюються з ним. Щоб забезпечити легкий доступ, підсистеми управління конфігурацією зберігають цю інформацію в базі даних. Коли виникає яка-небудь проблема, в цій базі даних може бути проведений пошук ключів, які могли б допомогти розв'язати цю проблему.

Управління  обліком використання ресурсів

Мета управління обліком  використання ресурсів - вимір параметрів використання мережі, щоб можна було відповідним чином регулювати її використання індивідуальними або груповими користувачами. Таке регулювання мінімізує число проблем в мережі (оскільки ресурси мережі можуть бути поділені виходячи з можливостей джерела) і максимізував рівнодоступність до мережі для усіх користувачів.

Управління  несправностями

Мета управління несправностями - виявити, зафіксувати, повідомити користувачів і (в межах можливого) автоматично  усунути проблеми в мережі, з тим щоб ефективно підтримувати роботу мережі. Оскільки несправності можуть привести до простоїв або неприпустимої деградації мережі, управління несправностями, ймовірно, є найбільш широко використовуваним елементом моделі управління мережі ISO.

Управління несправностями включає декілька кроків:

    • визначення симптомів проблеми;
    • ізолювання проблеми;
    • усунення проблеми;
    • перевірка усунення несправності на усіх важливих підсистемах;
    • реєстрація виявлення проблеми і її рішення.

Управління  захистом даних 

Мета управління захистом даних - контроль доступу до мережевих ресурсів відповідно до місцевих керівних принципів, щоб зробити неможливими саботаж мережі і доступ до чутливої інформації особам, що не мають відповідного дозволу. Наприклад, одна з підсистем управління захистом даних може контролювати реєстрацію користувачів ресурсу мережі, відмовляючи в доступі тим, хто вводить коди доступу, не відповідні встановленим.

Підсистеми управління захистом даних працюють шляхом розподілу  джерел на санкціоновані і несанкціоновані області. Для деяких користувачів доступ до будь-якого джерела мережі є невідповідним.

Підсистеми управління захистом даних виконують наступні функції:

  • ідентифікують чутливі ресурси мережі (включаючи системи, файли і інші об'єкти);
  • визначають відображення у вигляді карт між чутливими джерелами мережі і набором користувачів;
  • контролюють точки доступу до чутливих ресурсів мережі;
    • реєструють невідповідний доступ до чутливих ресурсів мережі.

Сумісність

Сумісність і мобільність  програмного забезпечення. Концепція програмної сумісності уперше в широких масштабах була застосована розробниками системи IBM/360. Основне завдання при проектуванні усього ряду моделей цієї системи полягало в створенні такої архітектури, яка була б однаковою з точки зору користувача для усіх моделей системи незалежно від ціни і продуктивності кожної з них. Величезні переваги такого підходу, що дозволяє зберігати існуючий заділ програмного забезпечення при переході на нові (як правило, продуктивніші) моделі, були швидко оцінені як виробниками комп'ютерів, так і користувачами, і починаючи з цього часу практично усі фірми-постачальники комп'ютерного устаткування узяли на озброєння ці принципи, поставляючи серії сумісних комп'ютерів. Слід помітити проте, що з часом навіть сама передова архітектура неминуче застаріває і виникає потреба внесення радикальних змін в архітектуру і способи організації обчислювальних систем.

Нині одним з найбільш важливих чинників, що визначають сучасні  тенденції в розвитку інформаційних  технологій, є орієнтація компаній-постачальників комп'ютерного устаткування на ринок прикладних програмних засобів.

Цей перехід висунув  ряд нових вимог. Передусім, таке обчислювальне середовище повинне  дозволяти гнучко міняти кількість  і склад апаратних засобів  і програмного забезпечення відповідно до вимог вирішуваних завдань, що міняються. По-друге, вона повинна забезпечувати можливість запуску одних і тих же програмних систем на різних апаратних платформах, тобто забезпечувати мобільність програмного забезпечення. По-третє, це середовище повинне гарантувати можливість застосування одних і тих же людино-машинних інтерфейсів на усіх комп'ютерах, що входять в неоднорідну мережу. В умовах жорсткої конкуренції виробників апаратних платформ і програмного забезпечення сформувалася концепція відкритих систем, сукупність стандартів, що є, на різні компоненти обчислювального середовища, призначених для забезпечення мобільності програмних засобів у рамках неоднорідної, розподіленої обчислювальної системи.

 

Питання

1. Які основні вимоги пред'являються до мереж?

2. Що таке продуктивність мережі?

3. Які характеристики впливають на продуктивність мережі?

4. Які є способи підвищення продуктивності мереж?

5. Як забезпечити високошвидкісну пересилку трафіку?

6. Чим забезпечується надійність мережі?

7. Що таке відмовостійкість?

8. Перерахувати завдання безпеки даних в мережі.

9. Для якої мети використовується резервне копіювання?

10. Чим забезпечується безпека мереж в клієнт-серверній архітектурі?

11. Для якої мети встановлюються екрановані лінії в мережі?

12. Що таке прозорість мереж?

13. У якому випадку лінія прозора по відношенню до типів сигналів?

14. Що таке прозоре з'єднання?

15. Що використовується для розподілу мережі на сегменти?

16. Яким чином можна зменшити трафік в мережі?

17. Дати визначення керованості мереж і перерахувати основні функції управління мережами.

18. Що включається в управління ефективністю?

19. Для якої мети використовується управління несправностями?

20. Для чого потрібне управління конфігурацією?

21. Яка мета управління захистом даних?

22. Які функції підсистеми управління захистом даних?

23. Дати визначення поняття сумісності мереж.

5. Глобальна  мережа Internet (інтернет). WWW.

Історія виникнення Інтернету. Поняття Інтернету. Стек протоколів TCP/IP.

В середині 60-х років Міністерство оборони США побажало управляти мережею, яка могла б пережити навіть ядерну війну. Звичайні мережі, сполучені телефонними дротами, були визнані занадто уразливими, оскільки втрата однієї лінії або комутатора перервала б зв'язок, для якого ця лінія або комутатор використовувалися, а можливо, навіть розділила б мережу на окремі ділянки. У цих мережах використовувалася комутація каналів (коли на час передачі інформації пари комп'ютерів з'єднуються "один-с-одним" і в період з'єднання відбувається передача усього об'єму інформації). Для вирішення проблеми Міністерство оборони звернулося до управління перспективного планування науково-дослідних робіт ARPA (Advanced Research Projects Agency). Приблизно в цей же час Теодором Хольме Нельсоном була придумана ідея гіпертексту (сам термін уперше був вимовлений в 1965 році).

 У грудні 1969 року  вдалося запустити експериментальну  мережу (ARPANET), що складається з  4 вузлів. Ця мережа підтримувала  комутацію пакетів (коли необхідні  для передачі дані розбиваються на частини, а до кожної частини приєднується заголовок, що містить повну інформацію про доставку пакету за призначенням). В процесі експлуатації з'ясувалося, що наявні протоколи мережі не придатні для роботи з об'єднаними мережами. В результаті були проведені додаткові дослідження в області протоколів, що завершилися в середині 70-х винаходом моделі і протоколів TCP/IP. TCP/IP був спеціально розроблений для управління обміном даними по інтермережах, що ставало усе більш важливим у міру підключення усе нових мереж до ARPANET. У 1980 році були представлені основні принципи об'єднання мереж:

· мережі взаємодіють між собою по протоколу TCP/IP;

· об'єднання мереж проводиться через спеціальні шлюзи (gateway);

· усі комп'ютери, що підключаються, мають єдині методи адресації.

 З 1983 року протокол TCP/IP став обов'язковим на усіх  комп'ютерах ARPANET. Розвиток мережі  відбувався досить швидкими темпами.  До 1984 року число хост-систем (крайових  систем) перевищило 1000. У цьому ж  році вводиться принцип системи  найменування доменів (Domain Name System, DNS), що дозволяє замінити цифрові адреси комп'ютерів символьними іменами.

Сучасна історія Інтернету  почалася в 1989 році, коли Тім Бернерс-Ли (Tim Berners - Lee) в Європейській лабораторії  фізики елементарних часток (CERN) розробив технологію гіпертекстових документів - World Wide Web (WWW), що дозволяє користувачам мати доступ до будь-якої інформації, що знаходиться в мережі Інтернет на комп'ютерах по всьому світу. Саме ця розробка зумовила кінець кінцем вибухове зростання числа

користувачів Інтернету.  За минулий час WWW пройшов декілька фаз розвитку.

Символьний  гіпертекст

Спочатку Web була текстовою  гіперпосилальною системою. Перша програма-браузер (браузер - програма для перегляду html -документов) LineMode, створена в 1991 році, не підтримувала графіку і "мишу". Можна лише було переглядати статичні гіпертекстові сторінки, вводячи номери сторінок, що переглядаються.

Графічно-орієнтовані  статичні HTML -документы

Ця фаза почалася в  лютому 1993 року з випуском браузеру NSCA Mosaic. Браузер розроблявся для Національного центру по застосуванню супер-ЕОМ (NSCA). Це була невелика програма (9000 рядків коду), що працює тільки під X, - windows (графічна оболонка для операційних систем сімейства unix). Але в ній було головне - графіка стала повноправною частиною інтерфейсу, а миша - єдиним засобом роботи. Розробники Mosaic створили повністю новий інтерфейс для Інтернет. Інтерфейс виявився настільки приємний на погляд і в роботі, що підкорював кожного, хто починав з ним працювати просто з цікавості. Браузер не вимагав від користувачів знань про внутрішній устрій мережі. Інтернет відкрив простори мільйонам користувачів.

Через декілька місяців  комп'ютерні компанії стали цілеспрямовано проникати в Web, яка сама по собі залишалася статичною. Вміст включав текстові або графічні документи і ряд інших елементів. Можливо, сторінка містила аудио- або відеофайли, які доводилося спочатку завантажувати, а потім програвати, використовуючи зовнішні застосування.

Динамічні HTML -документы

Протягом перших двох фаз Web -страницы створювалися за допомогою текстового редактора HTML і поміщалися на сервер. Вони залишалися незмінними до тих пір, поки автор не змінював їх. Для динамічної генерації стали використовувати CGI -сценарии (сценарії інтерфейсу загального шлюзу), які дозволяли на сервері генерувати HTML -страницы. З таким удосконаленням Web могла служити середовищем прикладного програмування, де уся обробка, проте проводилася на сервері.

Информация о работе Комп'ютерна мережа