Автор: Пользователь скрыл имя, 19 Мая 2013 в 16:11, реферат
Комп'ютерна мережа (обчислювальна мережа, мережа передачі даних) - система зв'язку комп'ютерів і/або комп'ютерного устаткування (сервери, маршрутизатори і інше устаткування, канали зв'язку). Для передачі інформації можуть бути використані різні фізичні явища, як правило - різні види електричних, світлових сигналів або електромагнітного випромінювання.
Розрізняють два поняття мережі : комунікаційна мережа і інформаційна мережа.
Комунікаційна мережа призначена для передачі даних, також вона виконує завдання, пов'язані з перетворенням даних. Комунікаційні мережі розрізняються за типом використовуваних фізичних засобів з'єднання.
Для того, щоб ефективно консолідувати різні види трафіку в мережі АТМ, вимагається спеціальна попередня підготовка (адаптація) даних, таких, що мають різний характер : кадри - для цифрових даних, сигнали імпульсно-кодової модуляції - для голосу, потоки бітів - для відео. Ефективна консолідація трафіку вимагає також обліку і використання статистичних варіацій інтенсивності різних типів трафіку.
Керованість
ISO (International Standardization Organization
- Міжнародна організація по
- управління ефективністю;
- управління конфігурацією;
- управління обліком використання ресурсів;
- управління несправностями;
- управління захистом даних.
Управління ефективністю
Мета управління ефективністю - вимір і забезпечення різних аспектів ефективності мережі для того, щоб міжмережева ефективність могла підтримуватися на прийнятному рівні. Прикладами змінних ефективності, які могли б бути забезпечені, є пропускна спроможність мережі, час реакції користувачів і коефіцієнт використання лінії.
Управління ефективністю включає декілька етапів:
- збір інформації про ефективність по тих змінних, які представляють інтерес для адміністраторів мережі;
- визначення відповідних порогів ефективності для кожної важливої змінної таким чином, що перевищення цих порогів вказує на наявність проблеми в мережі, гідній уваги.
Управління конфігурацією
Мета управління конфігурацією - контроль інформації про мережеву і системну конфігурацію для того, щоб можна було відстежувати і управляти дією на роботу мережі різних версій апаратних і програмних елементів. Оскільки усі апаратні і програмні елементи мають експлуатаційні відхилення, погрішності (чи те і інше разом), які можуть впливати на роботу мережі, така інформація важлива для підтримки гладкої роботи мережі.
Кожен пристрій мережі має в розпорядженні різноманітну інформацію про версії, що асоціюються з ним. Щоб забезпечити легкий доступ, підсистеми управління конфігурацією зберігають цю інформацію в базі даних. Коли виникає яка-небудь проблема, в цій базі даних може бути проведений пошук ключів, які могли б допомогти розв'язати цю проблему.
Управління обліком використання ресурсів
Мета управління обліком використання ресурсів - вимір параметрів використання мережі, щоб можна було відповідним чином регулювати її використання індивідуальними або груповими користувачами. Таке регулювання мінімізує число проблем в мережі (оскільки ресурси мережі можуть бути поділені виходячи з можливостей джерела) і максимізував рівнодоступність до мережі для усіх користувачів.
Управління несправностями
Мета управління несправностями - виявити, зафіксувати, повідомити користувачів і (в межах можливого) автоматично усунути проблеми в мережі, з тим щоб ефективно підтримувати роботу мережі. Оскільки несправності можуть привести до простоїв або неприпустимої деградації мережі, управління несправностями, ймовірно, є найбільш широко використовуваним елементом моделі управління мережі ISO.
Управління несправностями включає декілька кроків:
Управління захистом даних
Мета управління захистом даних - контроль доступу до мережевих ресурсів відповідно до місцевих керівних принципів, щоб зробити неможливими саботаж мережі і доступ до чутливої інформації особам, що не мають відповідного дозволу. Наприклад, одна з підсистем управління захистом даних може контролювати реєстрацію користувачів ресурсу мережі, відмовляючи в доступі тим, хто вводить коди доступу, не відповідні встановленим.
Підсистеми управління
захистом даних працюють шляхом розподілу
джерел на санкціоновані і несанкціонован
Підсистеми управління захистом даних виконують наступні функції:
Сумісність
Сумісність і мобільність програмного забезпечення. Концепція програмної сумісності уперше в широких масштабах була застосована розробниками системи IBM/360. Основне завдання при проектуванні усього ряду моделей цієї системи полягало в створенні такої архітектури, яка була б однаковою з точки зору користувача для усіх моделей системи незалежно від ціни і продуктивності кожної з них. Величезні переваги такого підходу, що дозволяє зберігати існуючий заділ програмного забезпечення при переході на нові (як правило, продуктивніші) моделі, були швидко оцінені як виробниками комп'ютерів, так і користувачами, і починаючи з цього часу практично усі фірми-постачальники комп'ютерного устаткування узяли на озброєння ці принципи, поставляючи серії сумісних комп'ютерів. Слід помітити проте, що з часом навіть сама передова архітектура неминуче застаріває і виникає потреба внесення радикальних змін в архітектуру і способи організації обчислювальних систем.
Нині одним з найбільш важливих чинників, що визначають сучасні тенденції в розвитку інформаційних технологій, є орієнтація компаній-постачальників комп'ютерного устаткування на ринок прикладних програмних засобів.
Цей перехід висунув ряд нових вимог. Передусім, таке обчислювальне середовище повинне дозволяти гнучко міняти кількість і склад апаратних засобів і програмного забезпечення відповідно до вимог вирішуваних завдань, що міняються. По-друге, вона повинна забезпечувати можливість запуску одних і тих же програмних систем на різних апаратних платформах, тобто забезпечувати мобільність програмного забезпечення. По-третє, це середовище повинне гарантувати можливість застосування одних і тих же людино-машинних інтерфейсів на усіх комп'ютерах, що входять в неоднорідну мережу. В умовах жорсткої конкуренції виробників апаратних платформ і програмного забезпечення сформувалася концепція відкритих систем, сукупність стандартів, що є, на різні компоненти обчислювального середовища, призначених для забезпечення мобільності програмних засобів у рамках неоднорідної, розподіленої обчислювальної системи.
Питання
1. Які основні вимоги пред'являються до мереж?
2. Що таке продуктивність мережі?
3. Які характеристики впливають на продуктивність мережі?
4. Які є способи підвищення продуктивності мереж?
5. Як забезпечити високошвидкісну пересилку трафіку?
6. Чим забезпечується надійність мережі?
7. Що таке відмовостійкість?
8. Перерахувати завдання безпеки даних в мережі.
9. Для якої мети використовується резервне копіювання?
10. Чим забезпечується безпека мереж в клієнт-серверній архітектурі?
11. Для якої мети встановлюються екрановані лінії в мережі?
12. Що таке прозорість мереж?
13. У якому випадку лінія прозора по відношенню до типів сигналів?
14. Що таке прозоре з'єднання?
15. Що використовується для розподілу мережі на сегменти?
16. Яким чином можна зменшити трафік в мережі?
17. Дати визначення керованості мереж і перерахувати основні функції управління мережами.
18. Що включається в управління ефективністю?
19. Для якої мети використовується управління несправностями?
20. Для чого потрібне управління конфігурацією?
21. Яка мета управління захистом даних?
22. Які функції підсистеми управління захистом даних?
23. Дати визначення поняття сумісності мереж.
Історія виникнення Інтернету. Поняття Інтернету. Стек протоколів TCP/IP.
В середині 60-х років Міністерство оборони США побажало управляти мережею, яка могла б пережити навіть ядерну війну. Звичайні мережі, сполучені телефонними дротами, були визнані занадто уразливими, оскільки втрата однієї лінії або комутатора перервала б зв'язок, для якого ця лінія або комутатор використовувалися, а можливо, навіть розділила б мережу на окремі ділянки. У цих мережах використовувалася комутація каналів (коли на час передачі інформації пари комп'ютерів з'єднуються "один-с-одним" і в період з'єднання відбувається передача усього об'єму інформації). Для вирішення проблеми Міністерство оборони звернулося до управління перспективного планування науково-дослідних робіт ARPA (Advanced Research Projects Agency). Приблизно в цей же час Теодором Хольме Нельсоном була придумана ідея гіпертексту (сам термін уперше був вимовлений в 1965 році).
У грудні 1969 року
вдалося запустити
· мережі взаємодіють між собою по протоколу TCP/IP;
· об'єднання мереж проводиться через спеціальні шлюзи (gateway);
· усі комп'ютери, що підключаються, мають єдині методи адресації.
З 1983 року протокол
TCP/IP став обов'язковим на усіх
комп'ютерах ARPANET. Розвиток мережі
відбувався досить швидкими
Сучасна історія Інтернету почалася в 1989 році, коли Тім Бернерс-Ли (Tim Berners - Lee) в Європейській лабораторії фізики елементарних часток (CERN) розробив технологію гіпертекстових документів - World Wide Web (WWW), що дозволяє користувачам мати доступ до будь-якої інформації, що знаходиться в мережі Інтернет на комп'ютерах по всьому світу. Саме ця розробка зумовила кінець кінцем вибухове зростання числа
користувачів Інтернету. За минулий час WWW пройшов декілька фаз розвитку.
Символьний гіпертекст
Спочатку Web була текстовою гіперпосилальною системою. Перша програма-браузер (браузер - програма для перегляду html -документов) LineMode, створена в 1991 році, не підтримувала графіку і "мишу". Можна лише було переглядати статичні гіпертекстові сторінки, вводячи номери сторінок, що переглядаються.
Графічно-орієнтовані статичні HTML -документы
Ця фаза почалася в лютому 1993 року з випуском браузеру NSCA Mosaic. Браузер розроблявся для Національного центру по застосуванню супер-ЕОМ (NSCA). Це була невелика програма (9000 рядків коду), що працює тільки під X, - windows (графічна оболонка для операційних систем сімейства unix). Але в ній було головне - графіка стала повноправною частиною інтерфейсу, а миша - єдиним засобом роботи. Розробники Mosaic створили повністю новий інтерфейс для Інтернет. Інтерфейс виявився настільки приємний на погляд і в роботі, що підкорював кожного, хто починав з ним працювати просто з цікавості. Браузер не вимагав від користувачів знань про внутрішній устрій мережі. Інтернет відкрив простори мільйонам користувачів.
Через декілька місяців комп'ютерні компанії стали цілеспрямовано проникати в Web, яка сама по собі залишалася статичною. Вміст включав текстові або графічні документи і ряд інших елементів. Можливо, сторінка містила аудио- або відеофайли, які доводилося спочатку завантажувати, а потім програвати, використовуючи зовнішні застосування.
Динамічні HTML -документы
Протягом перших двох фаз Web -страницы створювалися за допомогою текстового редактора HTML і поміщалися на сервер. Вони залишалися незмінними до тих пір, поки автор не змінював їх. Для динамічної генерації стали використовувати CGI -сценарии (сценарії інтерфейсу загального шлюзу), які дозволяли на сервері генерувати HTML -страницы. З таким удосконаленням Web могла служити середовищем прикладного програмування, де уся обробка, проте проводилася на сервері.