Компьютерная этика, информационная этика, киберэтика

Автор: Пользователь скрыл имя, 05 Июня 2012 в 11:43, контрольная работа

Описание работы

Если назначается специальный человек для контроля за чистотой

исходной информации, то найдется

изобретательный идиот, который придумает способ, чтобы неправильная информация прошла через этот контроль.

Постулат Трутмена по программированию (8, с.69).

Работа содержит 1 файл

Деловое общение.doc

— 111.50 Кб (Скачать)


 

    

И.Л. Галинская

КОМПЬЮТЕРНАЯ ЭТИКА, ИНФОРМАЦИОННАЯ ЭТИКА, КИБЕРЭТИКА

 

 

 

 

             

Компьютеры ненадежны, но люди

 

еще ненадежнее.

 

     Закон ненадежности

 

     Джилба (8, с.70)

 

 

 

Если назначается специальный человек для контроля за чистотой

 

исходной информации, то найдется

 

изобретательный идиот, который придумает способ, чтобы неправильная информация прошла через этот контроль.

 

     Постулат Трутмена по программированию (8, с.69).

 

 

 

Превращение сферы высоких технологий и компьютерной информации в молниеносно развивающуюся отрасль научно-технического комплекса, охватывающую транспорт, медицину, коммуникации, образование, банковское дело, промышленность, электронную коммерцию, услуги, быт и пр., приводит к замещению многих видов человеческой деятельности  функциями компьютеров. Этот факт уже оказывает серьезное воздействие на  нравственность, политику, социальную  теорию, психологию. Значение этих процессов столь необычно, что изучать их взялась новая социальная дисциплина - компьютерная этика  (КЭ).

 

Пионерами компьютерной этики в 80-е гг. ХХ в. в США были философы Дж.Мур, Дебора Джонсон, Дж.Снэппер, Л.Ллойд,, У.Бетчел, Джулия Ван Дюн и др. Именно они показали, что компьютерная этика - это отнюдь не определенный свод правил, а динамичное и сложное поле исследования, включающее анализ отношений между фактами, концепциями, политикой и ценностями с учетом постоянно изменяющейся компьютерной технологии. КЭ - это поле исследования, лежащее на грани между новыми технологиями и нормативной этикой и зависящее от них.

 

Было бы ошибкой считать, что этика компьютерных технологий есть нечто уникальное, стоящее в стороне от этики бизнеса и социальной этики. Ведь проблемы КЭ решаются при помощи тех же аналитических приемов и этических категорий, которые со времен  античности применяются в традиционных этических учениях: в  консеквенциальной этике, в утилитаризме, деонтологии, этике “общественного договора”, в этике категорического императива Канта, в его принципе самоценности каждой личности, в  автономной и  гетерономной этиках[1].

 

Однако использование традиционных этических категорий  не всегда помогает решить сложные и зачастую амбивалентные проблемы, возникающие в сфере компьютерной информации и компьютерной науки.

 

В статьях, опубликованных в конце 1985 г. в специальном  выпуске американского философского журнала “Метафилософия”, впервые комплексно обсуждались проблемы НТП, компьютерной революции, говорилось о необходимости выработки нового морально-этического подхода  в условиях неслыханно быстрого развития информационно-поисковых и информационно-логических систем, т.е. шла речь о  практическом создании компьютерных этических кодексов.

 

“ХХ век - это эпоха компьютерной революции, в которой можно различить две стадии”, писал Дж.Мур в статье “Что такое компьютерная этика?” (17, с.266). Первая стадия связана с созданием и совершенствованием собственно ЭВМ, она уже в основном закончилась. Вторая стадия состоит в том, что компьютерная технология  быстро становится интегрированной частью едва ли не всех общественных институтов. Дж.Мур уже в середине 80-х гг. предвидел, что к концу ХХ века многие виды человеческой деятельности и многие социальные институты будут преобразованы компьютерной технологией, и это несомненно породит “широкий спектр проблем для компьютерной этики” (17, с.270-271).

 

Первые свидетельства  трансформирующего социального эффекта компьютеризации проявились в американском общества еще во время президентских выборов 1984 г. Дело в том, что ранее компьютеры использовались в США только для определения результатов голосования, но во время  тех президентских выборов голоса избирателей впервые подсчитывались в ходе голосования, и прогнозы компьютера объявлялись по телевидению еще до закрытия избирательных участков, причем не только в далекой Калифорнии, но и в самом Нью-Йорке. Так, используя прогностическую функцию компьютера, оказалось возможным влиять на исход выборов (17, с.271).

 

Впрочем, рассуждения компьютерных этиков и информационная практика не всегда совпадают. Так, в 1999 г. во время региональных выборов в США на соответствующих Интернет-сайтах публиковались сведения социологического опроса только что проголосовавших  избирателей, что являлось прямым нарушением закона о выборах.

 

В 1999 г. и в России во время выборов в Государственную Думу на Интернет-сайте Фонда эффективной политики “Выборы в России” в течение всего дня, когда происходило голосование, публиковались результаты опросов, проводимых на выходе из избирательных участков. Согласно закону Российской Федерации о выборах депутатов Госдумы, средствам массовой информации, PR и социологическим агентствам запрещено публиковать прогнозы и результаты опросов как в течение трех дней, которые предшествуют выборам, так и в день самих выборов. Фонд “Выборы в России” публиковал такие результаты 19 декабря 1999 г. с самого утра и на протяжении всего дня, а поскольку в России не было закона, объявляющего Интернет средством массовой информации, то официально закрыть этот сайт в день выборов не представлялось возможным. Вот и 26 марта 2000 года Николай Сванидзе обнародовал на канале РТР за час до окончания голосования полученные из Интернета предварительные итоги выборов президента России.

 

По мере того, как в конце ХХ века компьютеры стремительно проникали в жизнь общества, трансформирующий эффект компьютеризации нарастал. Изменилось традиционное понимание “работы” как выполнения определенных  обязанностей в определенном месте и в определенное время. Работа превратилась во множестве случаев в  инструктаж компьютера. В компьютеризированном обществе постепенно пересматривались и ценности, связанные с прежней концепцией работы: общаясь, не выходя из дому, с компьютерным терминалом, служащий терял постоянный контакт с коллегами; управляя роботом путем нажатия кнопок, человек уже не мог гордиться конечным продуктом такого труда.

 

Компьютеризация постепенно изменила ценности, ассоциирующиеся с традиционными методами образования. Ведь обучение посредством компьютера и дистанционное образование в конце концов могут сделать ненужной  рутинную профессию учителя, вузовского преподавателя, но одновременно встанет вопрос, что же такое образование, если в качестве учителя используется компьютер (17, с.272).

 

Исходя из того, что операции компьютера большую часть времени остаются “невидимыми”, Дж.Мур выделил три рода компьютерных “невидимостей”, имеющих этическое значение. Первым типом “невидимого фактора” он назвал “невидимый обман”, т.е. намеренное использование невидимых операций компьютера с целью осуществить неэтичное либо преступное действие.

 

Дж.Мур  в связи с этим приводит гипотетический пример. Программист, работающий в банке, мог бы похитить так называемый “избыточный процент”. В ходе банковских операций при подсчете  процента с вкладов после округления сумм постоянно остаются доли цента. Программист мог бы составить и ввести в компьютер соответствующую программу с заданием переводить эти остаточные доли цента со всех банковских  операций на свой счет, осуществив тем самым похищение “избыточного процента”.

 

Вторым типом “невидимого фактора” в компьютерной технологии Дж.Мур назвал присутствие “невидимых ценностей программы” (17, с.273), т.е. ценностей, ненамеренно вводимых в программу, и до поры до времени не известных ни тем, кто программой пользуется, ни даже  тем, кто ее составляет.

 

Здесь Дж.Мур приводит в качестве примера конкретный случай. При создании программы для предварительной продажи авиабилетов в США в

80-е гг. программисты использовали алфавитный принцип. Эта “невидимая ценность программы” оставалась незамеченной, пока не выяснилось, что при продаже авиабилетов компания “Америкен эйрлайнз” получала преимущество перед компанией “Брэнифф эйрлайнз”, что привело к банкротству последней и кончилось судебным разбирательством.

 

Еще один случай “невидимых ценностей” программы - авария АЭС на Трехмильном острове в США. Операторы на Трехмильном острове работали с компьютером, который был запрограммирован моделировать возможные нарушения, включая неисправности, порождаемые другими неисправностями. Однако, как установила комиссия Кемени, которая расследовала причины аварии, “моделирующее устройство не было запрограммировано для моделирования одновременно нескольких независимых нарушений” (17, с.274). Во время аварии на Трехмильном острове операторы столкнулись именно с ситуацией последнего типа. “Неадекватность компьютерного моделирования оказалась результатом решения, принятого в ходе программирования, пусть даже это решение было неосознанным или просто неявным. Вскоре после аварии  компьютер был  перепрограммирован так, чтобы моделировать ситуации, аналогичные той, что привели к этой аварии” (17, с.274).

 

Третий тип “невидимого фактора” компьютерной технологии - “невидимый комплекс вычислений”. Дело в том, что компьютер способен выполнять столь сложные расчеты, которые просто не охватываются человеческим сознанием, непостижимы для  человеческого понимания и неподвластны контролю (даже если сама программа вполне доступна нашему интеллекту). Отсюда и возникает вопрос, пишет Дж.Мур, насколько можно доверять “невидимому расчету”.

 

В связи с тем, что логика компьютера способна варьировать бесконечно, отсюда безгранична и потенциальная сфера применения компьютерной техники. От компьютерной технологии, с одной стороны, зависит разрешение таких насущных задач, как ликвидация сбоев и диспропорций в экономике, изменение концепции отчуждения и дегуманизации индивида и пр. С другой стороны, компьютерная технология ведет к созданию “чуждого интеллекта”, обладающего отличающимися от человеческих ценностями.

 

Компьютерная революция породила, помимо проблем общего характера, такие насущные проблемы, как вторжение при помощи компьютера в личную жизнь индивида и компьютерная преступность. Группа проблем компьютеризированного общества касается профессиональной этики и юриспруденции, прав собственности на компьютерные программы, ответственности за допускаемые компьютером ошибки, изменений структуры и ценностных характеристик профессиональных этических кодексов (этика врача, этика учителя, этика бизнесмена и т.д.).

 

Компьютерная этика (КЭ) представляет собой анализ природы и социального воздействия компьютерной технологии в сочетании с соответствующими формулировками этического оправдания технологии. По мнению Дж.Мура, глобальные проблемы КЭ возникают в связи с отсутствием ясности в вопросах о том, каковы же этические ограничения при применении компьютерной технологии и как следует поступать в связи с тем, что компьютеры предоставляют обществу новые возможности в выборе действий. Компьютерная этика призвана сформулировать правила этих новых действий, она должна ответить на вопросы этического использования компьютерных технологий         как социального, так и личностного характера, ибо механическое применение нормативных этических максим в условиях компьютеризированного общества становится недостаточным.

 

Основная характеристика эпохи компьютеризации состоит в так называемой “логической податливости  компьютера”, т.е. компьютер может быть запрограммирован для выполнения любой логической операции, независимо от её этической ценности. Дж.Снэппер в статье “Ответственность за совершаемые компьютером ошибки” (17, с.289-295) выделяет в среде ученых  тех, кто рассматривает компьютер как “агента действия”, принимающего решения и несущего ответственность за появляющиеся в этих решениях ошибки. Другая группа ученых, пишет Дж.Снэппер, склонна полагать, что компьютеры пока не способны “отвечать” за ошибки. Дж.Снэппер еще в 1985 г. предсказал возможность создания суперкомпьютеров, которым бы вменялось в обязанность “отвечать” за свои решения.

 

Впрочем, сам вопрос о “компьютерных ошибках” также представляет особую проблему. Если мы говорим о медицинских компьютерных программах, которые ставят диагноз, предписывают лекарства, определяют их дозировку и даже оперируют, то здесь идет речь о здоровье пациента, отчего и незначительные ошибки недопустимы (17, с.290).

 

Американский этик Дебора Джонсон выпустила в 1985 г. учебник “Компьютерная этика”, который в 1994 г. вышел вторым изданием (16). Это наиболее известный учебник по компьютерной этике, основным тезисом которого является утверждение, что этические проблемы использования компьютеров отнюдь не являются чем-то новым и неизведанным и, следовательно, вовсе не требуется создавать особую теорию, чтобы с этими проблемами справиться. Будучи исследовательницей этики Канта, Д.Джонсон предлагает опираться на традиционные моральные принципы и теории, даже когда речь идет об этике компьютерной эпохи.

 

Д.Джонсон приводит в своей книге гипотетический случай. Опытный системотехник работает в производящей компьютеры фирме более трех лет. Компания создает и продает программное обеспечение (software) и аппаратное компьютерное оснащение (hardware). Почти два года системщик трудился над созданием программного обеспечения, которое разрабатывалось для обычного рынка сбыта. Но затем его перевели работать над проектом по контракту с министерством обороны, согласно которому фирма обязалась разработать автоматизированную систему, которая могла бы выводить на орбиту ядерные ракеты, принимая сигналы от радаров. Когда работа над проектом уже близилась к завершению, системщик стал сомневаться в адекватности разработанной им системы, в ее способности различать объекты (например, отличать ракету от небольшого самолета), а также - в безопасности механизма, выпускающего ракеты на орбиту. Системщик чувствует свою моральную ответственность, но не знает, как ему поступить. Должен ли он перейти на работу в другой менее ответственный проект? Должен ли поставить в известность о своих сомнениях министерство обороны? Должен ли он обратиться к представителям средств массовой информации? А в любом из перечисленных выше случаев системщику грозит потеря работы. Может ли он, наконец, промолчать?

 

Гипотетическая ситуация, предложенная Д. Джонсон, затрагивает целый ряд проблем профессиональной этики. Ведь в этом примере говорится не только о сомнениях и о поступке одного индивида, тут вовлечены две организации и условно может идти речь вообще о выживании человечества. Д. Джонсон считает, что одного только знания и умения для компьютерного профессионала недостаточно, он непременно должен руководствоваться законами и требованиями профессиональной этики.

 

В 80-е гг. ХХ века американскими этиками был введен термин “компьютерный профессионал” (КП), что означало “индивида, зарабатывающего на жизнь работой с компьютерами” (16, с.25). Здесь имелись в виду не только программисты, системные  аналитики, системотехники, продавцы компьютерного оборудования, но и все те, кто в ходе своей работы используют компьютеры: служащие банковской и конструкторской сфер, работники народного образования, медицинские  диагносты, врачи, планировщики и разработчики бюджета и т.д.

Информация о работе Компьютерная этика, информационная этика, киберэтика