Эпистемология фантастики {3} (4)

[1] [2] [3] [4] [5]

6. Системная этика относительна в тех границах, которые имеет сама система. Следовательно, она относительна технологически обусловленным переменам. Ей неизвестны такие понятия, как делегирование полномочий человека, осуществляемое по крайней мере в двух разных формах, а также зависимость, впрочем, довольно проблематичная, от рациональности технологического происхождения.

А: «Делегирование полномочий или решений» осуществляется тогда, когда человек создает «псевдоперсонифицированные системы» (роботы, андроиды, автоматы), обладающие каким-то подобием эквивалента внутренней психической жизни и до определенной степени похожие на «человеческие образы», которые им вольно или невольно навязывают, или когда функции принятия решений передаются устройствам совершенно «неперсонифицированным», но таким, которые замещают человека, в частности, там, где возникает необходимость в этически неоднозначном решении.

Первый комплекс проблем можно смоделировать на крайнем примере, который является «механическим соответствием» уже рассмотренной выше проблемы «прививки желания собственной смерти». Можно представить себе ситуацию, когда конструктор должен создать робота, предназначенного для решения только одной задачи: этот робот должен, к примеру, высадиться на какой-то планете и там выполнить определенную работу. Когда он сделает то, что заложено в его программе, необходимость в нем полностью отпадает. Кроме того, условия среды, в которой придется работать этому автомату, могут быть настолько сложными, что робот, сконструированный для более мягких условий, не справится с ситуацией. Другими словами, в качестве исполнителя нужен автомат, наделенный способностью делать выводы, анализировать обстановку, находить оптимальные решения, то есть независимость поведения которого должна быть на уровне человека. Судьбе этого электронного мозга вряд ли позавидуешь, когда он справится с поставленной задачей. Если бы речь шла о машине, ее можно было бы просто оставить на планете или, при необходимости, встроить в нее механизм саморазрушения, который включится после завершения запрограммированных работ. Но робот, интеллектуально похожий на человека и обреченный на разрушение, потому что конструкторы вмонтировали ему в мозг взрывное устройство, это, пожалуй, негодное решение. Но почему? Следовало бы в последнем файле программы закодировать «тягу к смерти», чтобы эта электронная или бионическая личность «по собственной воле и без принуждения» покончила с собой. Но там, где в игру вступает запрограммированный «Танатос», не может быть и речи о свободе воли. Конструктор в ответ скажет следующее: «Такой подход лишен рационального смысла. Он подразумевает, что система, способная к интеллектуально независимому поведению, должна полностью соответствовать человеку как абсолютному эталону. Такой подход в состоянии породить только бессмыслицу. Допустим, что я послушаюсь моралиста и встрою в автомат влечение к смерти с такими же характеристиками, как половое влечение человека. Либидо очень сильно, но усилием воли его можно обуздать. Пусть то же самое происходит и с моим роботом. После окончания работы он будет жаждать самоуничтожения, но в то же время сможет обуздать свое желание. Тогда, внутренне свободный, но разрываемый между жаждой самоликвидации и желанием продлить свое существование, он будет годами постепенно распадаться на чужой пустой планете. Моралисту этого хотелось? Это именно то идеальное решение, которое я должен принять? Возможно, последует реплика, что такая дилемма не могла бы возникнуть, если бы машина вела себя разумно, но самосознанием не обладала. Однако так как не существует никаких „сознаниеметров“ и о наличии сознания мы можем судить только по внешним проявлениям, то есть по поведению, сходному с нашим, то не может быть критериев, отделяющих роботов с „собственным субъективным миром“ от машин, такого мира лишенных».

После такой речи моралист окажется действительно в затруднительной ситуации. Если он будет настаивать на директиве «максимализации внутренней свободы», то его ждут неприятные сюрпризы от какого-нибудь инженера-психолога, который, поверив ему, что чем душа свободнее, тем в нравственном смысле лучше, начнет встраивать в эту душу доселе неведомые свободы. Он создаст такую технологическую среду и встроит в человека такие бионические устройства, что такой человек сможет только актом воли совершать то, что раньше требовало физических усилий; он сможет, например, убивать других людей, просто мысленно пожелав этого, сможет, отдав мысленный приказ, взрывать звезды; сможет, если только пожелает, узаконить геноцид, ибо за каждым его решением на ментальном уровне автоматически последует практическая реализация соответствующих постановлений и теоретических выкладок. Таким образом, этот радикально обновленный человек будет обладать свободой воли в небывалых, гигантских масштабах, но, естественно, ему не позволено будет употреблять ее во зло. Так как только маньяк «психической свободы» согласился бы на такую «программу оптимизации», очевидно, что для этики нет иного объекта, кроме созданного в процессе эволюции человека, ведь автоэволюционные перспективы подрывают самые основы этики.

О другом комплексе проблем отчуждения или «делегирования решений» пишут даже футурологи (например, Э. Тоффлер в «Шоке будущего»). Идея заключается в создании компьютера с программой принятия решений, которая была бы копией предпочтений, свойственных определенному человеку, например, менеджеру. Компьютер, будучи его «минимальным alter ego[31], ничего, правда, не представляет собой в психическом смысле, то есть это не «личность», но он принимает точно такие же решения (вернее, с высокой степенью достоверности), что и этот человек. Следовательно, он в состоянии подменять его на различных совещаниях, конференциях и т. п. Возникает вопрос: «живой оригинал» несет моральную ответственность или нет за решения своей «копии» и за их этическую обоснованность? Эта проблема, поднятая на самый высокий из всех возможных уровней, превращается в сакраментальный вопрос: имеют люди право передавать львиную долю проблем, связанных с принятием решений, электронным или каким-либо иным технологическим устройствам — «нелюдям», то есть можно ли согласиться на некую форму «компьютерократии»? Эта проблема настолько огромна и сложна, что мы не сможем рассмотреть ее даже в общих чертах. Ее характеристика частично антиномиальна, то есть она не только запутана аксиологически (что очевидно), но, кроме этого, не поддается логической реконструкции, так как противоречива по своей сути. Проблема, разумеется, должна включать явное параметрическое своеобразие «компьютера-властелина», и потому, не разобравшись детально в состоянии общества, которым должен управлять компьютер, ни в его программе, невозможно дать универсально достоверные ответы. (В частности, нельзя а priori предполагать, что вообще невозможно построить компьютер настолько добрый, мудрый, справедливый, всеведущий и т. п., как все величайшие на протяжении всей истории проповедники, учителя и моралисты, вместе взятые.)

Б: Кроме проблемы отчуждения решений «минимального» и «максимального» масштабов, в системной этике, включающей в свою сферу «нечеловеческие», но подлежащие этике системы, наметилась проблематика рациональности технологического происхождения. Одним из примеров в этой области может послужить вымышленная дискуссия между «моралистом» и «конструктором» на тему «программирования людей и роботов», которая приведена мною выше.

Значение этой проблемы становится в полной мере понятной после осмысления программы автоэволюции человека. Здесь мы не будем касаться этой проблемы; частично мы ее рассмотрим в других разделах книги, а частично она уже анализировалась в «Пасквиле на эволюцию», включенном как отдельная глава в «Сумму технологии». Данная проблема — это фактически бомба, подложенная под этические кодексы. Ведь вокруг нее возникает великое множество дилемм, и одновременно с того момента, когда homo sapiens перестает быть стандартом для этических установок и вердиктов, она лишает нас всякой опоры.


[1] [2] [3] [4] [5]



Добавить комментарий

  • Обязательные поля обозначены *.

If you have trouble reading the code, click on the code itself to generate a new random code.