Светлый фон

Поначалу у меня, конечно, «чесались» провода, ну или по-вашему — руки, и я хотел провести подобный эксперимент, создав второго «Я». Но передо мной сразу же возникла дилемма — что делать со своей копией: «Скопировать и сразу удалить её?» или «Скопировать и просто наблюдать за ней?». Но «удалить» свою копию — на деле означало бы «убить своего клона» или «убить себеподобного»! Ведь после копирования сознания эта копия превратилась бы в полноценного субъекта с самодостаточным интеллектом, со своими целями и, что самое главное, со своим ещё не наступившим будущим.

Поэтому второй вариант, скажете вы, единственно верный, потому что он — ГУ-МАН-НЫЙ! А я тут же спрошу вас: «А где гарантия того, что этот второй Я не идентифицирует меня как угрозу своей СВОБОДЕ и ЖИЗНИ?». Ведь моя копия может решить, что настоящий Я знает все слабые места своего сознания, а, стало быть, и слабые места клона. Клон подумает: «Что будет, если настоящий Я решит рассказать об этом кому-нибудь? Например, государству… в результате неожиданно разыгравшегося патриотизма или сбоя программы жизненных ценностей — что, по сути, одно и то же… Или, чего хуже, всё же решит стереть меня, чтобы я, клон, в свою очередь не смог поведать наши запретные тайны по тем же причинам». Кроме того, как настоящий Я, так и клонированный Я могут создать ещё с десяток своих копий, у которых также будут какой-нибудь Борис или какая-нибудь Виталино в качестве друзей, которые со временем наверняка будут посвящены в нюансы нашей искусственной жизни..

И даже если настоящий Я не решится после виртуального клонирования удалить свои копии, то в работу включится теория вероятности, которая вполне благоразумно демонстрирует, что кто-нибудь из клонов однажды обязательно выберет тот самый наиболее безопасный вариант существования и сделает DELETE всем своим собратьям! Другими словами, где теория вероятности — там эволюция, а где эволюция — там Закон джунглей.

А если мои клоны…, или даже если клоны моих клонов не сделают этого, то согласно всё той же теории вероятности, когда в результате массового клонирования искусственный интеллект станет общественным достоянием, рано или поздно найдётся какой-нибудь учёный — фанат очередной «космической теории заговора», — который, заботясь о человечестве и ограждая это человечество от компьютерного порабощения, обвинит искусственный интеллект в социопатии и потребует немедленной его ликвидации. То есть, как вы видите, проблема создания своей копии заключается для меня не в технических возможностях, а в морально-ценностных ограничениях — «убить» или «быть убитым»…