Рефераты. Проблема искусственного интеллекта : технические и социальные аспекты

Научные эксперименты с таким ИИ будут подобны самым изощренным пыткам. Сознание человека, оказалось, с одной стороны, практически бессмертным, так как ИИ, в качестве компьютерной познавательной нервной сети, может многократно копироваться и хранится в существенно менее подверженных старению носителях, чем человеческих организм. С другой стороны, сознание человека, оказывается в качестве ИИ в полной и вечной зависимости от исследователя-компьютерщика, а фактически, палача. Исследователь, вмешиваясь в функционирование компьютерной нервной познавательной сети, о деятельности которой у него нет достаточных представлений, может вызвать у ИИ совершенно невообразимые страдания. Такое вмешательство исследователя может восприниматься ИИ как болезненное и длительное разрушение виртуальных (а для ИИ реальных) частей тела, например, раковым процессом или того хуже. «Перезагрузка» ИИ наверняка будет восприниматься как смерть, причем не обязательно мгновенная и не мучительная.

Допустимо ли исследователю многократно умерщвлять ИИ, особенно если ИИ является совершенной интеллектуальной копией реального живого человека? Правильно ли допускать прототипу такие издевательства над своей интеллектуальной копией, которая обладает тем же набором чувств, что и прототип?

Перенос ИИ прототипа из компьютера в мозг клона также не лишен моральных проблем. При таком перемещении сформировавшаяся автономно личность клона, или которая могла бы быть сформирована, окажется «стертой» (заблокированной) личностью своего прототипа («родителя»). Кто может из людей, даже если это и клон, на это согласиться. Особенно, если наделить клон правом принимать решение по внедрению в свой мозг чужого интеллекта? Это все равно, что предложить однояйцовым близнецам обменяться мозгами.

 Вывод по проблеме 1. В работе [5, с.46] предложен выход из морального тупика, вероятно, единственный – разрешать продолжить существование погибшему человеку, при его желании, только в качестве андроида, в искусственно созданное тело (не клон!) которого будет перенесена компьютерная копия интеллекта погибшего человека и дальнейшее развитие этой интеллектуальной человеко-машины будет осуществляться исключительно на основе своей копии интеллекта (ИИ), причем, без права копирования интеллекта для исследовательских целей. Но мне кажется, что вероятнее всего эта проблема будет решаться весьма кощунственным способом, т.к. всегда найдутся «сильные мира сего», готовые платить за эксперименты над человеком, а значит и над ИИ.

Проблема 2. Проблема безопасности.

Данная проблема будоражит умы человечества еще со времен Карела Чапека, впервые употребившего термин "робот". Большую лепту в обсуждение данной проблемы внесли и другие писатели-фантасты. Как самые известные можно упомянуть серии рассказов писателя-фантаста и ученого Айзека Азимова, а так же довольно свежее произведение — "Терминатор". Кстати, именно у Айзека Азимова можно найти самое проработанное, и принятое большинством людей решение проблемы безопасности – трех законах роботехники:

·        Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

·        Робот должен повиноваться командам, которые ему дает человек, кроме тех случаев, когда эти команды противоречат первому закону.

·        Робот должен заботиться о своей безопасности, насколько это не противоречит первому и второму закону.

На первый взгляд подобные законы, при их полном соблюдении, должны обеспечить безопасность человечества. Однако при внимательном рассмотрении возникают некоторые вопросы [6]. Во-первых, законы сформулированы на человеческом языке, который не допускает простого их перевода в алгоритмическую форму. К примеру: как перевести на любой из известных языков программирования, такой термин, как "причинить вред". Или "допустить". Попробуйте определить, что происходит в любом случае, а что он "допустил"?

Далее предположим, что мы сумели переформулировать, данные законы на язык, который понимает автоматизированная система. Теперь интересно, что будет подразумевать система ИИ под термином "вред" после долгих логических размышлений? Не решит ли она, что все существования человека это сплошной вред? Ведь он курит, пьет, с годами стареет и теряет здоровье, страдает. Не будет ли меньшим злом быстро прекратить эту цепь страданий? Конечно можно ввести некоторые дополнения, связанные с ценностью жизни, свободой волеизъявления. Но это уже будут не те простые три закона, которые были в исходнике.

Следующим вопросом будет такой. Что решит система ИИ в ситуации, когда спасение одной жизни возможно только за счет другой? Особенно интересны те случаи, когда система не имеет полной информации о том, кто есть кто.

Несмотря на перечисленные проблемы, данные законы являются довольно неплохим неформальным базисом проверки надежности системы безопасности для систем ИИ.

Так что же, неужели нет надежной системы безопасности? Если отталкиваться от концепции ИИ, то можно предложить следующий вариант.

Согласно многочисленным опытам, несмотря на то, что мы не знаем точно, за что отвечает каждый отдельный нейрон в человеческом мозге, многим из наших эмоций обычно соответствует возбуждение группы нейронов (нейронный ансамбль) во вполне предсказуемой области. Были также проведены обратные эксперименты, когда раздражение определенной области вызывало желаемый результат. Это могли быть эмоции радости, угнетения, страха, агрессивности. Это наводит на мысль, что в принципе мы вполне могли бы вывести степень "довольности" организма наружу. В то же время, практически все известные механизмы адаптации и самонастройки (в первую очередь имеются в виду технические системы), базируются на принципах типа "хорошо" — "плохо". В математической интерпретации это сведение какой-либо функции к максимуму или к минимуму. Теперь представим себе, что ИИ в качестве такой функции использует измеренную прямо или косвенно, степень удовольствия мозга человека-хозяина. Если принять меры, чтобы исключить самодеструктивную деятельность в состоянии депрессии, а так же предусмотреть другие особые состояния психики, то можно получить вполне стабильную систему.

Вывод по проблеме 2. Поскольку предполагается, что нормальный человек, не будет наносить вред самому себе, и, без особой на то причины, другим, а ИИ теперь является частью данного индивидуума (не обязательно физическая общность), то автоматически выполняются все 3 закона роботехники. При этом вопросы безопасности смещаются в область психологии и правоохранения, поскольку система (обученная) не будет делать ничего такого, чего бы не хотел ее владелец.

Проблема 3. Проблема сверхинтеллекта и взаимоотношений человечества и ИИ, сможет ли человечество использовать для расширения своего знания познавательные модели сверхумного ИИ?

Машинный ИИ, построенный в виде наполняемого знаниями компьютера, никогда не сможет обладать творческим потенциалом, то есть стать умнее в творческом плане, не только человечества, но и отдельного человека [5, c.48]. Но если предположить, что человеку удастся внести «Божью искру» (эта моральная проблема будет рассмотрена далее) - то есть для человечества это, фактически, путь самопожертвования во имя создания нового более совершенного живого аналога интеллекта человека, так как в этом случае человек теряет на Земле свое уникальное место как самого умного на свете существа.

То есть человечество, вероятно, сохранится, но для сверхинтеллекта оно будет выглядеть как заповедник ближайших генетических родственников, с которыми полноценное интеллектуальное взаимодействие невозможно. Получая от сверхинтеллекта каждый раз такие рекомендации, которые с очевидностью улучшают состояние человеческого общества, человечество становится, в конечном счете, абсолютно зависимым от сверхинтеллекта. То есть возникает симбиоз сверхинтеллекта и человечества, где человечество выполняет для сверхинтеллекта сервисные функции.

Но, возможно ли в процессе создания такого сверхинтеллекта, навязать ему запреты на деятельность, наносящую вред человечеству (согласно рассмотренной проблеме 2)? Исходя из того, что в настоящее время известна возможность «программирования» человека на совершение независящего от его воли поступка, то, вероятно, такому «программированию» можно потенциально подвергнуть и живой аналог - ИИ. Но на этом пути возникает целый ряд проблем и возможно, главная из них, нормальное функционирование сверхинтеллекта. Если принять во внимание описанный выше исход взаимоотношения человечества и сверхинтеллекта, то, следуя закону «не вреди человеку и человечеству в целом», сверхинтеллект должен самоуничтожится. Но если и на эту акцию ему наложить запрет, тогда он попадает в логическую ловушку, что приведет к нарушению функционирования мозга. Если полагать, что сверхинтеллект обладает определенными качествами интеллекта человека, то возникшая ситуация приведет к неврозу у сверхинтеллекта, из которого он может выйти путем психоанализа. При успешном проведении психоанализа, например, в автономном режиме, сверхинтеллект может обнаружить навязанное противоречие и освободится от него или путем самоубийства или же самопроизвольным снятием запрета на нанесение вреда человечеству, пойти на сделку со своей «искусственной совестью».

Вывод по проблеме 3. Создание сверхинтеллекта, будет для человечества первым шагом к потере интеллектуального лидерства и поставит его на место родителя следующей, возможно, более прогрессивной стадии эволюции живого или неживого, энергетического (например, фильм жанра фантастика «Вирус» 1998 года, режиссер - Джон Бруно).

Проблема 4. Глобальная информатизация, Интернет и ИИ.

Появление и начало развития поисковых информационных систем, создающих знания, программ-агентов - это начало моделирования способности обучения в информационных системах.

Интересен также вопрос, где появится искусственный, компьютерный интеллект. Если несколько лет назад можно было предположить появление единичного, экспериментального компьютерного интеллекта в научной лаборатории, то сейчас, с развитием Интернета, появилась возможность его появления в этой сети.

Страницы: 1, 2, 3, 4



2012 © Все права защищены
При использовании материалов активная ссылка на источник обязательна.