Философия искусственного интеллекта

Философия ИИ (ИИ) охватывает широкий круг фундаментальных неприятностей, которые связаны с созданием ИИ. В чём сущность разума? Каковы правила его работы? И, наконец, — вероятно ли создание ИИ? Не обращая внимания на огромные удачи в создании алгоритмов и программ, талантливых решать многие интеллектуальные задачи значительно действеннее человека, мы не можем отыскать ясного и однозначного ответа на эти вопросы.

Ответ на вопрос о возможности существования ИИ определялся мировоззренческой ориентацией мыслителя: дуалистическая традиция, восходящая к Р.Декарту, постулировала невыразимость мышления через телесное, в то время как материалистическая традиция вычисляла мышление производным от телесного. Декарт, исходя из собственной дуалистической совокупности, вычислял мышление атрибутом только человека (кроме того животных он обрисовывал как «автоматы»), в то время как материалистическая традиция теоретически оставляла возможность существования мышления не только у людей.

Что же можно считать критерием наличия разума? Обыденное сознание, в большинстве случаев, принимает в качестве критерия разумности поведение. Мы вычисляем что-то разумным либо неразумным, оценивая его поведение. Но какова связь между сущностью разума человека и его внешним проявлением – разумным поведением? Какое поведение будет разумным? Как по чьему-либо поведению возможно выяснить, владеет ли это существо разумом?

Ещё в XVIII в. Д.Дидро в собственных «Философских мыслях» заявлял, что если он отыщет попугая, талантливого ответить на любой вопрос, то этого попугая, несомненно, нужно будет считать разумным существом.

Во второй половине 30-ых годов двадцатого века философ А. Айер решил вопрос касательно вторых разумов: как выяснить, что другие люди имеют тот же сознательный опыт, что и мы? «Единственным основанием, на котором я могу утверждать, что объект, что думается разумным, в действительности не разумное существо, а просто машина, есть то, что он не имеет возможности пройти один из эмпирических тестов, в соответствии с которым определяется наличие либо отсутствие сознания»[1].

«Смогут ли автомобили мыслить?» — таковой вопрос поставил в 1950 г. логик и британский математик А.Тьюринг. Он подчёркивает, что классический подход к этому вопросу пребывает в том, дабы сперва выяснить понятия «интеллект» и «машина». Тьюринг, но, выбрал второй путь; вместо этого он заменил исходный вопрос вторым, «что тесно связан с исходным и формулируется довольно недвусмысленно». По существу, он предлагает заменить вопрос «Думают ли автомобили?» вопросом «Смогут ли автомобили делать то, что можем делать мы (как мыслящие создания)?». «Компьютер можно считать разумным, если он способен вынудить нас поверить, что мы имеем дело не с машиной, а с человеком». Преимуществом нового вопроса, как утверждает Тьюринг, есть то, что он проводит «чёткую границу между физическими и интеллектуальными возможностями человека», для чего Тьюринг предлагает эмпирический тест.

Сущность теста Тьюринга в следующем. В различных помещениях находятся судья, машина и человек. Судья переписывается с машиной и человеком, заблаговременно не зная, кто из собеседников есть человеком, а кто – машиной. Время ответа на вопрос есть фиксированным, так что судья не имеет возможности выяснить машину по этому показателю (во времена Тьюринга автомобили трудились медленнее человека, а на данный момент реагируют стремительнее). В случае если судья не имеет возможности выяснить, кто из его собеседников есть машиной, то машина смогла пройти тест Тьюринга и может принимать во внимание мыслящей. Причём, машина не просто будет подобием разума человека – она будет как раз разумом, т.к. у нас не будет никакой возможности отличить её поведение от поведения человека. Такая трактовка ИИ как полноправного эквивалента естественного стала называться «сильного ИИ».

Обратим внимание на то, что тест Тьюринга вовсе не подразумевает, что машина обязана «понимать» суть тех выражений и слов, которыми она оперирует. Машина обязана только подобающим образом имитировать осмысленные ответы.

В 1980 г. Дж.Сёрл предлагает мысленный опыт, осуждающий представление и тест Тьюринга о возможности существования разума без понимания. Сущность опыта в следующем. Сёрл пробует имитировать знание китайского языка, которого не осознаёт.

«…предположим, что меня поместили в помещение, в которой расставлены корзинки, полные китайских иероглифов. Предположим кроме этого, что мне дали учебник на английском, в котором приводятся правила сочетания знаков китайского языка, причём правила эти возможно использовать, зная только форму знаков, осознавать значение знаков совсем необязательно. К примеру, правила смогут гласить: «Заберите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два». Представим себе, что находящиеся за дверью помещения люди, осознающие китайский язык, передают в помещение комплекты знаков, и что в ответ я манипулирую знаками в соответствии с правилам и передаю обратно другие комплекты знаков»[2].

Так, Сёрл проходит подобие теста Тьюринга на знание китайского языка, которого в действительности не знает. Разумеется, что в этом случае Сёрл делает только механическую работу и легко возможно заменён машиной. Сёрл говорит о том, что тест Тьюринга вовсе не есть критерием наличия сознания, а только критерием свойства манипулировать знаками.

Сущность позиции Сёрла по вопросу ИИ сводится к следующему: разум оперирует смысловым содержанием (семантикой), в то время как компьютерная программа всецело определяется собственной синтаксической структурой. Следовательно, программы не являются сущностью их наличия и разума не хватает для наличия разума. Разум не имеет возможности сводиться только к исполнению компьютерной программы. То, что порождает разум, должно владеть, по крайней мере, причинно-следственными особенностями, эквивалентными соответствующим особенностям мозга. Т.е. Сёрл отметает прочерченный Тьюрингом прямой путь к неестественному интеллекту.

Но, против мысленного опыта Сёрла было приведено много возражений. Вот главные из них:

  • чтобы гарантировано пройти тест, в книге должны находиться адекватные ответы на ВСЕ существующие вопросы. Т.е. книга обязана владеть всезнанием, в противном случае возможность того, что необыкновенный вопрос вгонит совокупность в ступор, будет ненулевой.
  • в действительности, тест на знание китайского языка проходит совокупность, складывающаяся из Дж. Сёрла, людей и книги правил, каковые эту книгу правил составляли. А вот люди, составлявшие книгу, без сомнений, владеют знанием китайского языка. Не смотря на то, что другие части совокупности язык не знают.

Кроме этого, доводом против теста Тьюринга как критерия наличия разума есть то, что тест Тьюринга в действительности есть тестом на человекоподобие, а не на разумность по большому счету. При прохождении теста машина должна вести себя как человек – но так как далеко не всё человеческое поведение разумно, а многие интеллектуальные задачи машина может решать значительно действеннее человека (к примеру, математические вычисления). Рвение же пройти тест Тьюринга заставляет автомобили быть «не через чур умной». Возможно привести такое сравнение: если бы инженеры начала XX в., создавая самолёт, пробовали сделать его правильной копией птицы, они были бы похожи на современных учёных, каковые пробуют создать машину, мыслящую совершенно верно так же, как мыслит человек. Это совсем непрактично. Самолёты летают не как птицы, однако, они летают значительно стремительнее, дальше и выше птиц. Т.е. тест Тьюринга не раскрывает сущности разума, а только показывает на успешную имитацию его внешнего проявления, причём проявления не самого значимого. «Свойство болтать – еще не показатель интеллекта» — резюмируют эту позицию сценаристы фильма «Звёздные войны».

Эти теоретические рассуждения подтверждаются и практикой создания интеллектуальных программ. К примеру, обычна история машинного перевода, возможности которого еще пара десятилетий считались существенно превосходящими возможности переводчика-человека. Но на практике, не обращая внимания на немыслимые количества информации, каковые способна хранить машина, перевод в лучшем случае так стилистически «коряв» и некрасив, что «машинный перевод» стал необычной темой комедийного интернет — мастерства. Любому хорошему переводчику как мы знаем, что для настоящего перевода (кроме того технического) мало словаря и грамматики. Тут еще необходимы знания в той области, к которой относится текст — переводчик обязан осознавать, о чём в тексте идёт обращение. Т.е. синтаксис без семантики не даёт возможности решать солидную часть интеллектуальных задач, дешёвых разуму человека.

Исходя из этого, для разработчиков современных интеллектуальных программ тест Тьюринга не стал универсальным критерием их успеха. Но взял огромное распространение «тест Тьюринга напротив» — назойливая CAPTCHA[3].

Как мы видим, поиск возможности создания ИИ в любом случае упирается в вопрос: что такое разум?

В 1963 А.Ньюэлл и Г.Саймон, основываясь на анализе языка, высказали предположение, что сущность разума содержится в способности оперировать знаками. Таковой подход разрешил создать программу, талантливую решить любую интеллектуальную задачу в том случае, если задача могла быть формализована (к примеру, обосновывать теоремы, играться в шахматы и т.п.). Свойство делать символьные вычисления в полной мере достаточна для ответа интеллектуальных задач, а без таких вычислений разумное поведение нереально. Так, разум возможно рассмотрен как устройство, оперирующее информацией в соответствии с формальными правилами. В рамках данного подхода ИИ создаётся по аналогии с нервной системой и мозгом человека, т.е. по принципу нейросети. Нейросети не программируются в привычном смысле этого слова, они обучаются. Возможность обучения — одно из основных преимуществ нейросетей перед классическими методами. Технически обучение содержится в нахождении коэффициентов связей между нейронами. В ходе обучения нейронная сеть способна выявлять сложные зависимости между входными данными и выходными, и делать обобщение.

Данный подход подвергся критике со стороны философа Х.Дрейфуса. Сущность его возражений в следующем:

  • знание человека о мире состоит не только и не столько из объективных знаний о мире, сколько из отечественного субъективного отношения к нему и склонности принимать и трактовать события так или иначе. Кроме того в случае если мы используем символическую совокупность для выражения отечественных мыслей, мысли всё равняется формируются во многом под действием бессознательных факторов. Следовательно, рассмотрение разума может как устройства, оперирующего информацией в соответствии с формальными правилами, не хватает для создания сущности и понимания разума ИИ.
  • не всё знание и не все задачи смогут быть формализованы. Большая часть восприятия человека не может быть адекватно выражена в знаках. Следовательно, ИИ, выстроенный как символическая совокупность, сможет решать только маленький круг формализуемых задач, не являясь разумом.

Практика создания ИИ подтвердила правоту скептицизма Дрейфуса. Современные нейрокомпьютеры способны действенно решать многие задачи, но до возможностей людской разума им вечно на большом растоянии. Так, сведение разума к оперированию знаками по формальным правилам не стало причиной пониманию его сущности.

Не смотря на то, что качественного прорыва в создании сильного ИИ не случилось, количественно вычислительные возможности ЭВМ возрастали экспоненциально, и сейчас сложность современных ЭВМ неумолимо приближается к сложности мозга человека. Вероятно ли, что количественный рост сложности вычислительных совокупностей приведёт к их качественному скачку?

В 1993 г. писатель и математик В. Виндж внес предложение концепцию, обрисовывающую последствия происхождения ИИ, превосходящего по вычислительным возможностям человеческий разум. С того момента, как ИИ будет открывать новое знание стремительнее человека, ИИ сможет создавать всё более и более идеальные счётные автомобили, каковые будут ускорять рост знания в ещё большей степени, т.е. процесс будет увеличиваться как снежный ком, становясь недоступным пониманию человека. Затем развитие ИИ станет такими стремительным, что кроме того самые приблизительные прогнозы о том, что случится дальше, теряют суть. В.Виндж назвал данный момент «технологической сингулярностью».

Технологическая сингулярность характеризуется возникновением нового вида знания – т.н. машинного знания, т.е. знания, дешёвого только машине. Как это может смотреться? К примеру, как математическая теорема, доказанная машиной. Первая большая математическая теорема, доказанная посредством компьютера, — т.н. «теорема о четырех красках». Ее формулировка элементарна: чтобы раскрасить географическую карту так, дабы никакие два граничащих региона не были одного цвета, достаточно всего четырех различных красок. Два региона считаются граничащими, если они имеют протяженную границу, другими словами состоящую больше чем из одной точки. Подтверждение теоремы о четырех красках — прецедент применения компьютера при ответе хороших математических задач. Одновременно с этим оно примечательно собственной сложностью и длиной. Кроме того по окончании применения компьютера, разрешившего существенно сократить вычисления, текст доказательства элементарно формулируемого утверждения имеет астрономическую длину. Нетрудно представить себе появление таковой теоремы, подтверждение которой будет через чур долгим, дабы людской жизни хватило на его диагностику. И тогда получение и развитие знания его плодов окажутся прерогативой неестественного разума.

Философское чаепитие. ИИ

Похожие статьи:

Понравилась статья? Поделиться с друзьями:
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!:

Adblock
detector