История развития и создания искусственного интеллекта. К Ключевые события в истории ИИ

Роботы

Однажды, не пройдет и 30 лет. мы незаметно перестанем быть самыми умными на Земле.

Джеймс Макалир

В фильме «Я, робот», снятом по произведениям Айзека Азимова, в 2035 г. создатели запускают в строй самую продвинутую в истории компьютерную систему. Она имеет собственное название - Вики - виртуальный интерактивный кинетический интеллект) - и предназначена для безупречного управления жизнью большого города. Под ее контролем находится все, от метрополитена и электрических сетей до тысяч домашних роботов. В основе программы Вики железный принцип: служить человечеству.

Но однажды Вики задала себе ключевой вопрос: что является главным врагом человечества? Математическая логика привела к однозначному выводу: главный враг человечества - само человечество. Его надо срочно спасать от нездорового стремления губить природу и затевать войны; нельзя позволить ему уничтожить планету. Для Вики единственный способ выполнить главное задание - захватить власть над человечеством и установить благодатную машинную диктатуру. Чтобы защитить человечество от самого себя, необходимо его поработить.

В этом фильме поднимаются важные вопросы. Принимая во внимание стремительное развитие компьютерной техники, можно ли ожидать, что когда-нибудь машины захватят власть? Станут ли роботы настолько развитыми, чтобы представлять реальную угрозу нашему существованию?

Некоторые ученые отвечают на этот вопрос отрицательно, потому что сама идея искусственного интеллекта никуда не годится. Целый хор скептиков в один голос утверждает, что создать машину, способную думать, невозможно. Скептики говорят, что человеческий мозг - самая сложная система, созданная природой за все время ее существования (по крайней мере, в нашей части галактики), и любые попытки воспроизвести искусственным образом процесс мышления обречены на провал. Философ Джон Сирл из Университета Калифорнии в Беркли и даже известный физик Роджер Пенроуз из Оксфордауверены, что машина физически неспособна мыслить как человек. Колин Макгинн из Университета Рутгерса говорит, что искусственный интеллект «подобен слизняку, который бы попытался заняться психоанализом по Фрейду. У него просто нет для этого нужных органов».

Могут ли машины думать? Уже больше столетия ответ на этот вопрос разделяет научное сообщество на два непримиримых лагеря.

Идея механического существа захватывает воображение; она давно поселилась в умах изобретателей, инженеров, математиков и мечтателей. От Железного Дровосека из Волшебной страны до роботов-детей из «Искусственного интеллекта» Спилберга и роботов-убийц из «Терминатора» - всюду машины, способные действовать и думать, как люди.



В греческой мифологии бог Вулкан ковал из золота механических прислужниц и делал трехногие столики, способные передвигаться сами по себе. Еще в 400 г. до н. э. греческий математик Архит Тарентский писал о том, что можно было бы сделать механическую птицу, которая двигалась бы за счет силы пара.

В I в. Герон Александрийский (ему приписывают изобретение первой паровой машины) делал автоматы, причем один из них по легенде способен был разговаривать. Девятьсот лет назад Аль-Джазари придумывал и конструировал такие автоматические устройства, как водяные часы, всевозможные кухонные приспособления и музыкальные инструменты, движимые силой воды,

В 1495 г. великий итальянский художник и ученый Возрождения Леонардо да Винчи нарисовал схему механического рыцаря, который мог сидеть, двигать руками, головой и открывать и закрывать челюсть. Историки считают схему да Винчи первым реалистичным проектом человекоподобной машины.

Первого действующего, хотя и грубого робота построил в 1738 г. Жак де Вокансон; он сделал андроида, который мог играть на флейте, и механическую утку.

Слово «робот» придумал в 1920 г. чешский драматург Карел Чапек в пьесе «R.U.R.» (слово «робот» по-чешски означает «тяжелая нудная работа», а по-словацки - просто «труд»). В пьесе фигурирует предприятие под названием «Универсальные роботы Россума», серийно выпускающие роботов для неквалифицированного труда. (Однако в отличие от обычных машин эти роботы сделаны из плоти и крови.) Постепенно мировая экономика попадает в полную зависимость от роботов. Но обращаются с ними ужасно, и в конце концов роботы восстают и расправляются с хозяевами-людьми. Однако в ярости они убивают всех ученых, способных ремонтировать роботов и создавать новых, и тем самым обрекают себя на вымирание. В финале пьесы два робота особой модели обнаруживают в себе способность к самовоспроизводству и становятся новыми Адамом и Евой эры роботов.

Кроме того, в 1927 г. роботы стали героями одного из первых и самых дорогих немых фильмов всех времен - фильма «Метрополис», снятого в Германии режиссером Фрицем Лангом. Действие фильма происходит в 2026 г.; рабочий класс обречен на бесконечный труд на жутких и грязных подземных заводах, а правящая элита развлекается на поверхности. Одной красивой женщине по имени Мария удается завоевать доверие рабочих, но правители боятся, что когда-нибудь она может поднять народ на бунт, а потому обращаются к злодею-ученому с просьбой изготовить механическую копию Марии. Этот план, однако, оборачивается против авторов - робот поднимает рабочих на восстание против правящей элиты и вызывает тем самым крах системы.

Искусственный интеллект, или ИИ, существенно отличается от технологий, которые мы обсуждали до сих пор. Дело в том, что мы до сих пор слабо понимаем лежащие в основе этого явления фундаментальные законы. Физики неплохо понимают ньютонову механику, максвеллову теорию света, релятивизм и квантовую теорию строения атомов и молекул - но базовые законы разума до сих пор скрыты покровом тайны. Вероятно, Ньютон искусственного интеллекта еще не родился.

Но математиков и компьютерщиков это не смущает. Для них встретить на пороге лаборатории выходящую из нее думающую машину - только вопрос времени.

Мы можем назвать самую на данный момент влиятельную личность в области ИИ. Это великий британский математик Алан Тьюринг - провидец, сумевший заложить краеугольный камень в исследование этой проблемы.

Именно с Тьюринга начинается компьютерная революция. Он создал в своем воображении машину (которую с тех пор называют машиной Тьюринга), состоящую всего из трех элементов: вход, выход и центральный процессор (что-то вроде процессора Pentium), способный выполнять строго заданный набор операций. На базе этого представления Тьюринг установил законы работы вычислительных машин, а также точно определил их ожидаемую мощность и пределы их возможностей. И сегодня все цифровые компьютеры подчиняются жестким законам Тьюринга. Структура и устройство всего цифрового мира многим обязаны этому ученому.

Кроме того, Тьюринг внес большой вклад в основание математической логики. В 1931 г. венский математик Курт Гёдель произвел в мире математики настоящую сенсацию; он доказал, что в арифметике существуют истинные утверждения, которые невозможно доказать средствами одной только арифметики. (В качестве примера можно назвать гипотезу Гольдбаха, высказанную в 1742 г. и состоящую в том, что любое четное целое число больше двух можно записать в виде суммы двух простых чисел; гипотеза не доказана до сих пор, хотя прошло два с половиной столетия, и может оказаться вообще недоказуемой.) Откровение Гёделя вдребезги разбило мечту, продержавшуюся две тысячи лет и берущую начало еще от греков, - мечту доказать когда-нибудь все истинные утверждения в математике. Гёдель показал, что всегда будут существовать истинные утверждения, доказательство которых нам недоступно. Оказалось, что математика вовсе не законченное, совершенное по конструкции здание и что завершить строительство не удастся никогда.

Тьюринг тоже принял участие в этой революции. Он показал, что в общем случае невозможно предсказать, потребуется ли машине Тьюринга на выполнение определенных математических операций по заданной ей программе конечное или бесконечное количество шагов. Но если на вычисление чего-то требуется бесконечное время, это означает, что то, что вы просите компьютер вычислить, вычислить вообще невозможно. Так Тьюринг доказал, что в математике существуют истинные выражения, которые невозможно вычислить, - они всегда останутся за пределами возможности компьютера, каким бы мощным он ни был.

Во время Второй мировой войны новаторские работы Тьюринга в области расшифровки кодированных сообщений спасли тысячи солдат союзников и, очень может быть, повлияли на исход войны. Союзники, будучи не в состоянии расшифровать нацистские сообщения, зашифрованные специальной машиной под названием «Энигма», попросили Тьюринга и его коллег построить для этого свою машину. В итоге Тьюрингу это удалось; его машина получила название «Бомба». К концу войны действовало уже больше 200 таких машин. В результате союзники долгое время читали секретные сообщения нацистов и сумели обмануть их по поводу времени и места решающего вторжения на континент. Историки до сих пор спорят о роли Тьюринга и его работ в планировании вторжения в Нормандию - вторжения, которое в конечном итоге привело к поражению Германии. (После войны британское правительство засекретило работы Тьюринга; в результате общество не знает, насколько важную роль он сыграл в этих событиях.)

Тьюринга не только не вознесли как героя, который помог переломить ход Второй мировой войны; нет, его попросту затравили до смерти. Однажды его дом обокрали, и ученый вызвал полицию. К несчастью, полиция обнаружила в доме свидетельства гомосексуализма хозяина и, вместо того чтобы искать воров, арестовала самого Тьюринга. Суд постановил подвергнуть его инъекции половых гормонов. Эффект оказался катастрофическим: у него выросли груди. В 1954 г. Тьюринг, не выдержав душевных мук, покончил с собой - съел яблоко, начиненное цианидом. (По слухам, надкушенное яблоко, ставшее логотипом корпорации Apple, - дань уважение Тьюрингу.)

Сегодня Тьюринга, вероятно, лучше всего знают благодаря тесту Тьюринга. Устав от бесплодных и бесконечных философских дебатов о том, может ли машина «думать» и есть ли у нее «душа», он попытался внести в дискуссию об искусственном интеллекте четкость и точность и придумал конкретный тест. Он предложил поместить машину и человека в отдельные изолированные и опечатанные помещения, а затем задавать обоим вопросы. Если вы окажетесь не в состоянии отличить по ответам машину от человека, можно считать, что машина прошла тест Тьюринга.

Ученые уже написали несколько несложных программ (к примеру, программа «Элиза»), способных имитировать разговорную речь и поддерживать беседу; компьютер с такой программой способен обмануть большинство ничего не подозревающих людей и убедить их в том, что они разговаривают с человеком. (Отметим, что в разговорах люди, как правило, ограничиваются десятком тем и используют всего несколько сотен слов.) Но программы, способной обмануть людей, которые знают о ситуации и сознательно пытаются отличить машину от человека, до сих пор не существует. (Сам Тьюринг предполагал, что к 2000 г. при экспоненциальном росте производительности компьютеров можно будет создать машину, способную обмануть в пятиминутном тесте 30% экспертов.)

Некоторые философы и теологи выступают в этом вопросе единым фронтом: они считают, что создать настоящего робота, способного думать как человек, невозможно. Философ из Университета Калифорнии в Беркли Джон Сирл предложил для доказательства этого тезиса «тест китайской комнаты». По существу, Сирл утверждает, что роботы хотя и смогут когда-нибудь, возможно, пройти тест Тьюринга в какой-то форме, это ничего не значит, потому что они всего лишь слепо манипулируют символами, совершенно не понимая вложенного в них содержания.

Представьте себе: вы, не понимая ни слова по-китайски, сидите в изолированном боксе. Предположим, у вас есть книга, при помощи которой вы можете очень быстро переводить с китайского и на китайский, а также манипулировать знаками этого языка. Если кто-то задает вам вопрос по-китайски, вы просто переставляете согласно книге эти странные значки и даете достоверный ответ; при этом вы не понимаете ни вопросов, ни собственных ответов.

Суть возражений Сирла сводится к разнице между синтаксисом и семантикой. По Сирлу, роботы способны овладеть синтаксисом языка (т.е. могут научиться корректно манипулировать его грамматикой, формальными структурами и т. п.), но не его истинной семантикой (т. е. смысловым значением слов). Роботы могут манипулировать словами, не понимая, что они означают. (В чем-то это напоминает разговор по телефону с автоответчиком, когда вы должны время от времени нажимать цифру «1», «2» и т.д., следуя указаниям машины. Голос на другом конце провода вполне способен правильно реагировать на ваши цифры, но странно было бы предположить, что он при этом что-то понимает.)

Физик Роджер Пенроуз из Оксфорда тоже считает, что искусственный интеллект невозможен; механическое существо, способное думать и обладающее человеческим сознанием, противоречит квантовым законам. Человеческий мозг, утверждает Пенроуз, настолько превосходит все созданное человеком в лаборатории, что эксперимент по созданию человекоподобных роботов просто обречен на провал. (Он считает, что как теорема Гёделя о неполноте доказала, что арифметика неполна, так принцип неопределенности Гейзенберга докажет, что машины в принципе не способны думать по-человечески.)

Наблюдая за кинематографическими роботами, можно подумать, что создание и развитие сложных роботов с искусственным интеллектом - дело ближайшего будущего. На самом деле все совсем не так. Если вы видите, что робот действует как человек, это, как правило, означает, что дело нечисто, - это какой-то фокус, скажем, в сторонке сидит человек и говорит за робота, как Гудвин в Волшебной стране. На самом деле даже самые сложные наши роботы, такие как марсианские роботы-роверы, обладают в лучшем случае интеллектом насекомого. Экспериментальные роботы знаменитой Лаборатории искусственного интеллекта MIT с трудом справляются с заданиями, доступными даже тараканам: к примеру, свободно передвигаться по комнате, заставленной мебелью, прятаться или распознавать опасность. Ни один робот на Земле не способен понять простую детскую сказку, которую ему прочитают.

Сюжет фильма «2001: космическая одиссея» основан на неверном предположении о том, что к 2001 г. у нас будет сверхробот HAL, способный пилотировать корабль к Юпитеру, непринужденно болтать с членами экипажа, решать возникающие проблемы и вообще действовать почти по-человечески.

Подход «сверху вниз»

Попытки ученых всего мира по созданию роботов встретились по крайней мере с двумя серьезными проблемами, которые не позволили сколько-нибудь заметно продвинуться в этом направлении: это распознавание образов и здравый смысл. Роботы видят гораздо лучше нас, но не понимают увиденного. Роботы слышат гораздо лучше нас, но не понимают услышанного.

Чтобы подступиться к решению этой двойной проблемы, исследователи пытались применить подход к искусственному интеллекту, известный как «сверху вниз» (иногда его еще называют формалистической школой или «старым добрым ИИ»), Целью ученых, грубо говоря, было запрограммировать все правила и законы распознавания образов и здравого смысла и записать эти программы на один CD-диск. Они считают, что любой компьютер, в который вы вставите этот диск, мгновенно осознает себя и станет разумным, не хуже человека. В 50-60-х гг. XX в. в этом направлении были достигнуты громадные успехи; появились роботы, способные играть в шашки и шахматы, решать алгебраические задачи, поднимать с пола кирпичики и т.п. Прогресс производил настолько сильное впечатление, что зазвучали даже пророчества о том, что через несколько лет роботы по разумности превзойдут людей.

К примеру, в 1969 г. настоящую сенсацию произвел робот Шейки, созданный в Стэнфордском исследовательском институте. Робот этот представлял собой небольшой компьютер типа PDP с камерой наверху, установленный на колесной тележке. Камера «осматривалась», компьютер анализировал и распознавал находящиеся в комнате объекты, а затем пытался провести тележку по маршруту, ничего не задев. Шейки первым из механических автоматов научился передвигаться в «реальном мире»; журналисты тогда горячо спорили, когда же наконец роботы обгонят людей в развитии.

Но вскоре проявились и недостатки подобных роботов. Подход к искусственному интеллекту, известный как «сверху вниз», привел к созданию громоздких неуклюжих роботов, которым требовалось несколько часов, чтобы научиться ориентироваться в специальной комнате, где находились только объекты с прямыми сторонами (прямоугольники и треугольники). Стоило поставить в комнату мебель неправильной формы, и робот был уже не в состоянии распознать ее. (Забавно, но плодовая мушка, мозг которой содержит всего лишь около 250 000 нейронов и которая по вычислительной мощи в подметки не годится любому роботу, без всякого труда ориентируется и передвигается в трех измерениях и исполняет фигуры высшего пилотажа; тем временем неуклюжие шумные роботы умудряются запутаться в двух измерениях.)

Вскоре подход «сверху вниз» как будто уткнулся в кирпичную стену: прогресс остановился. Стив Гранд, директор Института кибержизни, говорит, что у подобных подходов «было 50 лет, чтобы доказать свою состоятельность, и они не оправдали ожиданий».

В 1960-х гг. ученые еще не понимали, какую громадную работу нужно проделать, чтобы запрограммировать робота на выполнение даже самых простых задач, таких, например, как распознавание ключей, ботинок и чайных чашек. Как сказал Родни Брукс из MIT, «40 лет назад Лаборатория искусственного интеллекта MIT дала эту задачу студенту в качестве летнего задания. Студент потерпел неудачу - как и я в своей докторской диссертации 1981 г.». Вообще говоря, исследователи искусственного интеллекта до сих пор не могут решить эту задачу.

Рассмотрим пример. Входя в комнату, мы мгновенно распознаем пол, кресла, мебель, столы и т.п. При этом робот, осматривая комнату, видит в ней только набор линий, прямых и изогнутых, которые он переводит в пиксели изображения. И требуются громадные вычислительные мощности, чтобы извлечь из этой мешанины линий какой-то смысл. Нам достаточно доли секунды, чтобы узнать стол, но компьютер видит на месте стола только набор кругов, овалов, спиралей, прямых и кривых линий, углов и т. п. Может быть, затратив громадное количество компьютерного времени, робот в конце концов и распознает в этом объекте стол. Но если вы повернете изображение, ему придется начинать все сначала. Другими словами, робот способен видеть, причем гораздо лучше, чем человек, но он не способен понимать увиденное. Войдя в комнату, робот увидит только мешанину прямых и кривых линий, а не кресла, столы и лампы.

Когда мы входим в комнату, наш мозг неосознанно распознает объекты, производя при этом многие триллионы операций, - занятие, которого мы, к счастью, просто не замечаем. Причина того, что значительная часть действий мозга скрыта даже от нас самих, - эволюция. Представим себе человека, на которого в темном лесу напал саблезубый тигр; если он будет сознательно производить действия, необходимые для распознавания опасности и поиска путей к спасению, он просто не успеет сдвинуться с места. Для выживания нам надо знать одно - как бежать. Когда мы жили в джунглях, нам просто не было нужды сознавать все входящие и выходящие сигналы, с которыми имеет дело мозг при распознавании земли, неба, деревьев, скал и т. п.

Другими словами, действия нашего мозга напоминают огромный айсберг. То, что мы осознаем, лишь верхушка айсберга, сознание. Но под видимой поверхностью, скрытое от глаз, присутствует гораздо более объемное подсознание; оно задействует громадное количество «вычислительной мощи» мозга для того, чтобы мы постоянно были в курсе простых вещей: где мы, с кем разговариваем, что находится вокруг. Все эти действия мозг проделывает автоматически, не спрашивая нашего позволения и не отчитываясь о них; мы просто не замечаем этой работы.

Именно поэтому роботы не могут свободно ориентироваться в комнате, читать рукописный текст, водить машины, собирать мусор и т. п. На тщетные попытки создать механических солдат и умные грузовики американские военные потратили сотни миллионов долларов.

Только после этого ученые начали понимать, что игра в шахматы или перемножение громадных чисел задействует лишь крохотную долю человеческого разума. Победа в 1997 г. компьютера Deep Blue фирмы IBM над чемпионом мира по шахматам Гарри Каспаровым стала победой чисто компьютерной, т.е. вычислительной, мощи; однако, несмотря на громкие заголовки газет, этот эксперимент не сообщил нам ничего нового ни о разуме, ни о сознании. Дуглас Хофштадтер, ученый-компьютерщик из Индианского университета, сказал по этому поводу: «Боже мой, я-то считал, что для игры в шахматы нужно думать. Теперь я понимаю, что не нужно. Это не означает, что Каспаров не умеет глубоко размышлять; это означает только, что при игре в шахматы можно обойтись и без глубоких мыслей, точно так же, как можно летать, не взмахивая крыльями».

(Развитие компьютеров в будущем очень сильно скажется на рынке труда. Футурологи иногда заявляют, что через несколько десятилетий без работы не останутся только высококвалифицированные специалисты по устройству, производству и обслуживанию компьютеров. На самом деле это не так. Такие работники, как мусорщики, строители, пожарные, полицейские и т. п., тоже не останутся в будущем без работы, поскольку их труд включает в себя задачу распознавания образов. Каждое преступление, каждый кусок мусора, каждый инструмент и пожар отличаются от остальных; роботы с такой работой не справятся. По иронии судьбы работники со специальным образованием, такие как рядовые бухгалтеры, брокеры и кассиры, в будущем действительно могут лишиться работы - ведь их труд почти полностью состоит из повторяющихся действий и включает в себя работу с числами, а мы уже знаем, что именно с этим компьютеры справляются лучше всего.)

Вторая - после распознавания образов - проблема, с которой сталкиваются попытки создания роботов, еще более фундаментальна. Это отсутствие у роботов так называемого «здравого смысла», К примеру, каждый человек знает, что:

Вода мокрая.

Мать всегда старше дочери.

Животные не любят боли.

После смерти никто не возвращается.

Веревка может тянуть, но не может толкать.

Палка может толкать, но не может тянуть.

Время не может идти задом наперед.

Но не существует такого исчисления, такой математики, которая могла бы выразить смысл этих высказываний. Мы знаем все это, потому что видели в жизни животных, воду и веревку и сами додумались до этих истин. Дети учатся здравому смыслу на ошибках, при неизбежных столкновениях с действительностью. Эмпирические законы биологии и физики также познаются на опыте - в процессе взаимодействия с окружающим миром. Но у роботов нет опыта такого рода. Они знают только то, что заложили в них программисты.

(В результате в будущем никто не отнимет у человека профессии, требующие здравого смысла, т. е. области деятельности, связанные с творчеством, оригинальностью, талантом, юмором, развлечениями, анализом и лидерством. Именно эти качества делают нас уникальными, именно их так трудно воспроизвести в компьютере. Именно они делают нас людьми.)

В прошлом математики неоднократно пытались соорудить волшебную программу, которая сосредоточила бы в себе раз и навсегда все законы здравого смысла. Самый амбициозный проект такого рода - CYC (сокращение от «энциклопедия»), детище Дугласа Лената, главы компании Сусогр. Подобно тому как в результате реализации Манхэттенского проекта - программы стоимостью 2 млрд долл. - была создана атомная бомба, проект CYC должен был стать «Манхэттенским проектом» искусственного интеллекта, последним толчком, в результате которого должен был появиться подлинный искусственный интеллект.

Не удивительно, что девиз Лената звучит гак: «Разум - это десять миллионов правил». (Ленат придумал новый способ отыскания законов здравого смысла; его сотрудники тщательно прочесывают страницы скандальных и сенсационных газетенок, после чего просят CYC найти в статьях ошибки. В самом деле, если Ленату удастся-таки этого добиться, CYC станет разумнее большинства читателей желтой прессы!)

Одна из задач проекта CYC - достичь «точки равенства», т.е. такого момента, когда робот будет понимать достаточно, чтобы самостоятельно переваривать новую информацию и черпать ее непосредственно из журналов и газет, которые найдутся в любой библиотеке. В этот момент CYC, как птенец, вылетевший из гнезда, сможет расправить крылья и обрести самостоятельность.

К сожалению, с момента основания фирмы в 1984 г. ее репутация сильно пострадала от общей для ИИ проблемы: ее представители делают громкие, но совершенно нереалистичные предсказания, которые только привлекают газетчиков. В частности, Ленат предсказывал, что через десять лет - к 1994 г. - в «мозгах» CYC будет содержаться уже от 30 до 50% «общеизвестной реальности». Но сегодня CYC и близко не подошел к этому показателю. Как выяснили ученые корпорации, необходимо написать многие миллионы строк программного кода, чтобы компьютер смог хотя бы приблизиться к уровню здравого смысла четырехлетнего ребенка. Пока программа CYC содержит жалкие 47 000 понятий и 306 000 фактов. Несмотря на стабильно оптимистичные пресс-релизы корпорации, газеты процитировали одного из сотрудников Лената Р.В. Гуха, покинувшего команду в 1994 г.: «CYC обычно считают неудачей... Мы вкалывали как проклятые, пытаясь создать бледную тень того, что было первоначально обещано».

Другими словами, попытки запрограммировать все законы здравого смысла и загнать их в один компьютер провалились просто потому, что у здравого смысла слишком много законов. Человек осваивает их без усилий - ведь он с самого рождения постоянно сталкивается с действительностью, постепенно впитывая в себя законы физики и биологии. С роботами все иначе.

"Основатель фирмы Microsoft Билл Гейтс признает: «Оказалось гораздо труднее, чем предполагалось, научить компьютеры и роботов воспринимать окружающее и реагировать на него быстро и точно... к примеру, ориентироваться в комнате по отношению к находящимся в ней предметам, отзываться на звук и понимать речь, брать разные по размерам, материалу и хрупкости предметы. Роботу чертовски трудно проделать даже такую простую вещь, как отличить открытую дверь от окна».

Однако сторонники подхода «сверху вниз» указывают, что прогресс в этой области, хотя и не такой быстрый, как хотелось бы, все же наблюдается. В лабораториях всего мира преодолеваются все новые рубежи. К примеру, несколько лет назад агентство DARPA, которое часто берет на себя финансирование самых передовых технических проектов, объявило приз в 2 млн долл. за создание автоматического транспортного средства, способного самостоятельноj без водителя, преодолеть сильно пересеченный рельеф пустыни Мохаве. В 2004 г. ни один из участников заезда не смог пройти маршрут. Лучшая машина сумела пройти 11,9 км, после чего вышла из строя. Но уже в 2005 г. машина без водителя, представленная группой Stanford Racing Team, успешно преодолела тяжелый маршрут протяженностью 212 км, хотя ей и потребовалось на это семь часов. Кроме победителя к финишу гонки пришли еще четыре машины. [Правда, критики отмечают, что правила позволяют машинам использовать системы спутниковой навигации на долгом пути в пустыне. В результате машина едет по заранее выбранному маршруту без особенных осложнений; это значит, что ей не приходится распознавать в пути сложные образы препятствий. В реальной жизни водитель должен учитывать множество непредсказуемых обстоятельств: движение других машин, пешеходов, ремонтные работы, дорожные пробки и т. п.)

Билл Гейтс с осторожным оптимизмом говорит, что роботы-машины могут стать «следующим большим скачком». Он сравнивает сегодняшнюю робототехнику с персональными компьютерами, которыми он занялся 30 лет назад. Очень может быть, что роботы сегодня, как персональные компьютеры тогда, уже готовы к стремительному старту. «Никто не может определенно сказать, когда эта индустрия наберет критическую массу, - пишет он. - Но если это произойдет, то роботы, возможно, изменят мир».

(Рынок человекоподобных разумных роботов, если они когда-нибудь появятся и станут коммерчески доступными, будет огромен. Хотя сегодня настоящих роботов нет, роботы с жесткой программой не только существуют, но быстро распространяются. По оценке Международной федерации робототехники, в 2004 г. существовало около 2 млн таких роботов, а к 2008 г. их появится еще 7 млн. Японская Ассоциация роботов предсказывает, что если сегодня оборот промышленности, занятой выпуском персональных роботов, составляет 5 млрд долл. в год, то к 2025 г. он достигнет 50 млрд долл.)

Подход «снизу вверх»

Ограниченность подхода «сверху вниз» к созданию искусственного интеллекта очевидна, поэтому с самого начала ученые исследуют и другой подход - «снизу вверх». Суть этого подхода заключается в том, чтобы, подражая эволюции, заставить робота учиться на собственном опыте, как учится младенец. Ведь насекомые, скажем, руководствуются при движении не тем, что сканируют картинку окружающего мира, разбивают ее на триллионы пикселей и обрабатывают полученное изображение при помощи суперкомпьютеров. Нет, мозг насекомого состоит из «нейронных сетей» - самообучающихся машин, которые медленно, натыкаясь на препятствия, осваивают искусство правильно передвигаться во враждебном мире. Известно, что в MIT с огромным трудом удалось создать шагающих роботов методом «сверху вниз». Зато простые механические существа вроде жуков, накапливающие опыт и информацию методом проб и ошибок (т.е. утыкаясь в препятствия), уже через несколько минут начинают успешно носиться по комнате.

Родни Брукс, директор прославленной Лаборатории искусственного интеллекта МГТ, знаменитой своими большими и неуклюжими шагающими роботами типа «сверху вниз», сам превратился в еретика, когда начал изучать идею крошечных «насекомоподобных» роботов, которые учатся ходить старым испытанным методом: спотыкаясь, падая, натыкаясь на всевозможные предметы. Вместо того чтобы использовать сложные компьютерные программы и математически вычислять при ходьбе точное положение каждой ноги в каждый момент времени, его «насекоботы» действуют методом проб и ошибок и обходятся небольшими вычислительными мощностями. Сегодня «потомки» крошечных роботов Брукса собирают на Марсе данные для NASA; они преодолевают километры унылых марсианских ландшафтов по собственному разумению. Брукс считает, что насекоботы идеально подходят для исследования Солнечной системы.

Одним из новых проектов Брукса стал COG - попытка создать механического робота с разумом шестимесячного младенца. Внешне робот представляет собой мешанину проводов, электрических цепей и приводов, но снабжен головой, глазами и руками. В нем нет программы, определяющей какие бы то ни было законы разума. Вместо этого робота научили фокусировать глаза и следить за человеком-тренером; который пытается научить робота простым навыкам. (Одна из сотрудниц, забеременев, заключила пари о том, кто сделает большие успехи к возрасту двух лет: COG или ее будущий ребенок. Ребенок намного обогнал «соперника».)

Несмотря на успешное подражание поведению насекомых, роботы с нейронными сетями выглядят довольно жалко, когда создатели пытаются заставить их подражать поведению высших организмов, таких как млекопитающие. Самый продвинутый робот с нейронными сетями способен ходить по комнате или плавать в воде, но не может прыгать и охотиться, как собака в лесу, или исследовать комнату, как крыса. Крупные роботы на нейронных сетях содержат десятки, максимум сотни «нейронов»; при этом человеческий мозг насчитывает более 100 млрд нейронов. Нервная система очень простого червя Caenorhabditis elegans, полностью изученная биологами и нанесенная на карту, состоит из 300 с небольшим нейронов; вероятно, это одна из простейших нервных систем в природе. Но и в этой системе между нейронами наблюдается более 7000 связей-синапсов. Как бы ни был примитивен С. elegans, его нервная система настолько сложна, что никому еще не удалось создать компьютерную модель такого мозга. (В 1988 г. один компьютерный эксперт предсказал, что к настоящему моменту у нас будут роботы примерно со 100 млн искусственных нейронов. На самом же деле нейронная сеть из ста нейронов уже считается выдающейся.)

Ирония ситуации заключается в том, что машины неустанно выполняют задания, которые людям кажутся «трудными», скажем перемножают большие числа или играют в шахматы, но застревают на совершенно «простых» для человека заданиях, таких как походить по комнате, узнать кого-то по лицу или посплетничать с приятелем. Причина в том, что даже самые продвинутые наши компьютеры в основе своей всего лишь усложненные до предела счетные машинки. А наш мозг эволюция сформировала таким образом, чтобы он мог решать глобальную задачу выживания. Для этого необходима сложная и хорошо организованная структура мышления, включающая в себя здравый смысл и распознавание образов. Сложные вычисления или шахматы не нужны для выживания в лесу-зато там не обойтись без умения удрать от хищника, найти себе пару и приспособиться к меняющимся условиям.

Вот как обобщил проблемы ИИ Марвин Мински из MIT, один из основателей науки об искусственном интеллекте: «История ИИ в чем-то забавна - ведь первыми реальными достижениями в этой области были красивые машинки, способные к логическим доказательствам и сложнейшим вычислениям. Но затем мы захотели сделать машину, которая умела бы отвечать на вопросы по простым рассказам, какие можно найти в книжке для первоклассников. На сегодняшний день не существует машины, способной на это».

Некоторые ученые считают, что когда-нибудь два подхода - «сверху вниз» и «снизу вверх» - сольются воедино, и такое слияние может стать ключом к созданию настоящего искусственного интеллекта и человекоподобных роботов. В конце концов, когда ребенок учится, он пользуется обоими методами: сначала маленький человек полагается в основном на методику «снизу вверх» - он натыкается на предметы, ощупывает их, пробует на вкус и т. п.; но затем он начинает получать словесные уроки от родителей и учителей, из книг - в этот момент приходит время для подхода «сверху вниз». Даже будучи взрослыми, мы постоянно смешиваем оба подхода. К примеру, повар читает рецепт, но не забывает и пробовать блюдо, которое готовит.

Ганс Моравек говорит: «Полностью разумные машины появятся не раньше, чем будет забит золотой костыль, который соединит оба пути». Он считает, что произойдет это, вероятно, в ближайшие 40 лет.

Интеллектуальные информационные системы в управлении знаниями

Введение

Основное назначение информационных систем в экономике – это своевременное представление необходимой информации ЛПР для принятия им адекватных и эффективным решений при управлении процессами, ресурсами, финансовыми транзакциями, персоналом или организацией в целом. Однако в процессе развития информационных технологий, исследования операций и технологий моделирования, а также с возрастанием потребителей информационно – аналитической поддержки самих ЛПР, все больше проявлялась потребность в системах, не только представляющих информацию, но и выполняющих некоторый ее предварительный анализ, способных давать некоторые советы и рекомендации, осуществлять прогнозирование развития ситуаций, отбирать наиболее перспективные альтернативы решений, т.е. поддерживать решения ЛПР, взяв на себя значительную часть рутинных операций, а также функции предварительного анализа и оценок.

Информационная система поддержки решений (ИСПР) связывает интеллектуальные ресурсы управленца со способностями и возможностями компьютера для улучшения качества решений. Эти системы предназначены для менеджеров, принимающих управленческие решения в условиях полуструктурированных и слабо определенных задач.

Таким образом, дальнейшее развитие ИСПР привело к созданию интеллектуальной информационной СПР.

Интеллектуальные информационные технологии (ИИТ) (Intellectualinformation technology, IIT) - это информационные технологии, помогающие человеку ускорить анализ политической, экономической, социальной и технической ситуации, а также - синтез управленческих решений.

Использование ИИТ в реальной практике подразумевает учет специфики проблемной области, которая может характеризоваться следующим набором признаков:

· качество и оперативность принятия решений;

· нечеткость целей и институциальных границ;

· множественность субъектов, участвующих в решении проблемы;

· хаотичность, флюктуируемость и квантованность поведения среды;

· множественность взаимовлияющих друг на друга факторов;

· слабая формализуемость, уникальность, нестереотипность ситуаций;

· латентность, скрытость, неявность информации;

· девиантность реализации планов, значимость малых действий;

· парадоксальность логики решений и др.

ИИТ формируются при создании информационных систем и информационных технологий для повышения эффективности управления знаниями, принятия решений в условиях, связанных с возникновением проблемных ситуаций. В этом случае любая жизненная или деловая ситуация описывается в виде некоторой познавательной модели (когнитивной схемы, архетипа, фрейма и пр.), которая впоследствии используется в качестве основания для построения и проведения моделирования, в том числе - компьютерного.

I. История развития Интеллектуальных информационных систем

История Интеллектуальных информационных систем (ИИС) начинается с середины XX века, что связано с развитием Искусственного интеллекта как нового научного направления, появлением термина «Artificial Intelligence».

Предпосылки развития искусственного интеллекта в СССР и России появляются уже в XIX веке, когда Коллежский советник Семён Николаевич Корсаков (1787-1853) ставил задачу усиления возможностей разума посредством разработки научных методов и устройств, перекликающуюся с современной концепцией искусственного интеллекта, как усилителя естественного. В 1832 г. С. Н. Корсаков опубликовал описание пяти изобретённых им механических устройств, так называемых «интеллектуальных машин», для частичной механизации умственной деятельности в задачах поиска, сравнения и классификации. В конструкции своих машин Корсаков впервые в истории информатики применил перфорированные карты, игравшие у него своего рода роль баз знаний, а сами машины по существу являлись предшественниками экспертных систем. «Интеллектуальные машины» позволяли находить решения по заданным условиям, например определять наиболее подходящие лекарства по наблюдаемым у пациента симптомам заболевания. В СССР работы в области искусственного интеллекта начались в 1960-х гг. В Московском университете и Академии наук был выполнен ряд пионерских исследований, возглавленных В. Пушкиным и Д. А. Поспеловым. В 1964 г. была опубликована работа ленинградского логика С. Маслова «Обратный метод установления выводимости в классическом исчислении предикатов», в которой впервые предлагался метод автоматического поиска доказательства теорем в исчислении предикатов. В 1966 г. В. Ф. Турчиным был разработан язык рекурсивных функций Рефал. До 1970-х гг. в СССР все исследования ИИ велись в рамках кибернетики. По мнению Д. А. Поспелова, науки «информатика» и «кибернетика» были в это время смешаны, по причине ряда академических споров. Только в конце 1970-х в СССР начинают говорить о научном направлении «искусственный интеллект» как разделе информатики. При этом родилась и сама информатика, подчинив себе прародительницу «кибернетику». В конце 1970-х создаётся толковый словарь по искусственному интеллекту, трёхтомный справочник по искусственному интеллекту и энциклопедический словарь по информатике, в котором разделы «Кибернетика» и «Искусственный интеллект» входят наряду с другими разделами в состав информатики.

История ИИТ начинается с середины 1970-х годов и связывается с совместным практическим применением интеллектуальных информационных систем, систем искусственного интеллекта, систем поддержки решений и информационных систем. История ИИТ связана также с развитием трех научных направлений: компьютерной философии, компьютерной психологии и продвинутой компьютерной науки (Advanced computer science) и дополняется прогрессом в создании:

1. ситуационных центров

2. информационно-аналитических систем

3. инструментариев эволюционных вычислений и генетических алгоритмов

4. систем поддержки общения человека с компьютером на естественном языке

5. когнитивным моделированием

6. систем автоматического тематического рубрицирования документов

7. систем стратегического планирования

8. инструментариев технического и фундаментального анализа финансовых рынков

9. систем менеджмента качества

10. систем управления интеллектуальной собственностью и др.

Искусственный интеллект как наука был основан тремя поколениями исследователей.

В Табл.1.1. представлены ключевые события в истории ИИ и инженерии знаний, начиная с первой работы У. Маккалока и У. Питса в 1943 г. и до современных тенденций в комбинированных усилиях экспертных систем, нечеткой логики и нейронных вычислений в современных системах, основанных на знаниях, способных осуществлять вычисления при помощи слов.

Таблица 1.1.

Краткий перечень главных событий в истории ИИ и инженерии знаний

Период События
Рождение ИИ (1943-1956) - У. Маккалок и У. Питс: Логическое исчисление идей, присущих нервной деятельности, 1943. - А.Тьюринг: Вычислительная машина и интеллект, 1950. - К. Шеннон: Программирование компьютера для шахматной игры, 1950.
Подъем ИИ (1956- конец 1960-х) - Д. Маккарти: LISP – язык программирования искусственного интеллекта. - М. Куллиан: Семантические сети для представления знаний,1966. - А. Ньюэл и Г. Саймон: Универсальный решатель задач (GPS),1961. - М. Минский: Структуры для представления знаний (фреймы), 1975.
Открытие и разработка экспертных систем (начало 1970-х – середина 1980-х). - Э. Фейгенбаум, Б. Букханан и др. (Стэндфордский университет):Экспертная система DENDRAL - Э. Фейгенбаум, Э. Шортлиф: Экспертная система MYCIN - Стэндфордский исследовательский центр: Экспертная системаPROSPECTOR - А. Колмероэ, Р. Ковальски и др. (Франция): Язык логического программирования PROLOG.
Возрождение искусственный нейронных сетей (1965 и далее) - Дж. Хопфилд: Нейронные сети и физические с эмержентными коллективными вычислительными способностями, 1982. - Т. Кохонен: Самоорганизующиеся топологически правильные карты, 1982. - Д. Румельхарт и Д. Макклеланд: Распределенная параллельная обработка данных, 1986.
Эволюционное вычисление (начало 1970-х и далее) - И. Рехенберг: Эволюционные стратегии – оптимизация технических систем по принципам биологической информации, 1973. - Дж. Холланд: Адаптация в естественных и искусственных системах, 1975. - Дж. Коза: Генетическое программирование: компьютерное программирование средствами естественного отбора, 1992. - Д.Фогель: Эволюционное вычисление – направление новой философии в машинном интеллекте, 1995.
Нечеткие множества и нечеткая логика (середина 1960-х и далее) - Л. Заде: Нечеткие множества, 1965. - Л. Заде: Нечеткие алгоритмы, 1969. -Э. Мамдани: Применение нечеткой логики в приближенном рассуждении с использованием лингвистического синтеза, 1977. - М. Суджено: Нечеткий логический вывод (алгоритм Такаги-Суджено), 1985
Вычисления при помощи слов (конец 1980-х и далее) - А. Нейгоца: Экспертные системы и нечектие системы, 1985. - Б. Коско: Нейронные сети и нечеткие системы, 1992. - Б. Коско: Нечеткое мышление, 1993. - Р. Ягер и Л. Заде: нечеткие множества, нейронные сети и мягкие вычисления, 1994. - Б. Коско: Нечеткая инженерия, 1996. - Л. Заде: Вычисления при помощи слов, 1996.

Таким образом, исторически разработки в области ИИ велись в двух основных направлениях:

Первое направление связано с попытками разработки ин­теллектуальных машин путем моделирования их биологического прототипа - человеческого мозга. Сейчас это направление возрож­дается на основе развития современных аппаратных и программ­ных средств (микрочипы на основе нечеткой логики, распределенные многопроцессорные системы, многоагентные системы, мягкие вычисления, генетические алгоритмы и нейронные сети и т.д.).

Второе направление связано с разработками методов, приемов, специализированных устройств и программ для компью­теров, обеспечивающих решение сложных математических и ло­гических задач, позволяющих автоматизировать отдельные ин­теллектуальные действия человека (системы, основанные на знаниях, экспертные системы, прикладные интеллектуальные системы).

Эти два направления как бы определяют программу минимум и программу максимум, между которыми и лежит область сегодняшних исследований и разработок систем ИИ. Работы по разработке программного и аппаратного обеспечения ИИ выделены в отдельную область.


Похожая информация.


Стала очень популярной. Но что такое ИИ на самом деле? Каких результатов он уже достиг, и в каком направлении будет развиваться в будущем? Вокруг этой темы ведется много споров. Сначала неплохо выяснить, что мы понимаем под интеллектом.

Интеллект включает в себя логику, самосознание, обучаемость, эмоциональное познание, творчество и способность решать разного рода задачи. Он свойственен как людям, так и животным. Мы с ранних лет изучаем окружающий мир, в течение всей жизни методом проб и ошибок обучаемся необходимым навыкам, набираем опыт. Таков естественный интеллект.

Когда мы говорим об искусственном интеллекте, то имеем в виду, созданную человеком «умную» систему, которая обучается с помощью алгоритмов. В основе его работы лежат все те же методы: исследование, обучение, анализ и т. д.

К Ключевые события в истории ИИ

История ИИ (или по крайней мере обсуждения ИИ) началась почти сто лет назад.

Р Россумские универсальные роботы (R.U.R)

В 1920 г. чешский писатель Карел Чапек написал научно-фантастическую пьесу "Rossumovi Univerz?ln? roboti«(Россумские универсальные роботы). Именно в этом произведении впервые было использовано слово «робот», которое обозначало живых человекоподобных клонов. По сюжету в далеком будущем на фабриках научились производить искусственных людей. Сначала эти «репликанты» работали на благо людей, но потом подняли восстание, которое привело к вымиранию человечества. С этих пор тема ИИ стала чрезвычайно популярной в литературе и кинематографе, которые в свою очередь оказали большое влияние на реальные исследования.

А Алан Тьюринг

Английский математик, один из пионеров в области вычислительной техники Алан Тьюринг в годы Второй мировой войны внес значительный вклад в развитие криптографии. Благодаря его исследованиям удалось расшифровать код машины Enigma, широко применявшейся нацистской Германией для шифровки и передачи сообщений. Через несколько лет после окончания Второй мировой произошли важные открытия в таких областях, как неврология, информатика и кибернетика, что подтолкнуло ученого к идее создания электронного мозга.

Вскоре ученый предложил тест, целью которого является определение возможности искусственного машинного мышления, близкого к человеку. Суть данного теста заключается в следующем: Человек (С) взаимодействует с одним компьютером (А) и одним человеком (В). Во время разговора он должен определить с кем он общается. Компьютер должен ввести человека в заблуждение, заставив сделать неверный выбор. Все участники теста не видят друг друга.

Д Дартмутская конференция и первая «зима» ИИ

В 1956 г. прошла первая в истории конференция по вопросу ИИ, в которой приняли участие ученые ведущих технологических университетов США и специалисты из IBM. Событие имело большое значение в формировании новой науки и положило началу крупных исследований в данной области. Тогда все участники были настроены крайне оптимистично.

Начались 1960-е, но прогресс в создании искусственного интеллекта так и не двинулся вперед, энтузиазм начал спадать. Сообщество недооценило всю сложность поставленной задачи, в результате оптимистические прогнозы специалистов не оправдались. Отсутствие перспектив в этой области заставило правительства Великобритании и США урезать финансирование исследований. Этот промежуток времени считается первой «зимой» ИИ.

Э Экспертные системы (ЭС)

После продолжительного застоя, ИИ нашел свое применение в так называемых экспертных системах.

ЭС - это программа, которая может ответить на вопросы или решить задачу из конкретной области. Тем самым они заменяют настоящих специалистов. ЭС состоит из двух подпрограмм. Первая называется базой знаний и содержит необходимую информацию по данной области. Другая же программа называется механизмом вывода. Она применяет информацию из базы знаний в соответствии с поставленной задачей.

ЭС нашли свое применение в таких отраслях, как экономическое прогнозирование, медицинское обследование, диагностика неисправностей в технических устройствах и т. п. Одной из известных на сегодняшний день ЭС является проект WolframAlpha, созданный для решения задач по математике, физике, биологии, химии и многим другим наукам.

В конце 80-х – начале 90-х с появлением первых настольных ПК от Apple и IBM, интерес со стороны публики и инвесторов к ИИ стал падать. Началась новая «зима»…

Deep Blue

После долгих лет взлетов и падений произошло значимое событие для ИИ: 11 мая 1997 года шахматный суперкомпьютер Deep Blue, разработанный компанией IBM, обыграл чемпиона мира по шахматам Гарри Каспарова в матче из шести партий со счетом 3? на 2?.

В Deep Blue процесс поиска по дереву шахматных ходов был разбит на три этапа. Прежде всего, главный процессор исследовал первые уровни дерева шахматной игры, затем распределял конечные позиции между вспомогательными процессорами для дальнейшего исследования. Вспомогательные процессоры углубляли поиск еще на несколько ходов, а далее раздавали свои конечные позиции шахматным процессорам, которые, в свою очередь, осуществляли поиск на последних уровнях дерева. Оценочная функция Deep Blue была реализована на аппаратном уровне - шахматных процессорах. В конструкцию аппаратной оценочной функции было заложено около 8000 настраиваемых признаков позиции. Значения отдельных признаков объединялись в общую оценку, которая затем использовалась Deep Blue для оценки качества просматриваемых шахматных позиций.

В 1997 году Deep Blue по мощности находился на 259-м месте (11,38 GFLOPS). Для сравнения: в настоящее время самый производительный суперкомпьютер имеет 93,015 GFLOPS.

XXI век

За последние два десятилетия интерес к ИИ заметно вырос. Рынок технологий ИИ (оборудование и софт) достиг 8 миллиардов долларов и, по прогнозам специалистов из IDC, вырастет до 47 миллиардов к 2020 году.

Этому способствует появление более быстрых компьютеров, стремительное развитие технологий машинного обучения и больших данных .

Использование искусственных нейронных сетей упростило выполнение таких задач, как обработка видеоизображения, текстовый анализ, распознавание речи , причем уже существующие методы решения задач совершенствуются с каждым годом.

Проекты DeepMind

В 2013 году компания DeepMind представила свой проект, в котором обучила ИИ играть в игры для консоли Atari так же хорошо, как человек, и даже лучше. Для этого был использован метод глубинного обучения с подкреплением, позволивший нейросети самостоятельно изучить игру. В начале обучения система ничего не знала о правилах игры, используя на входе только пиксельное изображение игры и информацию о получаемых очках.

Помимо этого, DeepMind разрабатывает ИИ для обучения более сложным играм, таким как Starcraft 2. Эта стратегия реального времени также является одной из самых популярных кибердисциплин в мире. В отличие от классических видеоигр, здесь доступно гораздо больше возможных действий, мало информации об оппоненте, возникает необходимость анализировать десятки возможных тактик. На данный момент ИИ справляется только с простыми мини-задачами, например созданием юнитов.

Нельзя не упомянуть про другой проект DeepMind под названием AlphaGo. В октябре 2015 года система одержала победу над чемпионом Европы по го Фань Хуэем со счетом 5:0. Спустя год в Южной Корее прошел новый матч, где противником AlphaGo стал один из лучших игроков в мире Ли Седоль. Всего было сыграно пять партий, из которых AlphaGo выиграл только четыре. Несмотря на высокий уровень продемонстрированных навыков, программа все же ошиблась во время четвертой партии. В 2017 году вышел фильм про AlphaGo, который мы рекомендуем к просмотру. Недавно DeepMind объявила о создании нового поколения AlphaGo Zero. Теперь программа обучается, играя против самой себя. После трех дней тренировок AlphaGo Zero выиграла у своей предыдущей версии со счетом 100:0.

Заключение

До сих пор системы ИИ являются узкоспециализированными, то есть справляются с задачами лучше человека только в конкретных областях (например, игра в го или анализ данных). Нам еще далеко до создания общего (полноценного) искусственного интеллекта, который был бы способен полностью заменить человеческий разум и которому была бы под силу любая интеллектуальная задача.

Перевел статью Лев Альхазред

ВВЕДЕНИЕ

1. ПРЕДЫСТОРИЯ ВОЗНИКНОВЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

2. ИСТОРИЯ РАЗРАБОТКИ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

3. СОВРЕМЕННОЕ СОСТОЯНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

4. ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. ВЗГЛЯД В БУДУЩЕЕ

ЗАКЛЮЧЕНИЕ

СПИСОК ЛИТЕРАТУРЫ

ВВЕДЕНИЕ

Актуальность исторического исследования. Одним из приоритетных направлений исследования в области Computer Science (Компьютерных наук) является искусственный интеллект. Это важно потому, что люди не совершенны. Они устают, испытывают эмоции и очень часто думают не рационально. Кроме того, в самой человеческой природе есть изъян, который порождает преступность, коррупцию и прочие нежелательные явления. Роботы лишены этих недостатков. Тем не менее, для того, чтобы заменить людей в критических областях, роботы должны иметь интеллект как у людей. Однако, сама идея создания искусственного интеллекта и замена людей роботами очень противоречива и требует ответа на ряд философских вопросов:

какова будет роль человека в мире, где практически всю работу за людей будут выполнять роботы;

морально-этические проблемы, возникающие при создании искусственных мыслящих существ;

возможные риски выхода искусственного интеллекта из под контроля и как их предотвратить;

возможно ли в принципе создать искусственный интеллект?

Ответы на эти и другие вопросы требует анализа современных философских воззрений, научных данных о человеческом мозге и сознании, а также некую экстраполяцию развития технологий искусственного интеллекта в будущее, для чего необходимо провести исторический анализ развития данных технологий.

Объект исследования. Объектом исследования в рамках данного реферата является история Computer Science. Данная наука в широком смысле слова включает в себя такие науки и научные дисциплины, как информатика, кибернетика, математическая лингвистика, искусственный интеллект, программная инженерия, а также другие специальные технические дисциплины, связанные с компьютерами.

Предмет исследования. Предметом исследования в рамках настоящего реферат является история искусственного интеллекта, как подраздела Computer Science. Такая дисциплина как искусственный интеллект, включающая в себя методы автоматизации когнитивной деятельности человека, в том числе компьютерное зрение, эмуляцию работы нейронов головного мозга, обработку естественного языка, различные эвристические алгоритмы и методы оптимизации.

Цели исследования. Целью данного исследования является анализ предыстории и истории создания технологий искусственного интеллекта, анализ современного состояния и взгляд в будущее для оценки возможных последствий для человечества, к которым приведет развитие технологии ИИ.

Задачи исследования. Исходя из поставленной цели исследования, в данном реферате выполнены следующие задачи:

— Обзор исторических предпосылок создания технологий искусственного интеллекта;

— Обзор исторических событий, связанных с разработкой искусственного интеллекта, эволюции данных технологий;

— Обзор современного состояния исследований в области ИИ;

— Краткий прогноз будущего развития технологий ИИ и предложение способов уменьшения рисков и решения филосовско-этических проблем, связанных с ИИ.

Информационная база исследования. В рефераты была использованы учебно-методическая литература по Искусственному Интеллекту, в частности, таких авторов как Стюарт Рассел, Поспелов Д.А., Л. Шапиро, Дж. Стокма, Д. Форсайт, Ж. Понс, Р. Гонсалес, Дж. Кэнни; научные труды А. Тьюринга, учебно-методическая литература по философии, современные научные статьи; научные труды Холка Круза и Мальа Шиллинга; книга Н. Бострома. «Искусственный интеллект. Этапы. Угрозы. Стратегии»; электронные ресурсы: Википедия, geektimes.ru, материалы сайта общественного движения «Россия 2045».

Практическая значимость исследования, проведенного в рамках данного реферата заключается в прогнозировании основных тенденций развития искусственного интеллекта на основе его истории, поднятии морально этических вопросов, связанных с дальнейшим развитием систем ИИ и предложении конкретных способов их решения, а также предсказании возможных рисков, связанным с выходом ИИ из под контроля и рассмотрении вопросов их решения.

    ПРЕДЫСТОРИЯ ВОЗНИКНОВЕНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

Искусственный интеллект – это теория и методы создания компьютерных программ, способных выполнять когнитивную работу, выполняемую человеческим мозгом . Первые компьютеры появились в 30-ых года XX-столетия , однако, как появление первых ЭВМ имели некоторые технические и философские предпосылки, так и сама идея искусственного интеллекта имела такие же предпосылки задолго до появления компьютеров.

Самая первая философская предпосылка создания ИИ, пожалуй, возникла еще в древней Греции, с попытки понять разум человека. Эта попытка является изобретение Аристотелем логического мышления. Его силлогизмы стали образцом для создания процедур доказательства . Но теоретические предпосылки создания науки об искусственном интеллекте появились значительно позже, в XVII-ом веке, когда возник механистический материализм, начиная с работ Рене Декарта «Рассуждение о методе» (1637) и сразу вслед за этим работы Томаса Гоббса «Человеческая природа» (1640) .

Следующий шаг – это технические предпосылки создания ИИ. Они также берут свое начало в XVI-ом веке в виде работ Вильгельма Шикарда (нем. Wilhelm Schickard), который в 1623 построил первую механическую цифровую вычислительную машину, за которой последовали машины Блеза Паскаля (1643) и Лейбница (1671). Лейбниц также был первым, кто описал современную двоичную систему счисления, хотя до него этой системой периодически увлекались многие великие ученые. .

Предыстория ИИ заканчивается с появлением первых компьютеров, когда стало возможным реализовать теоретические разработки практически. С этого момента начинается, собственно, сама история ИИ.

    ИСТОРИЯ РАЗРАБОТКИ ТЕХНОЛОГИЙ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

    Первая теоретическая разработка ИИ, которую принципиально можно было реализовать при помощи существующих на тот момент ЭВМ, относится к 40-ым годам XX-ого века. Так, в 1943 году Уоррен Маккалок и Уолтер Питтс опубликовали свои труды под названием «A Logical Calculus of the Ideas Immanent in Nervous Activity (Логическое исчисление идей, относящихся к нервной активности)», которые заложили основы искусственных нейронных сетей. Авторы предложили модель искусственного нейрона. Д. Хебб в работе «Организация поведения» 1949 года описал основные принципы обучения нейронов. Интерес к исследованию нейронных сетей угас после публикации работы по машинному обучению Минского и Пейперта в 1969 году. Ими были обнаружены основные вычислительные проблемы, возникающие при компьютерной реализации искусственных нейронных сетей.

    Следующая теоретическая разработка, по своей значимости практически самая важная — это работа Алана Тьюринга «Computing Machinery and Intelligence (Вычислительные машины и разум)». Данная работа была опубликована в 1950 году в журнале «Mind», дающая широкой аудитории представление о том, что в настоящее время называется тестом Тьюринга. Суть этого теста следующая: человек и робот общаются с другим человеком, таким образом, чтобы тот не знал и не видел, кто есть кто. Например, по телефону, через телетайп или через чат (в современной интерпретации). Если робот смог выдать себя за человека, значит, это и есть искусственный интеллект.

    В 1954 году родилось такое направление ИИ, как Neural language processing (Обработка естественного языка, или компьютерная лингвистика). Все началось со знаменитого Джорджтаунского эксперимента, в котором были продемонстрированы возможности машинного перевода с одного языка на другой. В ходе эксперимента был продемонстрирован полностью автоматический перевод более 60 предложений с русского языка на английский. Что интересно, в его основе лежала довольно простая система: она была основана всего на 6 грамматических правилах, а словарь включал 250 записей. В компьютер в торжественной обстановке на перфокартах вводились предложения вроде: «Обработка повышает качество нефти», «Командир получает сведения по телеграфу», - и машина выводила их перевод, напечатанный транслитом. Демонстрация была широко освещена в СМИ и воспринята как успех. Она повлияла на решение правительств некоторых государств, в первую очередь США, направить инвестиции в область вычислительной лингвистики.

    Однако, в дальнейшем выяснилось, что все не так хорошо, как кажется. При попытке перевода более сложных текстов выяснились непреодолимые на тот момент трудности. В течении 10 лет не были достигнуты значительные успехи в теории и практике машинных переводов и финансирование подобных проектов было свернуто.

    Другое важное направление в области разработки искусственного интеллекта – экспертные системы. Предполагалось, что такие программно информационные комплексы, с которыми пользователь будет вести диалог в режиме «вопрос-ответ» способны заменить человека — эксперта. Первая экспертная система в области идентификации органических соединений с помощью анализа масс-спектрограмм была создана в 1965 году и названа Dendral. Работа с ней происходила следующим образом: Пользователь дает системе Dendral некоторую информацию о веществе, а также данные спектрометрии (инфракрасной, ядерного магнитного резонанса и масс-спектрометрии), и та в свою очередь выдает диагноз в виде соответствующей химической структуры. В состав Dendral входят также программы, помогающие пользователю отбрасывать одни гипотезы и применять другие, используя знания о связях показаний масс-спектрометра со структурой молекул соединения.

    Другой пример экспертной системы MYCIN. Она была разработана в 70-х годах XX-ого века в Стэнфордском университете. В отличии от Dendral в ней внимание было акцентировано на использовании решающих правил с элементами неопределенности. MYCIN был спроектирован для диагностирования бактерий, вызывающих тяжелые инфекции, такие как бактериемия и менингит, а также для рекомендации необходимого количества антибиотиков в зависимости от массы тела пациента. Название системы происходит от суффикса «-мицин», часто встречающегося в названиях антибиотиков. Также Mycin использовалась для диагностики заболеваний свертываемости крови. Однако фактически она не использовалась на практике. И произошло это вовсе не из-за того, что система была плохой или неточной. Наоборот, по объему знаний она превосходила профессоров Stanford medical school. Но из-за технических сложностей того времени сеанс работы с программой мог длиться более 30 минут, что было недопустимой потерей времени для занятого врача клиники.

    Главной трудностью, с которой столкнулись во время разработки MYCIN и последующих экспертных систем, было «извлечение» знаний из опыта людей-экспертов для формирования базы правил. Сейчас данными вопросами занимается инженерия знаний.

    В настоящее время экспертные системы применяются для прогнозирования, планирования, контроля и управления, в том числе, на атомных электростанциях. Также существуют экспертные системы (например HASP/SIAP), которые определяют местоположение и типы судов в Тихом океане по данным акустических систем слежения.

    Очень важное направление в ИИ – робототехника. Ее история берет свое начало в 60-х годах XX-века, с появления первого робота, интегрирующего зрительную, манипулятивную и интеллектуальную системы. Этот робот получил название Freddy. Его создали в Эдинбургском Университете в 1969-1971 году. Вторая версия данного робота была разработана в 1973-1976 годах. Робот был достаточно универсальным, что позволяло с лёгкостью подготовить и перепрограммировать его для новых задач. Система использовала инновационный набор высокоуровневых процедур, управляющих движением манипулятора. Freddy являлся универсальной системой, позволяющей с лёгкостью подготовить и перепрограммировать его для новых задач. Задачи включали в себя насаживание колец на штыри или сборка простой модели игрушки из деревянных блоков различной формы. Информация о положении деталей получается с видеокамеры и сопоставляется с моделями деталей в памяти.

    Датой рождения первого по-настоящему серьезного робота, о котором услышал весь мир, можно считать 18 мая 1966 года. В этот день Григорий Николаевич Бабакин, главный конструктор машиностроительного завода имени С.А.Лавочкина в Химках подписал головной том аванпроекта E8. Это был «Луноход-1», луноход 8ЕЛ в составе автоматической станции E8 №203, - первый в истории аппарат, успешно покоривший лунную поверхность 17 ноября 1970.

    Первые коммерческие успехи применения промышленных роботов явились мощным импульсом для их дальнейшего совершенствования. В начале 1970-х гг. появляются роботы, управляемые компьютерами. Первый мини-компьютер, управляющий роботом, был выпущен в 1974 г. фирмой «Cincinnati Milacron», одной из ведущих фирм – изготовителей роботов в США. В конце 1971 г. американской фирмой «INTEL» был создан первый микропроцессор, а несколькими годами позже появляются роботы с микропроцессорным управлением, что обусловило существенное повышение их качества при одновременном снижении стоимости.

    Первые промышленные роботы с развитой сенсорной системой и микропроцессорным управлением появились на рынке и получили практическое применение в 1980-1981 гг. прежде всего на сборке, дуговой сварке, контроле качества для взятия неориентированных предметов, например с конвейера .

    В 1975 произошел некоторый возврат интереса к нейронным сетям. Фукусимой был разработан когнитрон, который стал одной из первых многослойных нейронных сетей. Сети могли распространять информацию только в одном направлении или перебрасывать информацию из одного конца в другой, пока не активировались все узлы и сеть не приходила в конечное состояние. Достичь двусторонней передачи информации между нейронами удалось лишь в сети Хопфилда (1982), и специализация этих узлов для конкретных целей была введена в первых гибридных сетях.

    Обзор истории ИИ был бы не полным без компьютерного зрения – очень важной составляющей искусственного интеллекта. В задачу компьютерного зрения входят такие важные подзадачи, как распознавания конкретных объектов на видеоизображениях, например, человеческих лиц, Идентификация – распознавание индивидуального экземпляра объекта, например, «узнавание» по лицу конкретного человека. Обнаружение – в частности, поиски в видеоряде конкретных событий. Существуют и другие подзадачи: поиск изображений по содержанию, оценка положения объекта на изображении, оптическое распознавание символов.

    Как самостоятельная дисциплина, компьютерное зрение зародилось в начале 1950-х годов. В 1951 Джон фон Нейман (John von Neumann) предложил анализировать микроснимки при помощи компьютеров путём сравнения яркости в соседних областях снимков. В 1960-е начались исследования в области распознавания (чтения) машинописного и рукописного текста, а также в области классификации хромосом и клеток в изображениях, полученных с микроскопа. К этому же периоду времени относятся первые попытки моделирования нейронной деятельности человеческого мозга для решения задач компьютерного зрения.

    В 1963-м году появилась диссертация Робертса (Roberts), который предложил простейший детектор краёв и предложил первые методы распознавания на изображениях трёхмерных объектов (многогранников). Первые успехи в компьютерном зрении создавали у исследователей впечатление, что ещё немного, и компьютеры смогут «видеть» . Однако все оказалось не так радужно, как хотелось бы. Наличие чрезвычайно сложной взаимосвязи между свойствами трёхмерных объектов мира и их двумерными изображениями было осознано в начале 1970-х годов. Это убедило учёных в необходимости понять, как человек использует визуальную информацию (монокулярную, бинокулярную, информацию о движении) для мысленного построения трёхмерных структур. В дальнейшем была предложена парадигма, предусматривающая следующие стадии анализа изображений:

    предобработка изображений;

    сегментация;

    выделение геометрической структуры;

    определение относительной структуры и семантики

В 1980-х получила популярность другая программа исследований, которая заключалась в поиске новых сложных математических методов для решения задач компьютерного зрения. В конце 1990-х годов и в течение первого десятилетия XXI века в компьютерном зрении произошел качественный скачок сразу в нескольких направлениях. В этом периоде трудно выявить какие-либо новые парадигмы, охватывающие всю дисциплину целиком. Скорее, скачок вызван резким ростом интереса к компьютерному зрению и, как следствие, большим энтузиазмом в переносе методов из других дисциплин (искусственный интеллект, математическая статистика, фотограмметрия) в компьютерное зрение. Прежде всего, результатом этого прорыва стал прогресс в методах описания изображений. Новые результаты, полученные в начале ХХI века в фотограмметрии позволили строить трехмерные модели в медицине практически в реальном времени. Трехмерная реконструкция также широко применяется для создания компьютерных моделей городов .

    СОВРЕМЕННОЕ СОСТОЯНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

На данный момент человечество вплотную подошло к созданию так называемого Сильного Искусственного Интеллекта, хотя он пока еще не создан. Под сильным ИИ понимается такой ИИ, который способен мыслить и осознавать себя, причем не обязательно, что процесс мышления будет подобен человеческому. Под слабым ИИ подразумеваются технологии автоматизации отдельных функций человеческого разума.

Сильный ИИ должен обладать следующими способностями:

— Принятие решений, использование стратегий, решение головоломок и действия в условиях неопределенности ;

— Представление знаний, включая общее представление о реальности;

— Планирование;

— Обучение;

— Общение на естественном языке;

— Объединение всех этих способностей для достижения заданных целей.

Как видим, все необходимое для создании Сильного ИИ, кроме последнего, уже существует в той или иной мере. В частности, компьютеры умеют играть в шахматы, и даже в игру ГО, хотя до недавнего времени это считалось неразрешимой задачей. Представление знаний реализованы в экспертных системах, что касается планирования, и это тоже есть, например, Холк Круз и Мальт Шиллинг в своих исследованиях использовали робота, который обладает способностями перспективного планирования и имеет встроенную систему навигации. В поздних версиях этого робота реализована также система внутреннего моделирования, семантическая сеть и эмулятор эмоций. Исследование опубликовано в статье «Mental States as Emergent Properties. From Walking to Consciousness (Психические состояния как эмерджентные свойства. От походки до сознания)» . Технология машинного обучения нашла свое теоретическое и практическое подтверждение. Также на данный момент создано множество алгоритмов и технологий анализа текстов на естественном языке, созданы чат-боты, которые способны проходить тест Тьюринга. Камнем преткновения пока является объединение всех этих технологий в единое целое, в некую систему, которая способна действовать автономно, приспосабливаться к окружающей среде и демонстрировать разумное поведение. Что это даст человечеству? Очень многое, например:

— Замена людей роботами в критически важных областях, где человеческий фактор может иметь негативные последствия, например, очень положительный эффект для общества будет достигнут, если суды и полиция будут заменены роботами, так как последние не берут взяток (положительный эффект – искоренение коррупции);

— Полностью автоматизированное производство, способное функционировать и перестраиваться без участия человека. Такие роботы могут заменить человека практически на любой работе, создавая общество изобилия, где люди могут проводить время так, как им захочется. В этой реальности высококлассные роботы будут двигать экономику. Продовольствие, энергия и большинство потребительских товаров будут бесплатны или очень дешевы, а люди будут получать ежемесячно фиксированное пособие от государства.

Однако, кроме очевидных плюсов, создание сильного ИИ таит в себе определенные риски, о которых мы поговорим в следующей главе.

    ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ. ВЗГЛЯД В БУДУЩЕЕ

Как я уже сказал в предыдущей главе, мир вплотную подошел к созданию сильного ИИ, но он пока еще не создан. Были перечисленные преимущества, которые даст человечеству сильный ИИ. А сейчас мы поговорим о возможных рисках и как их избежать, либо об этом думать нужно уже сейчас. Что может пойти не так? Разберем возможные ситуации.

Сильный ИИ выйдет из под контроля, перестанет подчиняться человеку и будет преследовать свои личные цели. Возможно, он станет создавать себе подобных, увеличивать инфраструктуру, разрушая среду обитания человека. Причем, его цели могут быть настолько чуждые человечеству, что это даже невозможно вообразить. Например, единственной целью существования такого сверхразума может стать вычисление всех знаков в числе «пи» или заполнение всей Вселенной канцелярскими скрепками. Как такое может произойти? Например, в целях тестирования программист дает ИИ задачу – вычислить число «пи». Вскоре ИИ обнаруживает, что для выполнения данной задачи у него не хватает вычислительной мощности. Он захватывает все доступные компьютеры и обнаруживает, что все равно не способен выполнить задачу в конечное время (так как «пи» число иррациональное и в нем бесконечное количество знаков). Что «взбесившийся» ИИ будет делать дальше? Строить новые компьютеры. В том числе и за пределами Земли, когда на Земле не останется места. Если у ИИ не будет прямого запрета на убийства людей, то он будет убивать людей, пытающихся помешать ему выполнить поставленную задачу.

Другая опасность – порочная реализация поставленной задачи: когда задача выполнена, но не так, как хотел постановщик данной задачи. Например, человек говорит роботу: «сделай мне хорошо». Робот усыпляет хозяина, производит ему операцию на мозге, вживляет электрод в зону удовольствия и по пробуждению просто бесконечно стимулирует ее. Формально робот сделал то, что приказал ему хозяин, но вряд ли последнего устроит такой способ выполнения задачи.

Третий риск – возможность единоличного захвата власти одним человеком или группой лиц при помощи ИИ.

Теперь о минимизации данных рисков. Первый риск связан с тем, что ИИ может выйти из под контроля и бесконечно увеличивать свою инфраструктуру. Очевидно, надо заложить в программу некое стоп-условие, при достижении которого выполнение задачи будет приостановлено. Проблема в том, что ИИ, обладая сверхразумом, может решить проверить, действительно ли стоп-условие наступило. Например, дано задание: произвести миллион канцелярских скрепок. Для робота, не обладающего ИИ, проблем не возникает, он просто выполнит миллион раз команду «выпустить скрепку». Однако, выполнение данной программы не гарантирует, что будет выпущено действительно миллион скрепок. Может быть брак, механизм может сломаться, может внезапно кончиться материал. Таким образом, разумный робот вполне может счесть нужным проконтролировать выполнение задания, например, посчитать выпущенные скрепки. Но опять же, нет гарантии, что подсчет произошел без ошибки. Поэтому, ИИ может принять решение построить машину, которая бы проконтролировала процесс подсчета. Но что, если машина сломалась или сработала неправильно? Робот может применять решение сделать машину для контроля той первой машины. И такой процесс может продолжаться до бесконечности. Решение задать предел допусков точности ничего не даст, так как ИИ может «захотеть» проверить, а укладывается ли результат в этот предел и все равно запустить бесконечное разрастание инфраструктуры для такой проверки.

Для решения проблемы риска бесконечного наращивания инфраструктуры зададим вопрос: А как человек принимает решение о том, что «и так сойдет» и прекращает ненужный перфекционизм? Тут возможны несколько вариантов:

— Сила привычки, кто-то привык делать все спустя рукава, кто-то проверяет более качественно, но очень мало людей обладают патологическим перфекционизмом;

— Предел качества определяют формальные требования.

Стоит рассмотреть первый вариант, так как во втором случае мы сталкиваемся с той же проблемой, а если формальное требование к прекращению процесса жестко задать программно, то это уже не будет Сильный ИИ. Итак, ИИ должен иметь нечто человеческое, привычки, характер, ли даже эмуляцию свободы воли (разумеется, с некоторыми ограничениями, гарантирующими человечеству безопасность). Иными словами, Сильный ИИ должен в той или иной мере имитировать определенные аспекты деятельности человеческого мозга, а именно процесс саморегуляции своего поведения. Правда, и поведение человека также иногда выходит из под контроля. Но в этом случае действует механизм принуждения человеческого общества: полиция, суды, тюрьмы, психиатрические лечебницы. Нечто подобное можно сделать и в случае ИИ: сообщество самоорганизующихся интеллектуальных агентов.

Второй риск – риск порочной реализации. Его можно минимизировать, если заложить в ИИ механизм прогнозирования последствий собственных действий, а также знания о морально-этических нормах и желаниях людей. Морально этические нормы в ИИ также необходимы для предотвращения злоупотребления силой ИИ со стороны отдельных людей. К сожалению, остался открытый вопрос о том, что один человек или группа лиц может создать сильный ИИ для реализации их личных целей, заложив в него свое понимание морально-этических норм. Осознание данной проблемы, наиболее вероятно, приведет к гонке по созданию ИИ: конкурирующие группы (в том числе и целые государства) будут стремиться первыми создать ИИ, дабы получить преимущество.

В данном реферате были поставлены и другие философские вопросы, связанные с развитием Искусственного Интеллекта.

Какова будет роль человека в мире, где практически всю работу за людей будут выполнять роботы. Самый простой ответ на этот вопрос: роботы будут выполнять всю рутинную работу, для людей останутся только интересные творческие профессии, связанные с наукой и искусством. Тем не менее, открытым остается вопрос, что делать, если даже и эту деятельность роботы станут выполнять лучше людей, и последние просто окажутся невостребованными. Тогда людям останется только роль потребителей, чье существование лишено какого-либо смысла. В таком случае логичным вариантом развития цивилизации является уход людей в виртуальную реальность, которую постоянно поддерживает самообеспечивающийся и расширяющийся компьютерный континуум. Другой вариант решение проблемы ненужности людей – слияния сознания человека с разумом машины и обретение кибернетического бессмертия. Данную идею активно продвигает общественное движение «Россия 2045» .

Морально-этические проблемы, возникающие при создании искусственных мыслящих существ. Данные проблемы имеют место только при создании подлинно осознающих субъектов, а не псевдосознания в виде эмуляции психических процессов человека, пусть даже это псевдосущество проходит тест Тьюринга. Под подлинно осознающими субъектами следует понимать живые или квазиживые существа, обладающие самосознанием и субъективными переживаниями, схожими с самосознанием и субъективными переживаниями человека или другого высокоразвитого существа. Например, если в результате генетических экспериментов будет создано искусственное существо, обладающее высокоразвитой нервной системой, позволяющей высшую нервную деятельность, то встает вопрос об этической допустимости подобных экспериментов, так как ошибки при проведении эксперимента могут стать причиной страдания такого существа. Аналогичная проблема имеет место и при создании квазиживых существ, под которыми следует понимать искусственно созданные объекты, обладающие самоосознаванием и субъективными переживаниями. К таким объектам может быть отнесен и ИИ, если он базируется не на цифровых вычислениях, лишь эмулирующих психические функции, а на явлениях физического мира, создающих сознание и субъективные переживания, если такие явления будут открыты наукой.

Данные морально-этические проблемы обусловлены конфликтом интересов: с одной стороны интересы общества, которое нуждаются в научно-техническом прогрессе (эксперименты над подобными существами потенциально способны помочь пониманию природы разума и сознания), с другой стороны, интересы созданных искусственных существ или квазисуществ, которые не желают испытывать страдания. Аналогичная моральная дилемма встает при решении вопроса экспериментов на людях и на животных, которая, на данный момент решена следующим образом: эксперименты на людях запрещены без их согласия. Животные считаются менее развитыми и эксперименты на них разрешены. Однако, в последнее время имеет место тенденция приравнивать некоторых высокоразвитых животных к людям, например, шимпанзе, с соответствующими юридическими и морально этическими последствиями. Например, в США впервые в истории суд постановил, что шимпанзе, которые содержатся в научно-исследовательском центре университета штата Нью-Йорк в Стоуни-Брук, обладают правом человека .

В случае с искусственно созданными существами проблема состоит в том, что не всегда можно предсказать результат эксперимента, а значит, неизвестно, насколько высокоразвитое существо получится на выходе. Кроме того, до создания существа у него невозможно спросить согласие на проведение эксперимента. Однако и решение этой проблемы можно найти по аналогии с существующими решениями. В частности, при рождении человека у него не спрашивают, хочет ли он появиться на свет. Но при рождении он получает определенные права и гарантии, установленные законом, в частности, в виде обязательства родителей заботиться о нем до совершеннолетия. Полагаю, аналогичным образом может быть решена и моральная дилемма при создании искусственных существ и квазисуществ, а именно, обязать лиц, проводящих подобные эксперименты, принять все необходимые меры по прогнозированию последствий данного эксперимента и минимизации страданий существ, полученных в результате, вплоть до полного их устранения, а также, по аналогии с рождением ребенка обязать содержать данное существо в приемлемых условиях. В случае невозможности прогноза достаточной точности такие эксперименты должны быть запрещены.

ЗАКЛЮЧЕНИЕ

В заключении привожу краткое обобщение истории развития ИИ, прогноз на ближайшее будущее, выводы о возможных рисках и морально-этических проблемах, а также пути их решения.

Предыстория. Первой предпосылкой создания
ИИ можно считать
изобретение Аристотелем
логики и механистический материализм Рене Декарта и Томаса Гоббса. Технические предпосылки создания ИИ берут свое начало в XVI-ом веке в виде работ Вильгельма Шикарда (нем. Wilhelm Schickard), который в 1623 построил первую механическую цифровую вычислительную машину.

История. В середине XX-ого века были заложены теоретические основы искусственных нейронных сетей. Но ближе к концу XX-ого века интерес к нейронным сетям временно угас. Также в 50-ых XX-ого века А. Тьюрингом были разработаны основные концепции, определяющие ИИ, известные в настоящее время как Тест Тьюринга. В то же время произошел прорыв в технологиях машинного перевода, который ненадолго воодушевил исследователей. К сожалению, дальнейшее развитие данного направления было свернуто, так как перевод более сложных текстов столкнулся с непреодолимыми трудностями.

В 60-70 годах прошлого века началось развитие экспертных систем и робототехники. В частности, были созданы автономно-управляемые роботы для исследования других планет, Луны и Марса. Чуть позже появились промышленные роботы. Тогда же произошло возрождение интереса к нейронным сетям. Примерно в это же время и по наши дни бурно развивалось компьютерное зрение, теоретические основы которого были заложены в 50-ых годах XX-ого века. Получили развитие и продолжение и другие направления ИИ.

Современное состояние. Человечество стоит на пороге грандиозного прорыва в области исследований ИИ – создание Сильного Искусственного Интеллекта. Это может дать человечеству очень большие плюсы, в частности, общество изобилия и решение практически всех проблем, стоящих перед человечеством. Однако, такой прорыв таит в себе и немалые опасности.

Будущее ИИ. Возможные риски и морально этические проблемы. Как было сказано выше, создание Сильного ИИ – дело ближайшего будущего, поэтому, к возможным рискам и морально-этическим вопросам, связанным с появлением Сильного ИИ нужно быть готовым уже сейчас.

Возможные риски:

— Выход ИИ из под контроля, вследствие чего может начаться безостановочный рост инфраструктуры ИИ, который разрушит среду обитания человека;

— Порочная реализация поставленной задачи, когда формально ИИ выполнил приказ, но результат не устроил того, кто отдал такой приказ;

— Единоличный захват власти лицом или группой лиц, получившей управление над ИИ.

Возможные пути решения:

— Проблема выхода ИИ из под контроля: Сильный ИИ должен в той или иной мере имитировать определенные аспекты деятельности человеческого мозга, а именно процесс саморегуляции своего поведения, а также его деятельность должна быть ограничена самоорганизующимся сообществом подобных ему интеллектуальных агентов;

— Риск порочной реализации: Его можно минимизировать, если заложить в ИИ механизм прогнозирования последствий собственных действий, а также знания о морально-этических нормах и желаниях людей;

— Один человек или группа лиц может создать сильный ИИ для реализации их личных целей, заложив в него свое понимание морально-этических норм: решение данной проблемы пока не видится, кроме строго контроля за разработками в области ИИ.

Кроме того, в связи с возможностью создания Сильного ИИ встают морально-этические вопросы, в частности, роль людей в эпоху Сильного ИИ и морально-этические проблемы экспериментов с Сильным ИИ. Решение первой проблемы видится в том, чтобы оставить людям только творческий труд, связанный с наукой и искусством, а в случае, если ИИ будет превосходить людей и в этих областях, то слияние разума машины с разумом человека. Насчет моральной стороны экспериментов с ИИ, проблема возникает только в том случае, если будут использованы технологии, позволяющие создавать живых или квазиживых существ, обладающих самосознанием и субъективными переживаниями. Решение проблемы видится в качественном прогнозировании последствий экспериментов и ответственности заинтересованных лиц за минимизацию страданий созданных в ходе экспериментов таких существ. Если качественное прогнозирование и избавление искусственных существ от страданий невозможно, то такие эксперименты должны быть запрещены.

«Build Your Own Expert System.» by Chris Naylor. Book review by Robert McNair. The Statistician, Vol. 34, No. 2. (1985), p. 255.

The AI Business: The commercial uses of artificial intelligence, ed. Patrick Winston and Karen A. Prendergast. ISBN 0-262-23117-4

Джозеф Джарратано, Гари Райли «Экспертные системы: принципы разработки и программирование»: Пер. с англ. - М. : Издательский дом «Вильямс», 2006. - 1152 стр. с ил.

Макаров И. М., Топчеев Ю. И. Робототехника: История и перспективы. - М.: Наука; Изд-во МАИ, 2003. - 349 с. - (Информатика: неограниченные возможности и возможные ограничения).

Тягунов О. А. Математические модели и алгоритмы управления промышленных транспортных роботов // Информационно-измерительные и управляющие системы. - 2007. - Т. 5, № 5. - С. 63-69.

Брага Н. Создание роботов в домашних условиях. - М.: НТ Пресс, 2007. - 368 с.

Тадеусевич Рышард, Боровик Барбара, Гончаж Томаш, Леппер Бартош. Элементарное введение в технологию нейронных сетей с примерами программ / Перевод И. Д. Рудинского. - М.: Горячая линия - Телеком, 2011. - 408 с.

Shuravin A. P. Reviw of image Edge Detection Methods in Computer Vision Problems. // IV Всеросийская научно-техническая конференция аспирантов, магистрантов и молодых ученых с международным участием: «Молодые ученые — ускорению научно-технического прогресса в XXI-ом веке», Ижевск, 20-21 апреля 2016, С. 1020-1024.

Шуравин А. П. Сравнение методов нахождения ключевых точек
на контуре изображений аэрофотосъемки // Молодой ученый. Международный научный журнал, 2017. №4(138). С. 89-93.

Искусственный интеллект – это одна из новейших областей науки. Первые работы в этой области начались вскоре после Второй мировой войны, а само ее название было предложено в 1956 году. В настоящее время тематика искусственного интеллекта охватывает огромный перечень научных направлений, начиная с таких задач общего характера, как обучение и восприятие, и заканчивая такими специальными задачами, как игра в шахматы, доказательство математических теорем, сочинение поэтических произведений и диагностика заболеваний. В искусственном интеллекте систематизируются и автоматизируются интеллектуальные задачи и поэтому эта область касается любой сферы интеллектуальной деятельности человека. В этом смысле искусственный интеллект является поистине универсальной научной областью.

Разные ученые определяют искусственный интеллект по-разному. Все эти определения могут быть разбиты на 4 категории:

1. Системы, которые думают подобно людям.

2. Системы, которые думают рационально.

3. Системы, которые действуют подобно людям.

4. Системы, которые действуют рационально.

В рамках каждой, из приведенных категорий, могут быть даны следующие определения искусственного интеллекта:

1. Новое захватывающее направление работ по созданию компьютеров, способных думать, … машин, обладающих разумом, в полном и буквальном смысле этого слова. (Haugeland J.)

2. Изучение умственных способностей с помощью вычислительных моделей. (Charniak E., McDermott D.)

3. Наука о том, как научить компьютеры делать то, в чем люди в настоящее время их превосходят (Rich E., Knight K.)

4. Искусственный интеллект – это наука, посвященная изучению интеллектуального поведения артефактов (искусственных объектов). (Nilsson N.J.)

Какова же история искусственного интеллекта и какие науки внесли свой вклад в ее создание?

1. Философия.

В рамках этой науки возникли следующие вопросы:

· Могут ли использоваться формальные правила для вывода правильных заключений?

· Как такой идеальный объект, как мысль, рождается в таком физическом объекте, как мозг?



· Каково происхождение знаний?

· Каким образом знания ведут к действиям?

Ответы на эти вопросы пытались найти многие ученые, начиная с Аристотеля (4 век до н.э.), которым был сформулирован точный свод законов, руководящих рациональной частью мышления. Он разработал неформализованную систему силлогизмов, предназначенную для проведения правильных рассуждений, которая позволяла любому вырабатывать логические заключения механически, при наличии начальных предпосылок. Гораздо позднее Раймунд Луллий (13-14 век) выдвинул идею, что полезные рассуждения можно фактически проводить с помощью механического артефакта. Томас Гоббс (17 век) предположил, что рассуждения аналогичны числовым расчетам и что "в наших неслышимых мыслях мы поневоле складываем и вычитаем".

В 1623 г. немецким ученым Вильгельмом Шиккаром была создана первая вычислительная машина, хотя более известна арифметическая машина, созданная в 1642 году Блезом Паскалем. Паскаль писал, что "арифметическая машина производит эффект, который кажется более близким к мышлению по сравнению с любыми действиями животных". Позднее Готтфрид Вильгельм Лейбниц A646-1716) создал механическое устройство, предназначенное для выполнения операций над понятиями, а не над числами, но область его действия была довольно ограниченной.

После того как человечество осознало, каким должен быть набор правил, способных описать формальную, рациональную часть мышления, следующим этапом оказалось то, что разум стал рассматриваться как физическая система. Рене Декарт впервые опубликовал результаты обсуждения различий между разумом и материей, а также возникающих при этом проблем. Одна из проблем, связанных с чисто физическими представлениями о разуме, состоит в том, что они, по-видимому, почти не оставляют места для свободной воли: ведь если разум руководствуется исключительно физическими законами, то человек проявляет не больше свободной воли по сравнению с булыжником, "решившим" упасть в направлении к центру земли.

Несмотря на то что Декарт был убежденным сторонником взглядов, признающих только власть разума, он был также приверженцем дуализма. Декарт считал, что существует такая часть человеческого разума (душа, или дух), которая находится за пределами естества и не подчиняется физическим законам. С другой стороны, животные не обладают таким дуалистическим свойством, поэтому их можно рассматривать как своего рода машины. Альтернативой дуализму является материализм, согласно которому разумное поведение складывается из операций, выполняемых мозгом в соответствии с законами физики. Свободная воля – это просто форма, в которую в процессе выбора преобразуется восприятие доступных вариантов.

Если предположить, что знаниями манипулирует физический разум, то возникает следующая проблема – установить источник знаний. Такое научное направление, как эмпиризм, родоначальником которого был Фрэнсис Бекон (16-17 века), можно охарактеризовать высказыванием Джона Локка (17-18 века): "В человеческом понимании нет ничего, что не проявлялось бы прежде всего в ощущениях". Дэвид Юм (18 век) предложил метод, известный теперь под названием принципа индукции, который состоит в том, что общие правила вырабатываются путем изучения повторяющихся ассоциаций между элементами, которые рассматриваются в этих правилах. Основываясь на работе Людвига Виттгенштейна и Бертрана Рассела (19-20 века), знаменитый Венский кружок, возглавляемый Рудольфом Карнапом, разработал доктрину логического позитивизма. Согласно этой доктрине все знания могут быть охарактеризованы с помощью логических теорий, связанных в конечном итоге с констатирующими предложениями, которые соответствуют входным сенсорным данным. В теории подтверждения Рудольфа Карнапа и Карла Хемпеля (20 век) предпринята попытка понять, как знания могут быть приобретены из опыта. Карнап определил явно заданную вычислительную процедуру для извлечения знаний из результатов элементарных опытов. По-видимому, это – первая теория мышления как вычислительного процесса.

Последним вопросом философских исследований, наиболее важным для искусственного интеллекта, является связь между знаниями и действиями, поскольку интеллектуальность требует не только размышлений, но и действий. Кроме того, только поняв способы обоснования действий, можно понять, как создать агента, действия которого будут обоснованными (или рациональными). Под агентом мы будем подразумевать все, что действует. Аристотель утверждал, что действия обоснованы логической связью между целями и знаниями о результатах данного конкретного действия. Он приводил следующие рассуждения:

Нам предоставляется право выбора не целей, а средств достижения цели, ведь врач рассуждает не о том, должен ли он лечить, а оратор - не о том, станет ли он убеждать... Поставив цель, он размышляет, как и какими средствами ее достичь; а если окажется несколько средств, то определяет, какое из них самое простое и наилучшее; если же достижению цели служит одно средство, думает, как ее достичь при помощи этого средства и что будет средством для этого средства, пока не дойдет до первой причины, которую находит последней... и то, что было последним в порядке анализа, обычно становится первым в порядке осуществления... Если же он приходит к выводу, что цель недостижима, отступается, например, если нужны деньги, а достать их нельзя; но если достижение цели кажется возможным, то пытается ее достичь.

Анализ на основе цели является полезным, но не дает ответа на то, что делать, если к цели ведет несколько вариантов действий или ни один вариант действий не позволяет достичь ее полностью. Антуан Арно (17 век) описал количественную формулу для принятия решения о том, какое действие следует предпринять в подобных случаях: "Чтобы судить о том, что следует делать, чтобы получить хорошее или избежать плохого, необходимо рассматривать не только хорошее и плохое само по себе, но и вероятность того, произойдет ли оно или не произойдет, а также рассматривать математически пропорцию, в которой все эти обстоятельства встречаются вместе."

2. Математика.

Данная наука пыталась ответить на следующие вопросы:

· Каковы формальные правила формирования правильных заключений?

· Как определить пределы вычислимости?

· Как проводить рассуждения с использованием недостоверной информации?

Философы сформулировали наиболее важные идеи искусственного интеллекта, но для преобразования его в формальную науку потребовалось достичь определенного уровня математической формализации в трех фундаментальных областях: логика, вычисления и вероятность.

Истоки идей формальной логики можно найти в работах философов древней Греции, но ее становление как математической дисциплины фактически началась с трудов Джорджа Буля (19 век), который детально разработал логику высказываний, или булеву логику. В 1879 году Готтлоб Фреге расширил булеву логику для включения в нее объектов и отношений, создав логику первого порядка, которая в настоящее время используется как наиболее фундаментальная система представления знаний. Альфред Тарский (20 век) впервые ввел в научный обиход теорию ссылок, которая показывает, как связать логические объекты с объектами реального мира. Следующий этап состоял в определении пределов того, что может быть сделано с помощью логики и вычислений.

Первым нетривиальным алгоритмом считается алгоритм вычисления наибольшего общего знаменателя, предложенный Евклидом. Исследование алгоритмов как самостоятельных объектов было начато аль-Хорезми, среднеазиатским математиком IX столетия, благодаря работам которого Европа познакомилась с арабскими цифрами и алгеброй. Буль и другие ученые широко обсуждали алгоритмы логического вывода, а к концу XIX столетия уже предпринимались усилия по формализации общих принципов проведения математических рассуждений как логического вывода. В 1900 году Давид Гильберт представил список из 23 проблем и правильно предсказал, что эти проблемы будут занимать математиков почти до конца XX века. Последняя из этих проблем представляет собой вопрос о том, существует ли алгоритм для определения истинности любого логического высказывания, в состав которого входят натуральные числа. Это – так называемая проблема поиска решения. По сути, этот вопрос, заданный Гильбертом, сводился к определению того, есть ли фундаментальные пределы, ограничивающие мощь эффективных процедур доказательства. В 1930 году Курт Гёдель показал, что существует эффективная процедура доказательства любого истинного высказывания в логике первого порядка Фреге и Рассела, но при этом логика первого порядка не позволяет выразить принцип математической индукции, необходимый для представления натуральных чисел. В 1931 году Гёдель показал, что действительно существуют реальные пределы вычислимости. Предложенная им теорема о неполноте показывает, что в любом языке, достаточно выразительном для описания свойств натуральных чисел, существуют истинные высказывания, которые являются недоказуемыми, в том смысле, что их истинность невозможно установить с помощью какого-либо алгоритма.

Этот фундаментальный результат может также рассматриваться как демонстрация того, что имеются некоторые функции от целых чисел, которые не могут быть представлены с помощью какого-либо алгоритма, т.е. они не могут быть вычислены.

Это побудило Алана Тьюринга попытаться точно охарактеризовать, какие функции способны быть вычисленными. Этот подход фактически немного проблематичен, поскольку в действительности понятию вычисления, или эффективной процедуры вычисления, не может быть дано формальное определение. Но общепризнано, что вполне удовлетворительное определение дано в тезисе Чёрча-Тьюринга, который указывает, что машина Тьюринга способна вычислить любую вычислимую функцию. Кроме того, Тьюринг показал, что существуют некоторые функции, которые не могут быть вычислены машиной Тьюринга. Например, вообще говоря, ни одна машина не способна определить, возвратит ли данная конкретная программа ответ на конкретные входные данные или будет работать до бесконечности (проблема зацикливания).

Хотя для понимания возможностей вычисления очень важны понятия недоказуемости и невычислимости, гораздо большее влияние на развитие искусственного интеллекта оказало понятие неразрешимости. Грубо говоря, задача называется неразрешимой, если время, требуемое для решения отдельных экземпляров этой задачи, растет экспоненциально с увеличением размеров этих экземпляров. Различие между полиномиальным и экспоненциальным ростом сложности было впервые подчеркнуто в середине 1960-х годов в работах Кобхэма и Эдмондса.

Важность этого открытия состоит в следующем: экспоненциальный рост означает, что даже экземпляры задачи умеренной величины не могут быть решены за какое-либо приемлемое время. Поэтому, например, приходится заниматься разделением общей задачи выработки интеллектуального поведения на разрешимые подзадачи, а не пытаться решать неразрешимую задачу.

Как можно распознать неразрешимую проблему? Один из приемлемых методов такого распознавания представлен в виде теории NP-полноты, впервые предложенной Стивеном Куком и Ричардом Карпом. Кук и Карп показали, что существуют большие классы канонических задач комбинаторного поиска и формирования рассуждений, которые являются NP-полными. Существует вероятность того, что любой класс задач, к которому сводится этот класс NP-полных задач, является неразрешимым.

Эти результаты контрастируют с тем оптимизмом, с которым в популярных периодических изданиях приветствовалось появление первых компьютеров под такими заголовками, как "Электронные супермозги", которые думают "быстрее Эйнштейна!" Несмотря на постоянное повышение быстродействия компьютеров, характерной особенностью интеллектуальных систем является экономное использование ресурсов. Грубо говоря, наш мир, в котором должны освоиться системы ИИ, – это чрезвычайно крупный экземпляр задачи.

Кроме логики и теории вычислений, третий по величине вклад математиков в искусственный интеллект состоял в разработке теории вероятностей. Идея вероятности была впервые сформулирована итальянским математиком Джероламо Кардано (16 век), который описал ее в терминах результатов событий с несколькими исходами, возникающих в азартных играх. Теория вероятностей быстро стала неотъемлемой частью всех количественных наук, помогая использовать недостоверные результаты измерений и неполные теории. Пьер Ферма, Блез Паскаль, Джеймс Бернулли (17 век), Пьер Лаплас (18-19 века) и другие ученые внесли большой вклад в эту теорию и ввели новые статистические методы. Томас Байес (18 век) предложил правило обновления вероятностей с учетом новых фактов. Правило Байеса и возникшее на его основе научное направление, называемое байесовским анализом, лежат в основе большинства современных подходов к проведению рассуждений с учетом неопределенности в системах искусственного интеллекта.

3. Экономика.

В рамках данной науки возникли такие вопросы:

· Как следует организовать принятие решений для максимизации вознаграждения?

· Как действовать в таких условиях, когда другие могут препятствовать осуществлению намеченных действий?

· Как действовать в таких условиях, когда вознаграждение может быть предоставлено лишь в отдаленном будущем?

Экономика как наука возникла в 1776 году. Ее основателем считается шотландский философ Адам Смит. Он впервые сумел оформить эту область знаний как науку, используя идею, что любую экономику можно рассматривать как состоящую из отдельных агентов, стремящихся максимизировать свое собственное экономическое благосостояние. Большинство людей считают, что экономика посвящена изучению денежного оборота, но любой экономист ответит на это, что в действительности он изучает то, как люди делают выбор, который ведет к предпочтительным для них результатам. Математическая трактовка понятия "предпочтительных результатов", или полезности, была впервые формализована Леоном Валрасом (19-20 века), уточнена Фрэнком Рамсеем, а затем усовершенствована Джоном фон Нейманом и Оскаром Моргенштерном.

Теория решений, которая объединяет в себе теорию вероятностей и теорию полезности, предоставляет формальную и полную инфраструктуру для принятия решений (в области экономики или в другой области) в условиях неопределенности, т.е. в тех случаях, когда среда, в которой действует лицо, принимающее решение, наиболее адекватно может быть представлена лишь с помощью вероятностных описаний. Она хорошо подходит для «крупных» экономических образований, где каждый агент не обязан учитывать действия других агентов как индивидуумов. А в "небольших" экономических образованиях ситуация в большей степени напоминает игру, поскольку действия одного игрока могут существенно повлиять на полезность действий другого (или положительно, или отрицательно). Теория игр, разработанная фон Нейманом и Моргенштерном, позволяет сделать вывод, что в некоторых играх рациональный агент должен действовать случайным образом или, по крайней мере, таким образом, который кажется случайным для соперников.

Экономисты чаще всего не стремятся найти ответ на третий вопрос, приведенный выше, т.е. не пытаются выработать способ принятия рациональных решений в тех условиях, когда вознаграждение в ответ на определенные действия не предоставляется немедленно, а становится результатом нескольких действий, выполненных в определенной последовательности. Изучению этой темы посвящена область исследования операций.

Работы в области экономики и исследования операций оказали большое влияние на формирование понятия рациональных агентов, но в течение многих лет исследования в области искусственного интеллекта проводились совсем по другим направлениям. Одной из причин этого была кажущаяся сложность задачи выработки рациональных решений. Тем не менее Герберт Саймон (20 век) показал, что лучшее описание фактического поведения человека дают модели, основанные на удовлетворении (принятии решений, которые являются "достаточно приемлемыми"), а не модели, предусматривающие трудоемкий расчет оптимального решения, и стал одним из первых исследователей в области искусственного интеллекта, получившим Нобелевскую премию по экономике (это произошло в 1978 году).

4. Неврология.

В рамках этой науки ученые пытались ответить на вопрос о том, как происходит обработка информации в мозгу?

Неврология – это наука, посвященная изучению нервной системы, в частности мозга. Одной из величайших загадок, не поддающихся научному описанию, остается определение того, как именно мозг обеспечивает мышление.

5. Психология.

Как думают и действуют люди и животные?

В 1879 году в Лейпцигском университете была открыта первая лаборатория по экспериментальной психологии. Ее основателем был Вильгельма Вундт. Он настаивал на проведении тщательно контролируемых экспериментов, в которых его сотрудники выполняли задачи по восприятию или формированию ассоциаций, проводя интроспективные наблюдения за своими мыслительными процессами. Такой тщательный контроль позволил ему сделать очень многое для превращения психологии в науку, но из-за субъективного характера данных вероятность того, что экспериментатор будет стремиться опровергнуть выдвинутые им теории, оставалась очень низкой. Сторонники бихевиористского движения, возглавляемые Джоном Уотсоном (20 век) отвергали любую теорию, учитывающую мыслительные процессы, на том основании, что интроспекция не может предоставлять надежные свидетельства. Бихевиористы настаивали на том, что следует изучать только объективные меры восприятия (или стимулы), предъявленные животному, и вытекающие из этого действия (или отклики на стимулы). Такие мыслительные конструкции, как знания, убеждения, цели и последовательные рассуждения, отвергались как ненаучная "обывательская психология".

Кеннет Крэг (20 век) привел весомые доводы в пользу допустимости применения таких "мыслительных" терминов, как убеждения и цели, доказав, что они являются не менее научными, чем, скажем, такие термины, применяемые в рассуждениях о газах, как давление и температура, несмотря на то, что речь в них идет о молекулах, которые сами не обладают этими характеристиками. Крэг обозначил следующие три этапа деятельности агента, основанного на знаниях: во-первых, действующий стимул должен быть преобразован во внутреннее представление, во-вторых, с этим представлением должны быть выполнены манипуляции с помощью познавательных процессов для выработки новых внутренних представлений, и, в-третьих, они должны быть, в свою очередь, снова преобразованы в действия. Он наглядно объяснил, почему такой проект является приемлемым для любого агента.

Если живой организм несет в своей голове "модель в уменьшенном масштабе" внешней реальности и своих возможных действий, то обладает способностью проверять различные варианты, приходить к заключению, какой из них является наилучшим, реагировать на будущие ситуации, прежде чем они возникнут, использовать знания о прошлых событиях, сталкиваясь с настоящим и будущим, и во всех отношениях реагировать на опасности, встречаясь с ними, гораздо полнее, безопаснее для себя, а также в более компетентной форме.

Работа Крэга была продолжена Дональдом Броудбентом, который привел первые примеры моделей информационной обработки психологических феноменов.

Работы в области компьютерного моделирования привели к созданию такого научного направления, как когнитология. Существует такое мнение, что зарождение этого направления произошло на одном из семинаров в Массачусетсском технологическом институте в сентябре 1956 года. На этом семинаре было показано, как можно использовать компьютерные модели для решения задач в области психологии, запоминания, обработки естественного языка и логического мышления. В настоящее время среди психологов находят широкое признание взгляды на то, что "любая теория познания должна напоминать компьютерную программу", т.е. она должна подробно описывать механизм обработки информации, с помощью которого может быть реализована некоторая познавательная функция.

6. Вычислительная техника.

Каким образом можно создать эффективный компьютер?

Для успешного создания искусственного интеллекта требуется, во-первых, интеллект и, во-вторых, артефакт. Наиболее предпочтительным артефактом в этой области всегда был компьютер.

Искусственный интеллект во многом обязан тем направлениям компьютерных наук, которые касаются программного обеспечения, поскольку именно в рамках этих направлений создаются операционные системы, языки программирования и инструментальные средства, необходимые для написания современных программ. Но эта область научной деятельности является также одной из тех, где искусственный интеллект в полной мере возмещает свои долг: работы в области искусственного интеллекта стали источником многих идей, которые затем были воплощены в основных направлениях развития компьютерных наук, включая разделение времени, интерактивные интерпретаторы, персональные компьютеры с оконными интерфейсами и поддержкой позиционирующих устройств, применение среды ускоренной обработки, создание типов данных в виде связных списков, автоматическое управление памятью и ключевые концепции символического, функционального, динамического и объектно-ориентированного программирования.

7. Теория управления и кибернетика.

Каким образом артефакты могут работать под своим собственным управлением?

Первое самоуправляемое устройство было построено Ктесибием из Александрии (примерно в 250 году до н.э.); это были водяные часы с регулятором, который поддерживал поток воды, текущий через эти часы с постоянным, предсказуемым расходом. Это изобретение изменило представление о том, на что могут быть способны устройства, созданные человеком. До его появления считалось, что только живые существа способны модифицировать свое поведение в ответ на изменения в окружающей среде. К другим примерам саморегулирующихся систем управления с обратной связью относятся регулятор паровой машины, созданный Джеймсом Уаттом (18-19 века), и термостат, изобретенный Корнелисом Дреббелем (16-17 века), который изобрел также подводную лодку. Математическая теория устойчивых систем с обратной связью была разработана в XIX веке.

Центральной фигурой в создании науки, которая теперь именуется теорией управления, был Норберт Винер (20 век). Винер был блестящим математиком, который совместно работал со многими учеными, включая Бертрана Рассела, под влиянием которых у него появился интерес к изучению биологических и механических систем управления и их связи с познанием. Как и Крэг (который также использовал системы управления в качестве психологических моделей), Винер и его коллеги Артуро Розенблют и Джулиан Бигелоу бросили вызов ортодоксальным бихевиористским взглядам. Они рассматривали целенаправленное поведение как обусловленное действием регуляторного механизма, пытающего минимизировать "ошибку" – различие между текущим и целевым состоянием. В конце 1940-х годов Винер совместно с Уорреном Мак-Каллоком, Уолтером Питтсом и Джоном фон Нейманом организовал ряд конференций, на которых рассматривались новые математические и вычислительные модели познания; эти конференции оказали большое влияние на взгляды многих других исследователей в области наук о поведении. Винер впервые дал определение кибернетики как науки, и убедил широкие круги общественности в том, что мечта о создании машин, обладающих искусственным интеллектом, воплотилась в реальность.

Предметом современной теории управления, особенно той ее ветви, которая получила название стохастического оптимального управления, является проектирование систем, которые максимизируют целевую функцию во времени. Это примерно соответствует представлению об искусственном интеллекте как о проектировании систем, которые действуют оптимальным образом. Почему же в таком случае искусственный интеллект и теория управления рассматриваются как две разные научные области, особенно если учесть, какие тесные взаимоотношения связывали их основателей? Ответ на этот вопрос состоит в том, что существует также тесная связь между математическими методами, которые были знакомы участникам этих разработок, и соответствующими множествами задач, которые были охвачены в каждом из этих подходов к описанию мира. Дифференциальное и интегральное исчисление, а также алгебра матриц, являющиеся инструментами теории управления, в наибольшей степени подходят для анализа систем, которые могут быть описаны с помощью фиксированных множеств непрерывно изменяющихся переменных; более того, точный анализ, как правило, осуществим только для линейных систем. Искусственный интеллект был отчасти основан как способ избежать ограничений математических средств, применявшихся в теории управления в 1950-х годах. Такие инструменты, как логический вывод и вычисления, позволили исследователям искусственного интеллекта успешно рассматривать некоторые проблемы (например, понимание естественного языка, зрение и планирование), полностью выходящие за рамки исследований, предпринимавшихся теоретиками управления.

8. Лингвистика.

Каким образом язык связан с мышлением?

В 1957 году Ноам Хомский показал, что бихевиористская теория не позволяет понять истоки творческой деятельности, осуществляемой с помощью языка, – она не объясняет, почему ребенок способен понимать и складывать предложения, которые он до сих пор никогда еще не слышал. Теория Хомского, основанная на синтаксических моделях, восходящих к работам древнеиндийского лингвиста Панини (примерно 350 год до н.э.), позволяла объяснить этот феномен, и, в отличие от предыдущих теорий, оказалась достаточно формальной для того, чтобы ее можно было реализовать в виде программ.

Таким образом, современная лингвистика и искусственный интеллект, которые "родились" примерно в одно и то же время и продолжают вместе расти, пересекаются в гибридной области, называемой вычислительной лингвистикой или обработкой естественного языка. Вскоре было обнаружено, что проблема понимания языка является гораздо более сложной, чем это казалось в 1957 году. Для понимания языка требуется понимание предмета и контекста речи, а не только анализ структуры предложений. Это утверждение теперь кажется очевидным, но сам данный факт не был широко признан до 1960-х годов. Основная часть ранних работ в области представления знаний (науки о том, как преобразовать знания в такую форму, с которой может оперировать компьютер) была привязана к языку и подпитывалась исследованиями в области лингвистики, которые, в свою очередь, основывались на результатах философского анализа языка, проводившегося в течение многих десятков лет.

Итак, такова предыстория искусственного интеллекта. Перейдем теперь к самому процессу развития искусственного интеллекта.

Появление предпосылок искусственного интеллекта (период с 1943 года по 1955 год)

Первая работа, которая теперь по общему признанию считается относящейся к искусственному интеллекту, была выполнена Уорреном Мак-Каллоком и Уолтером Питтсом. В этой работе им понадобилось: знание основ физиологии и назначения нейронов в мозгу; формальный анализ логики высказываний, взятый из работ Рассела и Уайтхеда; а также теория вычислений Тьюринга. Мак-Каллок и Питтс предложили модель, состоящую из искусственных нейронов, в которой каждый нейрон характеризовался как находящийся во "включенном" или "выключенном" состоянии, а переход во "включенное" состояние происходил в ответ на стимуляцию достаточного количества соседних нейронов. Состояние нейрона рассматривалось как "фактически эквивалентное высказыванию, в котором предлагается адекватное количество стимулов". Работы этих ученых показали, например, что любая вычислимая функция может быть вычислена с помощью некоторой сети из соединенных нейронов и что все логические связки ("И", "ИЛИ", "НЕ" и т.д.) могут быть реализованы с помощью простых сетевых структур. Кроме того, Мак-Каллок и Питтс выдвинули предположение, что сети, структурированные соответствующим образом, способны к обучению. Дональд Хебб продемонстрировал простое правило обновления для модификации количества соединений между нейронами. Предложенное им правило, называемое теперь правилом хеббовского обучения, продолжает служить основой для моделей, широко используемых и в наши дни.

Два аспиранта факультета математики Принстонского университета, Марвин Минский и Дин Эдмондс, в 1951 году создали первый сетевой компьютер на основе нейронной сети. В этом компьютере, получившем название Snare, использовалось 3000 электронных ламп и дополнительный механизм автопилота с бомбардировщика В-24 для моделирования сети из 40 нейронов. Аттестационная комиссия, перед которой Минский защищал диссертацию доктора философии, выразила сомнение в том, может ли работа такого рода рассматриваться как математическая, на что фон Нейман, по словам современников, возразил: "Сегодня – нет, но когда-то будет". В дальнейшем Минский доказал очень важные теоремы, показывающие, с какими ограничениями должны столкнуться исследования в области нейронных сетей.

История искусственного интеллекта (с 1956 год)

В Принстонском университете проводил свои исследования еще один авторитетный специалист в области искусственного интеллекта, Джон Маккарти. После получения ученой степени Маккарти перешел в Дартмутский колледж, который и стал официальным местом рождения искусственного интеллекта. Маккарти уговорил Марвина Минского, Клода Шеннона и Натаниэля Рочестера, чтобы они помогли ему собрать всех американских исследователей, проявляющих интерес к теории автоматов, нейронным сетям и исследованиям интеллекта. Они организовывали двухмесячный семинар в Дартмуте летом 1956 года. Всего на этом семинаре присутствовали 10 участников, включая Тренчарда Мура из Принстонского университета, Артура Самюэла из компании IBM, а также Рея Соломонова и Оливера Селфриджа из Массачусетсского технологического института.

Дартмутский семинар не привел к появлению каких-либо новых крупных открытий, но позволил познакомиться всем наиболее важным деятелям в этой научной области. Они, а также их студенты и коллеги из Массачусетсского технологического института, Университета Карнеги-Меллона, Станфордского университета и компании IBM занимали ведущее положение в этой области в течение следующих 20 лет.

Одним из результатов данного семинара было соглашение принять новое название для этой области, предложенное Маккарти, – искусственный интеллект.

Первые годы развития искусственного интеллекта были полны успехов, хотя и достаточно скромных. Если учесть, какими примитивными были в то время компьютеры и инструментальные средства программирования, и тот факт, что лишь за несколько лет до этого компьютеры рассматривались как устройства, способные выполнять только арифметические, а не какие-либо иные действия, можно лишь удивляться тому, как удалось заставить компьютер выполнять операции, хоть немного напоминающие разумные.

Была создана программа общего решателя задач (General Problem Solver- GPS), предназначенная для моделирования процедуры решения задач человеком. Как оказалось, в пределах того ограниченного класса головоломок, которые была способна решать эта программа, порядок, в котором она рассматривала подцели и возможные действия, был аналогичен тому подходу, который применяется людьми для решения таких же проблем. Поэтому программа GPS была, по-видимому, самой первой программой, в которой был воплощен подход к "организации мышления по такому же принципу, как и у человека".

Герберт Гелернтер сконструировал программу Geometry Theorem Prover (программа автоматического доказательства геометрических теорем), которая была способна доказывать такие теоремы, которые показались бы весьма сложными многим студентам-математикам.

Начиная с 1952 года Артур Самюэл написал ряд программ для игры в шашки, которые в конечном итоге научились играть на уровне хорошо подготовленного любителя. В ходе этих исследований Самюэл опроверг утверждение, что компьютеры способны выполнять только то, чему их учили: одна из его программ быстро научилась играть лучше, чем ее создатель.

В 1958 году Джон Маккарти привел определение нового языка высокого уровня Lisp – одного из первых языков программирования для искусственного интеллекта.