Автор Анна Евкова
Преподаватель который помогает студентам и школьникам в учёбе.

Реферат на тему: История развития искусственного интеллекта и потребностей в нём

Реферат на тему: История развития искусственного интеллекта и потребностей в нём

Содержание:

Введение

Искусственный интеллект робототехника.

Термин интеллект (лат. intellectus) означает ум, разум, способность мыслить и рациональное знание. Обычно это означает способность приобретать, запоминать, применять и преобразовывать знания для решения каких-то задач. Благодаря этим качествам человеческий мозг способен решать самые разнообразные задачи. В том числе и те, для которых не существует заранее известных методов решения.

Термин "искусственный интеллект" появился сравнительно недавно, но уже практически невозможно представить себе мир без него. Чаще всего люди не замечают его присутствия, но если бы он вдруг исчез, это радикально повлияло бы на нашу жизнь. Области, в которых используются технологии искусственного интеллекта, постоянно пополняются: когда-то это было программное обеспечение для игры в шахматы, потом-роботы-пылесосы, теперь алгоритмы способны сами проводить торги на биржах.

Это направление сформировалось на основе утверждения, что человеческий интеллект может быть подробно описан и, впоследствии, успешно имитирован машиной. Искусственный интеллект был причиной большого оптимизма, но вскоре показал ошеломляющую сложность реализации.

Основные области развития искусственного интеллекта включают в себя мышление, знание, планирование, обучение, языковое общение, восприятие и способность перемещать и манипулировать объектами. Универсальный искусственный интеллект (или" сильный ИИ") все еще находится в планах на будущее. В настоящее время популярные подходы включают статистические методы, вычислительный интеллект и традиционный символический ИИ. Существует огромное количество инструментов, использующих искусственный интеллект: различные варианты алгоритмов поиска, алгоритмы математической оптимизации, логика, методы, основанные на вероятности, и многие другие.

В этом очерке я постарался собрать наиболее важные, с моей точки зрения, события, повлиявшие на развитие техники и теории искусственного интеллекта, основные достижения и предпосылки.

Самые первые идеи

Идея о том, что нечеловеческое существо может выполнять тяжелую работу за человека, восходит к каменному веку, когда человек одомашнил собаку. Собака идеально подходила на роль сторожа и выполняла эту задачу гораздо лучше человека. Конечно, этот пример нельзя рассматривать как демонстрацию использования искусственного интеллекта, ведь собака-живое существо: она уже оснащена способностью распознавать образы, ориентироваться в пространстве, а также предрасположена к некоторой базовой дрессировке для того, чтобы распознавать "свой / чужой". Однако он показывает направление мысли человека.

Другой пример - миф о Талосе. Талос, по легенде, был огромным бронзовым рыцарем, которого Зевс подарил Европе для защиты острова Крит. Его работа состояла в том, чтобы держать чужаков подальше от острова. Если они приближались, Талос бросал в них камни, если им удавалось приземлиться, Талос грелся в огне и сжигал врагов на руках.

Почему Талос такой замечательный? Созданный из самого прочного на тот момент материала, способный определить, кто здесь посторонний, практически неуязвимый, без необходимости отдыхать. Именно так представляли себе творение богов древние греки. Самым ценным в этом творении было то, что мы сейчас называем искусственным интеллектом.

Еще один интересный пример можно взять из еврейских преданий - это легенды о Големах. Голем - это глиняное существо человеческого рода. Они, по легенде, могли быть созданы раввинами для защиты еврейского народа. В Праге возникла еврейская народная легенда о Големе, который был создан главным раввином Праги для выполнения различных "черных" работ или просто сложных поручений. Известны и другие Големы, созданные по народной легенде различными авторитетными раввинами-новаторами религиозной мысли.

В этой легенде народная фантазия оправдывает сопротивление социальному злу насилием, совершаемым Големом. Для него легализована идея усиленной борьбы со злом, выходящим за границы религиозного закона; недаром легенды о Големе превышают его авторитет, объявляя его волю противоречащей воле его Создателя: Голем способен сделать то, что по закону является преступлением для человека.

И, наконец, роман "Франкенштейн, или современный Прометей", написанный Мэри Шелли. Его можно назвать родоначальником научно - фантастической литературы. В ней описывается жизнь и деятельность доктора Виктора Франкенштейна, который оживил существо, созданное из частей тел умерших людей. Однако, видя, что оно оказалось уродливым и чудовищным, доктор отрекается от своего творения и покидает город, в котором жил. Безымянное существо, которое люди ненавидят за его внешний вид, вскоре начинает преследовать своего создателя.

И здесь снова встает вопрос об ответственности, которую человек несет за свои создания. В начале 19 века роман поднял несколько вопросов о паре творца и творения. Насколько этически правильно было создать такое творение? Кто несет ответственность за его действия? Вопросы, тесно связанные с представлениями об искусственном интеллекте.

Есть много подобных примеров, которые так или иначе связаны с созданием искусственного интеллекта. Это кажется людям святым граалем, способным решить многие их проблемы и освободить их от любых проявлений недостатка и неравенства.

Три закона робототехники

Со времен Франкенштейна искусственный интеллект появлялся в литературе постоянно. Мысль о нем стала плодотворной почвой для размышлений писателей и философов. Один из них, Айзек Азимов, навсегда останется в нашей памяти.

В 1942 году в своем романе "Хоровод" он описал три закона, которым должны следовать роботы:

  • Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  • Робот должен подчиняться всем приказам человека, за исключением тех случаев, когда эти приказы противоречат Первому Закону.
  • Робот должен заботиться о собственной безопасности в той мере, в какой это не противоречит Первому и Второму Законам.

До Исаака истории об искусственном интеллекте и роботах сохраняли дух романа Мэри Шелли "Франкенштейн". Как говорил сам Исаак, эта проблема стала одной из самых популярных в мире научной фантастики в 1920-1930-е годы, когда было написано множество рассказов, темой которых были роботы, восставшие и уничтожавшие людей.

Но не все писатели-фантасты, конечно, следовали этой схеме. В 1938 году, например, Лестер дель Рей написал рассказ "Хелен О'Лой" - историю о женщине-роботе, которая влюбилась в своего создателя и стала для него, впоследствии, идеальной женой. Что, кстати, очень похоже на историю Пигмалиона. Пигмалион вырезал из слоновой кости статую девушки такой красоты, что влюбился в нее. Тронутая такой любовью, Афродита оживила статую, ставшую женой Пигмалиона.

На самом деле появление Трех Законов было постепенным. В двух самых ранних рассказах о роботах, "Робби "(1940) и" Логика " (1941), не было явного описания законов. Но они уже подразумевали, что роботы должны иметь некоторые внутренние ограничения. В рассказе "Лжец" (1941) впервые прозвучал Первый закон. И все три закона появились в полном объеме только в "Хороводе" (1942).

Несмотря на то, что сегодня робототехника развивается как никогда, исследователи из области искусственного интеллекта не придают такого большого значения законам робототехники. Ведь законы, по сути, совпадают с основными принципами человечества. Однако чем сложнее становятся роботы, тем очевиднее необходимость создания для них каких-то базовых принципов и мер безопасности.

Есть даже утверждения, что Законы вряд ли будут полностью реализованы во всех роботах, потому что всегда найдутся те, кто захочет использовать роботов с целью разрушения и убийства. Эксперт по научной фантастике Роберт Сойер объединил эти утверждения в одно.

"Развитие ИИ - это бизнес, а бизнес, как известно, не заинтересован в разработке фундаментальных мер безопасности- особенно философских. Вот несколько примеров: табачная промышленность, автомобильная промышленность, атомная промышленность. Никому из них изначально не говорили, что необходимы серьезные меры безопасности, и все они препятствовали введенным извне ограничениям, и никто из них не принял абсолютного эдикта против причинения вреда людям.»

Первые шаги в исследованиях

История развития искусственного интеллекта как науки восходит к ранним философским трудам, таким как:" Рассуждение о методе "(Рене Декарт, 1637)," Человеческая природа " (Томас Гоббс, 1640). Если рассматривать развитие также с технической точки зрения, то можно упомянуть первую механическую цифровую вычислительную машину, появившуюся еще раньше: в 1623 году, благодаря усилиям Вильгельма Шикарда. Однако я хотел бы обратить внимание на 1950 год, когда Алан Тьюринг в своей статье "Вычислительные машины и разум" задался целью определить, способна ли машина мыслить.

Тест Тьюринга

Человек общается с другим человеком и с компьютерной программой. Человек может задавать вопросы через терминал, его задача-определить, где находится программа и где находится человек. Цель программы-ввести людей в заблуждение и заставить их сделать неправильный выбор. Согласно условиям, переписка должна была вестись через определенные промежутки времени, потому что тогда компьютеры были еще медленными и это позволяло сразу определить, где находится программа. Теперь это правило необходимо, потому что компьютер может ответить намного быстрее, чем человек.

На самом деле существует несколько вариантов формулировки. В одном из них, например, компьютер должен был убедить комиссию из нескольких человек, что они общаются с другим человеком. И в одном из самых первых вариантов Тьюринг предлагает участнику эксперимента сыграть в шахматы с человеком и с компьютером, а затем определить, кто из них кто. На самом деле, на момент написания этой статьи Алан Тьюринг работал над искусственным интеллектом около 10 лет.

В последующей истории теста Тьюринга можно выделить несколько ключевых событий. Но главное произошло в 1966 году, когда Йозеф Вейценбаум создал программу Элиза, которая могла пародировать разговор с психотерапевтом. Это позволило ей ответить вопросом на вопрос перед лицом неопределенности.

Элиза всегда будет оставаться важным этапом в развитии искусственного интеллекта. Это была первая программа, которая вышла за рамки парадигмы общения Человека и Машины и смогла создать имитацию общения Человека и Машины.

Дармутский семинар

Благодаря стремительному скачку скорости компьютеров исследователи начали верить, что благодаря компьютеру не составит труда создать искусственный интеллект. Дело в том, что в то время существовало два направления исследований: нейрокибернетика и, чуть позже, кибернетика "черного ящика".

Нейрокибернетика основана на принципе, что единственным объектом, способным мыслить, является человек, поэтому мыслящее устройство должно моделировать его структуру. Ученые пытались создать элементы, которые работали бы подобно нейронам в мозге. Благодаря этому в конце 50-х годов появились первые нейронные сети. Они были созданы двумя американскими учеными: Розен-Блаттом и П. Они пытались создать систему, которая могла бы имитировать работу человеческого глаза. Они назвали свое устройство персептроном. Он мог распознавать рукописные буквы. В настоящее время основной областью применения нейронных сетей является распознавание изображений.

В основу кибернетики "черного ящика" был положен принцип, что независимо от того, как мыслящая машина устроена внутри, главное, чтобы она реагировала на определенный набор входных данных так же, как и человек. Исследователи, работающие в этой области, начали создавать свои собственные модели. Оказалось, что ни одна из существующих наук: психология, философия, нейрофизиология, лингвистика-не могла пролить свет на алгоритм работы мозга.

Развитие кибернетики "черного ящика" началось в 1956 году, когда состоялся Дармутский семинар, одним из главных организаторов которого был Джон Маккарти. К тому времени стало ясно, что для реализации принципов нейрокибернетики не хватает как теоретических знаний, так и технической базы. Но исследователи в области информатики считали, что совместными усилиями можно было бы разработать новый подход к созданию искусственного интеллекта. Благодаря усилиям некоторых наиболее выдающихся ученых в области компьютерных наук был организован семинар под названием "Летний проект Дармута по исследованию искусственного интеллекта". В нем приняли участие 10 человек, многие из которых в дальнейшем были удостоены премии Тьюринга - самой почетной премии в области компьютерных наук. Ниже приводится вступительное заявление.

"Мы предлагаем 2-месячное исследование искусственного интеллекта с участием 10 человек летом 1956 года в Дартмутском колледже в Ганновере, штат Нью-Гэмпшир.

Исследование основано на предположении, что любой аспект обучения или любое другое свойство интеллекта в принципе может быть описано настолько точно, что машина может его имитировать. Мы попытаемся понять, как обучить машины пользоваться естественными языками, формировать абстракции и понятия, решать задачи, которые сейчас подвластны только человеку, и совершенствовать себя.

Мы считаем, что значительный прогресс в одной или нескольких из этих проблем вполне возможен, если специально отобранная группа ученых будет работать над ней в течение лета.»

Это была, пожалуй, самая амбициозная заявка на грант в истории. Именно на этой конференции была официально создана новая область науки - "Искусственный интеллект". И может быть, ничего конкретного не было открыто или разработано, но благодаря этому событию некоторые из самых выдающихся исследователей познакомились друг с другом и начали двигаться в одном направлении.

1956-1960: время больших надежд

В то время казалось, что решение уже очень близко и, несмотря на все трудности, человечество скоро сможет создать полноценный искусственный интеллект, который сможет принести реальную пользу. Были программы, которые могли создать что-то разумное. Классический пример - программа Логика-теоретик.

В 1913 году Уайтхед и Бертран Рассел опубликовали "Принципы математики". Их цель состояла в том, чтобы показать, что с минимальным набором логических инструментов, таких как аксиомы и правила вывода, можно воссоздать все математические истины. Эта работа считается одной из самых влиятельных книг, когда-либо написанных после Органона Аристотеля.

Программа Теоретика логики смогла воссоздать большую часть "Principia Mathematica"сама. Причем, кое-где даже более изящно, чем это получилось у авторов.

Теоретик логики представил несколько идей, которые стали центральными в исследованиях искусственного интеллекта:

  • Рассуждение как метод поиска. На самом деле программа просматривала дерево поиска. Корнем дерева были начальные утверждения. Происхождение каждой ветви основывалось на правилах логики. На самой вершине дерева результат был тем, что могла доказать программа. Путь от корневых операторов к целевым был назван доказательством.
  • Эвристика. Авторы программы поняли, что дерево будет расти экспоненциально и им нужно будет как-то," на глаз", подрезать его. Правила, по которым они избавлялись от лишних ветвей, они называли "эвристическими", используя термин, введенный Дьердем Помя в его книге "Как решить проблему". Эвристика стала важным компонентом исследований искусственного интеллекта. Он остается важным методом решения сложных комбинаторных задач, так называемых "комбинаторных взрывов" (например: задача коммивояжера, перебирающего шахматные ходы).
  • Обработка структуры "Списка". Для реализации программы на компьютере был создан Язык обработки информации (IPL), который использовал ту же форму списков, которую Джон Маккарти использовал в дальнейшем при создании языка Lisp (за что получил премию Тьюринга), который до сих пор используется исследователями искусственного интеллекта.

1970-е годы: Системы, основанные на знаниях.

Системы, основанные на знаниях,-это компьютерные программы, использующие базы знаний для решения сложных задач. Сами системы делятся еще на несколько классов. Объединяет их то, что все они пытаются представить знание с помощью таких средств, как онтологии и правила, а не просто программный код. Они всегда состоят как минимум из одной подсистемы, а чаще всего сразу из двух: базы знаний и машины вывода. База знаний содержит факты о мире. Машина вывода содержит логические правила, которые обычно представляются как правила "ЕСЛИ-ТО" . Системы, основанные на знаниях, были впервые созданы исследователями искусственного интеллекта.

Первой действующей системой, основанной на знаниях, была программа Mycin. Эта программа была создана для диагностики опасных бактерий и выбора наиболее подходящего лечения для пациента. Программа действовала по 600 правилам, задавала врачу множество вопросов с ответом "да/нет" и давала список возможных бактерий, отсортированных по вероятности, также давала доверительный интервал и могла рекомендовать курс лечения.

В результате исследований в Стэнфорде было установлено, что Микин обеспечивает приемлемый курс лечения в 69% случаев, что лучше, чем у эспертов, которые оценивались по тем же критериям. Это исследование часто цитируется, чтобы продемонстрировать несогласие между медицинскими экспертами и системой, если нет стандарта для "правильного" лечения.

К сожалению, Микин не был испытан на практике. Были подняты этические и правовые вопросы, связанные с использованием таких программ. Было неясно, кто должен нести ответственность, если рекомендации программы окажутся неверными. Другой проблемой было технологическое ограничение. В те времена не было персональных компьютеров, один сеанс занимал более получаса, а это было недопустимо для занятого врача.

Главным достижением программы стало то, что мир увидел мощь систем, основанных на знаниях, и мощь искусственного интеллекта в целом. Позже, в 1980-х годах, стали появляться и другие программы, использующие тот же подход. Для упрощения их создания была создана оболочка E-Mycin, которая позволяла создавать новые экспертные системы с меньшими усилиями. Непредвиденная трудность, с которой столкнулись разработчики, заключалась в извлечении знаний из опыта экспертов, по понятным причинам.

Важно отметить, что именно в это время советский ученый Дмитрий Поспелов начал свою работу в области искусственного интеллекта

Борьба на шахматной доске

Отдельно можно рассмотреть историю противостояния человека и искусственного интеллекта на шахматной доске. Эта история началась очень давно: когда в 1769 году в Вене Вольфганг фон Кемпеленг создал шахматную машину. Это был большой деревянный ящик, на крыше которого была шахматная доска, а за ней стоял восковой турок в соответствующем наряде (из-за этого машину иногда кратко называют "Турок"). Перед началом представления двери ложи были открыты, и зрители могли видеть множество деталей некоего механизма. Потом двери закрыли, и машину завели специальным ключом, как часы. После этого игрок, который хотел играть, подходил и делал ходы.

Эта машина имела огромный успех и успела объехать всю Европу, проиграв лишь несколько партий сильным шахматистам. На самом деле внутри ящика сидел человек, который с помощью системы зеркал и механизмов мог наблюдать за состоянием партии и использовать систему рычагов для управления рукой "турка". И это был не последний вагон, внутри которого, по сути, прятался живой шахматист. Такие машины были успешны вплоть до начала двадцатого века.

С появлением компьютеров возможность создания искусственного шахматиста стала осязаемой. Алан Тьюринг разработал первую программу, способную играть в шахматы, но из-за технических ограничений потребовалось около получаса, чтобы сделать один ход. Есть даже запись игры программы с Аликом Глени, коллегой Тьюринга, которую программа проиграла.

Идея создания таких программ на базе компьютеров вызвала резонанс в научном мире. Было задано много вопросов. Прекрасным примером может служить статья:" Цифровые компьютеры, применяемые к играм " (Digital Computers applied to Games).

Это поднимает 6 вопросов:

  • Возможно ли создать машину, которая могла бы следовать правилам шахмат, могла бы произвести случайный правильный ход или проверить правильность хода?
  • Можно ли создать машину, способную решать шахматные задачи? Например, скажите, как поставить мат в три хода.
  • Можно ли создать машину, которая вела бы хорошую игру? Который, например, при некотором обычном расположении фигур мог выдать хороший правильный ход после двух - трех минут вычислений.
  • Возможно ли создать машину, которая учится и совершенствует свою игру снова и снова, играя в шахматы?

Этот вопрос поднимает еще два вопроса, которые, скорее всего, уже вертятся на кончике языка читателя:

  • Можно ли создать машину, способную ответить на вопрос таким образом, чтобы невозможно было отличить ее ответ от ответа человека?
  • Возможно ли создать машину, которая чувствовала бы себя как вы или я?

Статья была посвящена вопросу № 3. Ответ на вопросы 1 и 2 строго положительный. Ответ на вопрос 3 предполагает использование более сложных алгоритмов. Что касается вопросов 4 и 5, то автор говорит, что не видит убедительных аргументов, опровергающих эту возможность. И на вопрос 6: "Я никогда даже не узнаю, чувствуете ли вы то же самое, что и я."

Такие исследования, возможно, не имели большого практического интереса сами по себе, но они были очень интересны в теории, и можно было надеяться, что решение этих проблем приведет к решению других проблем аналогичного характера и большей важности.

Умение играть в шахматы уже давно отнесено к стандартным тестовым заданиям, демонстрирующим способность искусственного интеллекта справляться с заданием не с позиций" грубой силы", под которой в данном контексте понимается использование тотального перебора возможных ходов, а с помощью..." чего-то подобного", как однажды выразился один из пионеров разработки шахматных программ Михаил Ботвинник. В свое время ему удалось "пробить" официальное финансирование работ по проекту "искусственного шахматного мастера" - программного комплекса "ПИОНЕР", который был создан под его руководством во Всесоюзном научно-исследовательском институте электроэнергетики. Ботвинник неоднократно докладывал в Президиум АН СССР о возможностях применения основных принципов "ПИОНЕРА" для решения задач оптимизации управления в народном хозяйстве.

Основную идею, на которой основывал свое развитие бывший чемпион мира, он сам сформулировал в одном из своих интервью в 1975 году: "Вот уже более десятка лет я работаю над проблемой распознавания мышления шахматного мастера: как он находит ход без полного поиска? И теперь можно утверждать, что этот метод в основном раскрыт… Три основных этапа создания программы: машина должна уметь находить траекторию движения фигуры, затем она должна "научиться" формировать игровую зону, локальную зону боя на шахматной доске, и уметь формировать множество этих зон. Первая часть работы была проделана очень давно. Подпрограмма формирования зоны завершена. В ближайшие дни начнется отладка. Если он будет успешным, то будет полная уверенность, что третий этап пройдет успешно и машина начнет играть."

ПИОНЕРСКИЙ проект остался незавершенным. Ботвинник работал над ней с 1958 по 1995 год - и за это время успел построить алгоритмическую модель шахматной игры, основанную на поиске "дерева вариантов" и последовательном достижении "неточных целей", которые и были выигрышным материалом.

В 1974 году советская компьютерная программа Kaissa выиграла Первый Мировой чемпионат по компьютерным шахматам , победив другие шахматные машины во всех четырех партиях, играя, по мнению шахматистов, на уровне третьей категории. Советские ученые ввели много новшеств для шахматных машин: использование открывающей книги, позволяющей избежать подсчета ходов в самом начале игры, а также специальную структуру данных: битборд, который до сих пор используется в шахматных машинах.

Возник вопрос и о том, может ли программа победить человека. В 1968 году шахматист Дэвид Леви поставил 1250 фунтов на то, что ни одна машина не сможет победить его в течение следующих 10 лет. В 1977 году он сыграл партию с Каиссой и выиграл, после чего турнир больше не продолжался. В 1978 году он выиграл партию против Chess4, лучшей шахматной программы того времени , после чего признал, что осталось не так много времени, пока программы не смогут победить титулованных шахматистов.

Отдельно следует отметить игру между человеком и компьютером. Самой первой была упомянутая ранее партия Алика Глени и программа Тьюринга. Следующим шагом стало создание программы в Лос-Аламосе в 1952 году. Она играла на доске 6х6 (без слонов). Испытание проводилось в два этапа. Первый этап-это игра с сильным шахматистом, в результате которой после 10 часов игры человек выигрывает. Второй этап-игра против девушки, которую незадолго до экзамена научили играть в шахматы. Результатом стала победа программы на 23-м ходу, что было несомненным достижением на тот момент.

Только в 1989 году программе Deep Thought удалось победить международного гроссмейстера Бента Ларсена. В том же году состоялся матч той же программы с Гарри Каспаровым, который Каспаров легко выиграл. После этого матча он заявил.

"Если компьютер может победить лучших из лучших в шахматах, это будет означать, что компьютер может сочинять лучшую музыку, писать лучшие книги. Я не могу в это поверить. Если компьютер будет создан с рейтингом 2800, который равен моему, я буду считать своим долгом бросить ему вызов на матч, чтобы защитить человеческую расу.»

В 1996 году Deep Blue computer проиграла турнир Каспарову, но впервые в истории выиграла матч против чемпиона мира. И только в 1997 году компьютер впервые в истории выиграл турнир у чемпиона мира со счетом 3,5:2,5.

После матчей Каспарова многие руководители ФИДЕ неоднократно высказывали мысль о том, что проводить смешанные встречи (человек против компьютерной программы) нецелесообразно по многим причинам. Поддерживая эту позицию, Гарри Каспаров пояснил: "Да, компьютер не знает, что такое выигрыш или проигрыш. Как это для меня?. Как я буду относиться к игре после бессонной ночи, после грубых ошибок в игре? Все дело в эмоциях. Они накладывают огромную нагрузку на человека-игрока, и самое неприятное, что вы понимаете: ваш противник не подвержен усталости или каким-либо другим эмоциям."

И если даже сейчас в шахматной борьбе преимущество на стороне компьютеров, то в таких соревнованиях, как игра го, компьютер подходит только для игры с новичками или с игроками среднего уровня. Причина в том, что в го трудно оценить состояние доски: один ход может сделать явно проигрышную позицию, выигрышную. Кроме того, полный поиск практически невозможен, поскольку без использования эвристического подхода полный поиск первых четырех ходов (два с одной стороны и два с другой) может потребовать оценки почти 17 млд. возможных вариантов раскладки.

Игра в покер может представлять такой же интерес. Трудность здесь заключается в том, что состояние не полностью наблюдаемо, в отличие от го и шахмат, где оба игрока могут видеть всю доску. В покере может возникнуть ситуация, когда противник говорит пас и не показывает свои карты, что может усложнить процесс анализа.

В любом случае интеллектуальные игры так же важны для разработчиков ИИ, как дрозофилы для генетиков. Это удобное поле для испытаний, поле для исследований, как теоретических, так и практических. Это тоже показатель развития науки об искусственном интеллекте.

Использование искусственного интеллекта в коммерческих целях

В 80-е годы, вдохновленные достижениями искусственного интеллекта, многие компании решили попробовать использовать новые технологии. Однако позволить себе такие экспериментальные шаги могли только крупнейшие компании.

Одной из первых компаний, сумевших адаптировать технологии искусственного интеллекта, стала DEC (Digital Equipment Corp). Она смогла внедрить экспертную систему XSEL, которая помогла настроить оборудование и выбрать альтернативы для клиентов. В результате трехчасовое задание сократилось до 15 минут, а количество ошибок сократилось с 30% до 1%. По словам представителей компании, система XSEL позволила заработать 70 миллионов долларов.

American Express использовала экспертную систему, чтобы решить, выдавать кредит клиенту или нет. Эта система на треть чаще предлагала кредит, чем эксперты. Говорят, она зарабатывала 27 миллионов долларов в год.

Отдача от интеллектуальных систем часто была ошеломляющей. Это было похоже на переход от ходьбы к путешествию на машине или от путешествия на машине к полету на самолете.

Однако не все было так просто с интеграцией искусственного интеллекта. Во-первых, не каждая задача может быть формализована до уровня, на котором искусственный интеллект может с ней справиться. Во-вторых, сама разработка была очень дорогой. В-третьих, системы были новыми, люди не привыкли пользоваться компьютерами. Некоторые были настроены скептически, а некоторые даже враждебно.

Интересным примером является компания DuPont, она смогла потратить 10 000 долларов и один месяц на создание небольшой вспомогательной системы. Он мог работать на персональном компьютере и позволял получить дополнительную прибыль в размере 100 000 долларов.

Не все компании успешно внедряют технологии искусственного интеллекта. Это показало, что использование таких технологий требует большой теоретической базы и больших ресурсов: интеллектуальных, временных и материальных. Но в случае успеха затраты окупались с лихвой.

Смена Парадигмы

В середине 80-х годов человечество увидело, что компьютеры и искусственный интеллект способны справляться с трудными задачами не хуже человека, а во многих отношениях даже лучше. Под рукой были примеры успешного коммерческого использования, достижения в игровой индустрии и достижения в системах поддержки принятия решений. Люди верили, что в какой-то момент компьютеры и искусственный интеллект смогут справиться с повседневными проблемами лучше, чем люди. Вера, которая прослеживается с давних времен, а точнее, с момента создания трех законов робототехники. Но в какой-то момент эта вера вышла на новый уровень. И чтобы доказать это, мы можем привести еще один закон робототехники, который сам Айзек Азимов в 1986 году назвал "нулевым" . Робот не может причинить вред человеку, если не докажет, что в конечном счете принесет пользу всему человечеству.»

Это огромный сдвиг в видении места искусственного интеллекта в жизни человека. Первоначально машинам отводилось место безвольного слуги: скота нового века. Однако, увидев его перспективы и возможности, люди стали поднимать вопрос о том, не может ли искусственный интеллект управлять жизнью людей лучше, чем сами люди. Безжалостный, справедливый, бескорыстный, не подверженный зависти и желаниям, возможно, он мог бы устроить жизнь людей по-другому. Идея не совсем новая, она появилась в 1952 году в романе Курта Воннегута "Механическое пианино" или "Утопия 14". Но тогда это было фантастически. Теперь это стало возможной перспективой.

Интеллектуальный анализ данных
История этого направления в интеллектуальном анализе данных началась в 1989 году, после семинара Григория Пятецкого-Шапиро. Он задавался вопросом, можно ли извлечь полезные знания из длинной последовательности, казалось бы, ничем не примечательных данных. Например, это может быть архив запросов к базе данных. Если бы, глядя на него, мы могли бы определить некоторые закономерности, это позволило бы нам ускорить работу базы данных. Пример: каждое утро с 7: 50 до 8: 10 инициируется ресурсоемкий запрос на создание отчета за предыдущий день, в этом случае к этому времени он уже может быть сгенерирован между другими запросами, поэтому база данных будет более равномерно загружена запросами. Но представьте себе, что сотрудник инициирует этот запрос только после ввода новой информации. В этом случае правило должно измениться: как только конкретный сотрудник ввел информацию, вы можете начать подготовку отчета в фоновом режиме. Этот пример чрезвычайно прост, но он показывает как преимущества обработки данных, так и связанные с ней трудности.

Термин datamining не имеет официального перевода на русский язык. Его можно перевести как "интеллектуальный анализ данных", в то время как "майнинг" сродни тому, что ведется в шахтах: имея много сырья, можно найти ценный объект. Собственно, подобный термин существовал еще в 1960-е годы: Рыбалка данных работ. Он использовался статистиками, имея в виду признанную плохую практику поиска закономерностей в отсутствие априорных гипотез. На самом деле этот термин можно было бы правильнее назвать интеллектуальным анализом баз данных, но это название оказалось торговой маркой. Сам Григорий Пятецкий-Шапиро предложил термин "Обнаружение знаний в базах данных", но название "Интеллектуальный анализ данных" закрепилось в деловой среде и прессе.

Идея о том, что, используя определенную базу данных некоторых фактов, можно предсказать существование новых фактов, появилась давно и постоянно развивалась в соответствии с уровнем развития технологий: 1700-е - теорема Байеса, 1800-е - регрессионный анализ, 1930-е-кластерный анализ, 1940-е-нейронные сети, 1950-е-генетические алгоритмы, 1960 - е-деревья решений. Термин интеллектуальный анализ данных объединил их не по принципу того, как они работают, а по тому, какова их цель: имея определенный набор известных данных, они могут предсказать, какие данные должны получиться в следующий раз.

Цель интеллектуального анализа данных-найти "скрытые знания". Давайте подробнее рассмотрим, что означает "скрытое знание". Во-первых, это должно быть новое знание. Например, что в выходные дни количество товаров, продаваемых в супермаркете, увеличивается. Во-вторых, знание не должно быть тривиальным, не сводиться к нахождению математического ожидания и дисперсии. В-третьих, эти знания должны быть полезны. В-четвертых, знание, которое можно легко интерпретировать.

Долгое время люди верили, что компьютеры могут предсказать все: цены на акции, нагрузку на сервер и количество необходимых ресурсов. Однако оказалось, что зачастую очень сложно извлечь информацию из дампа данных. В каждом конкретном случае нужно корректировать алгоритм, если это не просто какая-то регрессия. Люди верили, что существует универсальный алгоритм, который, подобно черному ящику, может поглотить некоторое большое количество данных и начать делать прогнозы.

Несмотря на все ограничения, инструменты, облегчающие интеллектуальный анализ данных, совершенствуются из года в год. А с 2007 года Rexer Analytics ежегодно публикует результаты опроса специалистов о существующих инструментах. Опрос в 2007 году состоял из 27 вопросов, в нем приняли участие 314 человек из 35 стран. В 2013 году опрос состоял из 68 вопросов, в нем приняли участие 1259 специалистов из 75 стран.

Датамайнинг по-прежнему считается перспективным направлением. Опять же, его использование поднимает новые этические вопросы. Простой пример-использование инструментов интеллектуального анализа данных для анализа и прогнозирования преступлений. Подобные исследования проводятся с 2006 года различными университетами. Правозащитники выступают против этого, утверждая, что полученные таким образом знания могут привести к поискам, причиной которых являются не факты, а предположения.

Рекомендательные системы

Рекомендательные системы на сегодняшний день являются наиболее ощутимым результатом развития искусственного интеллекта. Мы можем столкнуться с этим, зайдя в один из популярных интернет-магазинов. Задача рекомендательной системы состоит в том, чтобы определить, например, список продуктов, просмотренных конкретным пользователем, и определить, какие продукты будут наиболее интересны пользователю.

Задача поиска рекомендаций также сводится к задаче обучения машины, как и при обработке данных. Считается, что история развития рекомендательных систем началась с внедрения системы Гобеленов Дэвидом Голдбергом в Исследовательском центре Xerox Palo Alto Research Center в 1992 году. Целью системы была фильтрация корпоративной почты. Это стало своего рода предком рекомендательной системы.

На данный момент существует две рекомендательные системы. Дэвид Голдберг предложил систему, основанную на коллаборативной фильтрации. То есть для того, чтобы сделать рекомендацию, система смотрит на информацию о том, как другие пользователи, похожие на целевого пользователя, оценили определенный объект. Исходя из этой информации, система может предположить, насколько высоко целевой пользователь оценит тот или иной объект (продукт, фильм).

Другой тип рекомендательной системы-фильтры контента. Необходимым условием существования фильтра контента является определенная база данных, в которой должны храниться метрики для всех объектов. Затем, после нескольких действий пользователя, система может определить, какой тип объектов нравится пользователю. Основываясь на существующих метриках, система может выбрать новые объекты, которые будут чем-то похожи на уже просмотренные. Недостатком такой системы является то, что сначала нужно построить большую базу данных с метриками. Сам процесс построения метрики может быть проблемой.

Опять же, возникает вопрос, не является ли использование таких систем нарушением. Здесь есть два подхода. Первый-это явный сбор данных, который представляет собой сбор данных исключительно в рамках, в которых функционирует рекомендательная система. Например, если это рекомендательная система для интернет-магазина, она предложит оценить какой-то товар, отсортировать товары в порядке интереса и составить список любимых товаров. С этим типом все просто: система не получает информацию о деятельности пользователя за пределами своих границ, все, что она знает, - это то, что пользователь сам ей рассказал. Второй тип-неявный сбор данных. Она включает в себя такие приемы, как использование информации из других, аналогичных ресурсов, ведение учета поведения пользователя, проверка содержимого компьютера пользователя. Этот тип сбора информации для рекомендательных систем вызывает озабоченность.

Однако в этом направлении использование частной информации вызывает все меньше и меньше споров. Например, в 2013 году на конференции YAC (Yandex Another Conference) было объявлено о создании системы Atom. Его цель-предоставить владельцам сайтов информацию, которая может им понадобиться для создания рекомендаций. Эта информация изначально должна собираться сервисами Яндекса. То есть в этом случае выполняется неявный сбор данных. Пример: человек заходит в поисковую службу, чтобы узнать самые интересные места Парижа. Через некоторое время человек заходит на сайт турфирмы. Без использования Атома агентству просто пришлось бы показывать человеку самые популярные туры. Атом мог бы посоветовать сайту сначала показать пользователю тур в Париж и сделать персональную скидку на этот конкретный тур, чтобы отличить его от других. Таким образом, конфиденциальная информация не выходит за рамки сервиса Atom, сайт знает, что посоветовать клиенту, и клиент рад, что быстро нашел то, что искал.

На сегодняшний день рекомендательные системы являются самым ярким примером того, чего могут достичь технологии искусственного интеллекта. Благодаря одной такой системе можно проделать работу, с которой не справилась бы целая армия аналитиков.

Заключение

Развитие искусственного интеллекта как науки и техники для создания машин началось чуть более века назад. И достижения, которые были достигнуты до сих пор, ошеломляют. Они окружают человека почти повсюду. Технологии искусственного интеллекта имеют особую особенность: человек считает их чем-то разумным только поначалу, потом привыкает к ним, и они кажутся ему естественными.

Важно помнить, что наука об искусственном интеллекте тесно связана с математикой, комбинаторикой, статистикой и другими науками. Но не только они оказывают на него влияние, но и развитие искусственного интеллекта позволяет по-другому взглянуть на то, что уже создано, как это было в случае с программой Логика Теоретика.

Развитие компьютеров играет важную роль в развитии технологий искусственного интеллекта. Вряд ли можно представить себе серьезную программу интеллектуального анализа данных, которой хватило бы 100 килобайт оперативной памяти. Компьютеры позволяли технологии развиваться экстенсивно, а теоретические исследования служили предпосылками для интенсивного развития. Можно сказать, что развитие науки об искусственном интеллекте стало следствием развития компьютеров.

История развития искусственного интеллекта еще не закончена, она пишется прямо сейчас. Технологии постоянно совершенствуются, создаются новые алгоритмы, открываются новые области применения. Время постоянно открывает перед исследователями новые возможности и новые вопросы.

В данной статье не рассматриваются страны, в которых проводились те или иные исследования. Весь мир внес свой вклад в область, которую мы теперь называем наукой об искусственном интеллекте.

Список литературы

  1. Мифы народов мира. М., 1991-92. В 2 т. Т. 2. С. 491,
  2. Идель, Моше (1990). Голем: еврейские магические и мистические традиции об искусственном антропоиде. Олбани, Нью-Йорк: Издательство Государственного университета Нью-Йорка.
  3. Азимов, Исаак. Очерк № 6. Законы робототехники / / Роботы снов. - М.: Эксмо, 2004. - с. 781-784. - ISBN V 5-699-00842-X
  4. См. Нонн. Деяния Диониса XXXII 212. Клемент.  Протрептик 57, 3 (ссылка на Филостефана).
  5. Алан Тьюринг, "цифровые вычислительные машины применительно к играм", н. д. АМТ вклад быстрее, чем думал, Эд. В. Б. Боуден, Лондон, 1953. Опубликовано изданием Pitman Edition. ТС с исправлениями г-жа Р. С. 1953b
  6. Каисса-Чемпион мира. Journal of Science and Life, январь 1975, стр. 118-124
  7. Гик, Е. Гроссмейстер "Глубокой мысли" / / Наука и жизнь. - М., 1990. - Т. 5. - с. 129-130.
  8. Ф. Хейс-Рот, Н.Якобштейн. Состояние систем, основанных на знаниях. АСМ связи, март 1994, т. 37, N. 3, С. 27-39.
  9. Карл присмотром, Павел Gearan, & Хизер Аллен (2007); 2007 обследования Шахтер данные резюме, представленный на конференции ГСЗ направления конференции, октября.
  10. Саммит и 2007 Оракул Бива, октября. 2007. Карл стреме, Хизер Аллен, & Павел Gearan (2013);
  11. Горняк информацию рассмотрения резюме, представленные в анализе с прогнозированием, октября. 2013.