Автор Анна Евкова
Преподаватель который помогает студентам и школьникам в учёбе.

Реферат на тему: Проблема искусственного интеллекта

Реферат на тему: Проблема искусственного интеллекта

Содержание:

Введение

Искусственный интеллект в современном мире - одно из самых перспективных направлений со своей научной и философской спецификой и проблемами. Отсюда основные направления человеческой деятельности: кибернетика, лингвистика, психология, философия, математика, инженерия и другие, которые занимаются решением многих задач, связанных с искусственным интеллектом. Изучение и решение научных и философских проблем, связанных с искусственным интеллектом, даст ответы на многие фундаментальные вопросы, связанные с дальнейшим развитием научной мысли, с влиянием достижений в области компьютеров и робототехники, информационных технологий на жизнь человечества в будущем.   Отсюда появляются и начинают свое развитие новые методы перспективных научных междисциплинарных исследований, формируется новый взгляд на роль различных научных результатов и возникает философское осмысление этих результатов.

Следуя нейрофизиологии и последним научным разработкам в области изучения возможностей физиологии человека, человеческий мозг содержит огромное количество уникальных вычислительных узлов - нейронов, структурных и функциональных единиц нервной системы со сложной структурой. В организме человека таких единиц не менее ста миллиардов. Новейшие вычислительные системы быстро приближаются по своим возможностям к человеческому мозгу, однако, будучи уникальным явлением природы, мозг намного превосходит любую из существующих вычислительных систем. Тем не менее искусственные нейронные сети управляют сложнейшими системами управления и слежения, распознают изображения, и стало возможным создание интеллектуальных автопилотов. В системах искусственного интеллекта активно задействованы области, которые долгое время считались прерогативой человека: например, стратегии, логические игры и многое другое. В этих условиях особое значение приобретает рассмотрение основных философских вопросов, связанных с искусственным интеллектом. Также кажется очевидным, что возможно ответное влияние искусственного интеллекта и искусственной жизни на философские проблемы человеческого мышления и на человеческую жизнь в целом. Понятие искусственный интеллект не имеет однозначного определения, но можно выделить несколько наиболее важных аспектов искусственного интеллекта. Во-первых, это вопрос о том, что такое искусственный интеллект, потому что определение понятия определяется предметом, целями и методами. Во-вторых, интеллект подразумевает активные действия с информацией, например, ее обработку; Следовательно, проблема представления знаний в системах искусственного интеллекта является существенной. В-третьих, были и существуют различные подходы к решению вопросов, связанных с созданием интеллектуальных систем, и их рассмотрение и изучение позволяет выделить многие аспекты этой проблемы. Наконец, очень важно обеспечить адекватное взаимодействие искусственного интеллекта с человеком на естественном языке или языке, используемом человеком в области программирования, поскольку это значительно облегчает диалог с системами искусственного интеллекта.           

В современной науке представления о том, возможен ли искусственный интеллект, существенно различаются, то есть в научных кругах существует определенное противостояние по поводу того, как его видят, как объяснить его структуру, как определить его отношение к человеческому интеллекту и какую роль искусственный интеллект сыграет в историю человечества. С точки зрения самых консервативных ученых, искусственный интеллект принципиально невозможен. Тем не менее, разработки в области создания систем искусственного интеллекта в настоящее время являются одним из приоритетных направлений науки.  

Искусственный интеллект и его спецификации

Концепция искусственного интеллекта  

Понятие искусственный интеллект может иметь разные значения: это может быть как признание наличия интеллекта в электронных компьютерах, выполняющих логические и вычислительные операции, так и отнесение к интеллектуальным только тех систем, которые способны решать весь комплекс задач. задачи, выполняемые человеком, или даже более широкий их набор.

Одно понимание сущности искусственного интеллекта начинается с сходства процессов, происходящих в технической системе или в программах, с человеческим мышлением. То есть, если система способна решать задачи, решаемые человеком с помощью интеллекта, то такую ​​систему можно назвать системой искусственного интеллекта. Однако этого недостаточно, поскольку создание традиционных компьютерных программ - это интеллектуальная деятельность человека (программиста). Вопрос о том, какие задачи, решаемые техническими системами, можно рассматривать как составляющие искусственного интеллекта, остается открытым. Чтобы ответить на этот вопрос, необходимо дать определение понятию задача. С точки зрения психологии задача тесно связана с понятием мышление: психологи подчеркивают, что задача существует тогда, когда есть работа над мышлением, то есть когда есть цель, но не ясны средства ее достижения.. Их нужно определять посредством мышления. Математик Д. Поля выразился так: трудность решения до некоторой степени входит в само понятие проблемы: там, где нет трудности, нет проблемы.

Если у человека есть средства, с помощью которых он может осуществить свое желание, то проблемы не возникает. Если у человека есть алгоритм решения проблемы и физическая возможность его реализации, то проблемы больше не существует. Задача идентична проблемной ситуации и решается преобразованием последней. Ее решение предполагает не только условия, которые прямо указаны. Человек использует любую имеющуюся в его памяти информацию, имеющуюся в его психике и в том числе фиксацию различных законов и связей. Если задача не ментальная, то ее решает компьютер, который не позволяет выявить признаки искусственного интеллекта. Интеллектуальная часть уже сделана человеком, а машина выполняет только ту часть работы, которая не требует участия мышления.      

Недостаток этого понимания в основном в его антропоморфизме. Желательно определять задачи, решаемые искусственным интеллектом, так, чтобы человек в них не присутствовал (как активный участник). Именно такой метод разработки схем внешних воздействий, а не действий по командам, является существенной характеристикой любого интеллекта. Из этого следует, что к системам искусственного интеллекта относятся те системы, которые, используя присущие им правила обработки информации, вырабатывают новые схемы целесообразных действий на основе анализа хранящихся в их памяти моделей окружающей среды.   

Возможность переупорядочивать модели в ответ на новую информацию свидетельствует о более высоком уровне искусственного интеллекта. Многие исследователи считают, что технические системы имеют собственную внутреннюю модель мира как очевидную предпосылку их интеллекта. Формирование такой модели связано с преодолением синтаксической односторонности системы и переходом к семантике.  

Таким образом, специалисты выделяют такие особенности систем искусственного интеллекта, как: наличие в них собственной внутренней модели внешнего мира; умение накапливать знания; умение делать выводы; способность действовать в ситуациях, связанных с различными аспектами нечеткости (включая понимание естественного языка); умение общаться с человеком; приспособление. Однозначно сказать, все ли эти условия необходимы для признания системы интеллектуальной, невозможно, поскольку исследователи по-разному объясняют понятие интеллект системы. В реальных исследованиях наличие внутренней модели мира считается абсолютно необходимым.       

П. Армер выдвинул идею континуума интеллекта. Различные системы можно сравнить не только как обладающие и не обладающие интеллектом, но также как развитые или недостаточно развитые. В этом случае становится целесообразным разработать такую ​​систему масштабирования уровня интеллекта, которая учитывала бы степень развития каждой из его необходимых функций. А. Тьюринг предложил игру в имитацию в качестве критерия для определения того, может ли машина мыслить сама. По этому критерию машина может быть признана думающей, если человек, ведя с ней диалог по достаточно широкому кругу вопросов, не может отличить ее ответы от ответов человека. Однако этот критерий подвергся критике из-за того, что Тьюринг приравнял способность мыслить и решать проблемы обработки информации. Игра в имитацию не может быть признана критерием способности машины мыслить без тщательного предварительного анализа мышления в целом.      

В.М. Глушков, вслед за Тьюрингом, считал, что созданное человеком устройство может быть искусственным интеллектом, если, проведя с ним достаточно продолжительный диалог по более или менее широкому кругу вопросов, человек не сможет различать, он разговаривает с разумное живое существо или устройство. Если принять во внимание возможность разработки программ, специально предназначенных для введения человека в заблуждение, то нужно говорить не просто о человеке, а о специально подготовленном специалисте. Этот критерий не противоречит перечисленным выше особенностям системы искусственного интеллекта.  

Возникает вопрос, что Глушков имел в виду под довольно широким кругом вопросов. На начальных этапах разработки проблемы искусственного интеллекта ряд исследователей, особенно занимающихся эвристическим программированием, ставят задачу создать интеллект, успешно функционирующий практически в любой сфере деятельности. Это так называемый общий интеллект. Сегодня ведутся работы по созданию профессионального искусственного интеллекта - систем, решающих интеллектуальные задачи в узкой области: например, управление портами, интегрирование функций, решение дифференциальных уравнений, доказательство теорем и так далее. Тогда под соответствующей предметной областью следует понимать достаточно широкий круг вопросов.    

Отправной точкой для рассмотрения искусственного интеллекта является определение системы, решающей психические проблемы. Ей также ставятся задачи, которые люди обычно не считают интеллектуальными, поскольку при их решении человек сознательно не прибегает к перестройке проблемных ситуаций (например, к задаче распознавания зрительных образов). Поскольку хранящаяся в памяти модель среды участвует в решении таких задач на бессознательном уровне, эти задачи, по сути, являются интеллектуальными. Это означает, что систему, которая ее решает, можно считать интеллектуальной.   

Теория искусственного интеллекта при решении многих задач сталкивается с эпистемологическими проблемами. Одна из этих проблем - вопрос о теоретической доказуемости возможности или невозможности искусственного интеллекта. Есть две точки зрения на этот вопрос: некоторые исследователи считают математически доказанным, что компьютер способен выполнять любую функцию, выполняемую естественным интеллектом; другие, напротив, считают доказанным, что есть проблемы, которые могут быть решены человеческим интеллектом, которые в принципе недоступны для компьютеров.   

Исследования искусственного интеллекта

Интеллекта требуется для таких видов умственной деятельности человека, как написание программ, решение математических задач или ведение диалога. За последние десятилетия было построено несколько типов компьютерных систем, способных выполнять такие задачи. Существуют также системы, которые могут диагностировать заболевания, планировать синтез сложных синтетических соединений, решать дифференциальные уравнения в символической форме, анализировать электронные схемы и распознавать человеческую речь. Можно сказать, что в таких системах есть искусственный интеллект. При реализации интеллектуальных функций существует информация, называемая знаниями: интеллектуальные системы сами по себе являются системами обработки знаний.    

Специалисты в области исследований искусственного интеллекта подчеркивают, что совершенствование интеллектуальных систем (информационно-поисковых систем высокого уровня, диалоговых систем на основе естественных языков, интерактивных человеко-машинных систем, используемых в управлении, проектировании, научных исследованиях) во многом определяется тем, насколько успешными будут решены проблемы представления знаний. Перед теми, кто занимается проблемой репрезентации знаний, встает вопрос о том, что такое знание, какова его природа и основные характеристики. В связи с этим делаются попытки дать такое определение знания, из которого можно было бы исходить при решении задач представления знаний в компьютерных системах.  

Пассивный аспект присущ представлению данных, тогда как в теории искусственного интеллекта особо подчеркивается активный аспект представления знаний: получение знаний должно стать активной операцией, позволяющей не только запоминать, но и применять приобретенные знания для рассуждений на их основе. Использование символьного языка (например, языка математической логики) позволяет формулировать описания в форме, близкой как к обычному языку, так и к языку программирования. 

Проблема представления знаний связана с переходом исследований в этой области в совершенно иную фазу: речь идет о создании практических (экспертных) систем, используемых в науке. Создание таких систем требует интенсификации усилий по формализации знаний, накопленных в соответствующей науке. Представление знаний также связано с определенным этапом развития компьютерного программного обеспечения. Если на первом этапе преобладали программы, а данные играли вспомогательную роль, то на последующих этапах роль данных возрастала, а их структура усложнялась. В результате появились абстрактные типы данных, дающие возможность создать такую ​​структуру данных, которая была бы более удобной при решении задачи. Развитие структур данных привело к их качественному изменению и к переходу от представления данных к представлению знаний. Уровень представления знаний отличается от уровня представления данных не только более сложной структурой, но и существенными характеристиками: интерпретируемостью, наличием классифицированных ссылок, наличием ситуационных отношений. Уровень знаний также характеризуется такими признаками, как наличие специальных процедур обобщения, пополнения других процедур, имеющихся в системе знаний.       

Рассматривая компьютер в эпистемологических терминах как посредника в познании, имеет смысл абстрагироваться от реальной железной части компьютера и рассматривать всю компьютерную систему как сложную систему взаимосвязанных и независимых моделей. Такой подход не только соответствует рассмотрению компьютерных систем в информатике, но и является эпистемологически обоснованным. Важнейшие философские аспекты проблем, возникающих в связи с компьютеризацией различных сфер жизни человека, требуют для своего исследования обращения к символическим компонентам компьютерных систем.  

Введение термина знание подразумевает появление понятия осведомленность, то есть понимание своих интеллектуальных возможностей. В свою очередь, это означает не что иное, как размышление. 

Философская приемлемость проблемы искусственного интеллекта была обусловлена ​​основной идеей, что порядок и связь идей такие же, как порядок и связь вещей. Создать структуру, воспроизводящую мир идей, означало бы просто создать структуру, изоморфную структуре материального мира. Эта модель была интерпретирована как компьютерная модель человеческого знания о мире. Процесс мышления человека интерпретировался в компьютере как машинный поиск таких преобразований модели, которые должны были перевести компьютерную модель в определенное конечное состояние. Для этого системе искусственного интеллекта требовалось знание того, как преобразовывать состояния модели, приводя к заранее определенной цели (состояние с определенным набором свойств). Сначала было широко распространено мнение о способности компьютера самостоятельно исследовать хранящуюся в нем модель.     

Эта предполагаемая способность компьютера интерпретировалась как возможность машинного творчества, как основа для создания умных машин. Несмотря на то, что в разрабатываемых системах достижение цели осуществлялось на основе человеческого опыта с использованием алгоритмов, идеи построения самообучающихся систем казались достаточно перспективными. Только в 80-х годах прошлого века, с осознанием важности проблемы использования человеческих знаний о реальности в интеллектуальных системах, начали разрабатываться базы знаний и методы извлечения личных знаний экспертов.  

С развитием этого направления возникла идея рефлексивного управления. Рефлексивное управление - это передача информации, которая влияет на объектный образ мира. Именно шахматные программы изначально оказались настолько важными для отработки методов искусственного интеллекта.  

Возникает естественный вопрос: стоит ли рассматривать рефлексию как неотъемлемую часть систем искусственного интеллекта? 

Ответ можно сформулировать следующим образом. Как и любая компьютерная программа, наделенная самодиагностикой, системы искусственного интеллекта должны контролировать текущие процессы, внешние и внутренние. Может показаться, что в этом смысле достаточно развитой структуры обратной связи. Обратная связь только предоставляет данные, но не интерпретирует их. Норберт Винер в своей книге Кибернетика, или управление и связь между животным и машиной привел пример нарушения нервной системы человека и его последствия. Итак, людям с нарушением системы ориентации собственных конечностей в пространстве приходилось визуально контролировать свои действия. Это была типичная обратная связь. Рефлексия подразумевает анализ получившейся картины.        

Анализ функционирования собственной модели, контроль за ее состоянием, прогнозирование состояния - это реализация рефлексии. С использованием языков программирования высокого уровня, позволяющих формулировать цели и делать логические выводы о достижимости этих целей, задача реализации рефлексии может быть частично решена. С их помощью можно построить определенную метаструктуру, которая позволяет оценить поведение предыдущей. Однако при рассмотрении термина глубокое отражение или многоуровневое отражение возникает проблема построения моделей самой системой. Здесь на помощь приходят абстрактные типы данных. Они позволяют вам работать со структурами данных любой конечной сложности. Таким образом, невозможно считать интеллектуальную систему законченной без способности оценивать и понимать свои действия, то есть размышлять. Кроме того, отражение следует рассматривать как один из основных инструментов построения поведения систем, поскольку это необходимое условие существования интеллектуальной системы.       

Проблемы искусственной интеллектуальности и гносеологического анализа

Проблемы искусственного интеллекта   

Выявление роли таких когнитивных инструментов, как категории, специфическая семиотическая система, логические структуры, ранее накопленные знания, возможно путем проведения эпистемологического анализа проблемы искусственного интеллекта. Категории не обнаруживаются посредством изучения физиологических или психологических механизмов познавательного процесса, а раскрываются в знаниях и их языковом выражении. Инструменты познания, которые формируются в результате практической деятельности, необходимы любой системе, выполняющей функции абстрактного мышления, независимо от ее конкретной материальной основы и структуры. Поэтому для создания системы, выполняющей функции абстрактного мышления, формирования адекватных схем внешних действий в изменяющейся среде, необходимо наделить такую ​​систему этими инструментами. Развитие систем искусственного интеллекта давно идет по этому пути, хотя степень прогресса в этом направлении по отношению к каждому из указанных когнитивных инструментов неодинакова.    

Чаще всего в системах искусственного интеллекта используются формально-логические структуры, что объясняется их неспецифичностью для мышления и алгоритмической природой. Это дает возможность относительно простой технической реализации. Однако и здесь есть свои сложности. В системах искусственного интеллекта все еще плохо используются модальная, императивная, вопросительная и другие логики, которые функционируют в человеческом интеллекте и не менее необходимы для успешных когнитивных процессов, чем формы вывода, которые давно освоены логикой. Повышение интеллекта технических систем связано не только с расширением применяемых логических средств, но и с более интенсивным их использованием на практике. Обострилась ситуация с семиотическими системами, без которых невозможен интеллект. Языки программирования еще достаточно далеки от семиотических структур, которыми оперирует мышление. Для решения целого комплекса задач необходимо приближение семиотических систем компьютеров к естественному языку (к использованию его ограниченных фрагментов). Здесь делаются попытки ввести во входные компьютерные языки универсалии человеческого языка (например, свойства, характерные для многозначности). Разработаны проблемно-ориентированные фрагменты естественных языков. Важнейшим результатом этой работы является создание и формализация семантических языков, в которых слово-символы имеют интерпретацию. Однако многие универсалии естественных языков, которые необходимы им для выполнения когнитивных функций, либо плохо реализованы в языках искусственного интеллекта, либо используются в ограниченной степени.           

Современные системы искусственного интеллекта способны переводить с одномерных языков на многомерные и наоборот: например, строить диаграммы, диаграммы и рисунки, строить кривые, а также переводить графические элементы в символы. Такой перевод - важный элемент интеллектуальной деятельности, но системы искусственного интеллекта в конце прошлого века на это были не способны. Даже современные разработки 2008-2010 годов, которые значительно продвинулись вперед, не в полной мере способны напрямую использовать изображения или воспринимаемые сцены для интеллектуальных действий. Поиск способов точной работы с информацией в глобальном масштабе - одна из важнейших и перспективных задач теории искусственного интеллекта.   

Воплощение аналогов категорий в информационные массивы и программы систем искусственного интеллекта все еще находится на стадии разработки. Аналоги отдельных категорий - целое, часть, общее, индивидуальное - используются в некоторых системах представления знаний как базовые отношения. В концептуальном аппарате некоторых систем представления знаний были предприняты отдельные попытки выразить моменты содержания и другие категории (например, причина, следствие), однако ряд категорий (например, сущность, явление) отсутствуют в языках систем представления знаний. Системные разработчики не до конца осознали эту проблему. Философам, логикам и кибернетикам предстоит проделать большую работу по внедрению аналогов категорий в системы представления знаний и другие компоненты интеллектуальных систем.    

Современные системы искусственного интеллекта практически не имитируют сложную иерархическую структуру изображения, и это не позволяет им перестраивать проблемные ситуации, объединять локальные части сетей знаний в блоки и т. д. Взаимодействие поступающей информации с совокупными знаниями в системах также не идеально. В семантических сетях и фреймах до сих пор недостаточно используются методы, благодаря которым человеческий интеллект легко пополняется новой информацией, находит необходимые данные и перестраивает свою систему знаний.  

В некоторой степени системы искусственного интеллекта способны активно влиять на внешнюю среду, что делает невозможным самообучение и совершенствование интеллекта.

Несмотря на то, что определенные шаги в направлении воплощения гносеологических характеристик мышления сделаны, такие системы еще далеки от того комплекса гносеологических инструментов, которые есть в распоряжении человека для выполнения совокупности функций абстрактного мышления. Чем больше характеристики систем искусственного интеллекта будут ближе к эпистемологическим характеристикам человеческого мышления, тем ближе к человеческому разуму будет их интеллект. Возникает сложный вопрос. При анализе когнитивного процесса эпистемология абстрагируется от психофизиологии, хотя это не означает, что механизмы не имеют значения для построения систем искусственного интеллекта. Возможно, что механизмы, необходимые для реализации характеристик интеллектуальной системы, не могут быть реализованы в цифровых машинах или в технической системе. Не исключено, что, хотя мы можем познать все эпистемологические законы, их совокупность реализуема только в системе, являющейся субстратом, идентичным человеку. Эту точку зрения обосновал Х. Дрейфус: Телесная организация человека позволяет ему выполнять функции, для которых нет машинных программ - они не только еще не созданы, но даже не существуют в проекте... Эти функции включены в общие возможности человека. человек, чтобы приобрести телесные навыки и способности. Благодаря этой фундаментальной способности субъект, наделенный телом, может существовать в окружающем мире, не пытаясь решить невыполнимую задачу формализации всего и каждого.  

Заслуживает внимания подчеркивание важности телесной организации для понимания характеристик психических процессов. Различия в способности конкретных систем отражать внешний мир тесно связаны с их структурой, которая, обладая некоторой независимостью, все же не может преодолеть рамки, установленные субстратом. В процессе эволюции развитие свойства отражения происходило пропорционально усложнению нервной системы - субстрата отражения. Разница между подложками компьютера и человека также может вызывать различия в их способности отражать. Некоторые функции человеческого интеллекта недоступны машинам.    

Источники по философии часто говорят, что предположение о возможности технической системы, выполняющей интеллектуальные функции человека, означает сведение высшего к низшему и, что противоречит материалистической диалектике (это одна из причин отсталости развития СССР). Но здесь не учитывается, что способы усложнения материи не предопределены однозначно. Не исключено, что общество сможет создавать сложные и отражающие системы из неорганических компонентов. Эти системы будут составляющими общества, социальной формой движения. Следовательно, вопрос о наделении технических систем интеллектом, о возможности наделить их рассмотренными выше гносеологическими инструментами не может быть решен исключительно с точки зрения философии. Он должен быть подвергнут анализу и конкретному научному исследованию.     

Х. Дрейфус указал, что информация, с которой работает компьютер, не имеет значения, т.е. это требует перечисления большого количества вариантов. Организация человека и его тела позволяет отличать значимое от незначительного и искать только первое. Для компьютера, утверждает Дрейфус, это невозможно. Понятно, что определенный тип организации тела позволяет человеку ограничить пространство предполагаемого поиска. Это происходит на уровне системы анализатора. Однако когда в кибернетике ставится задача распознавания образов, эта задача переносится с чувственно-визуального уровня на абстрактный. Таким образом снимаются ограничения, содержащиеся в теле в структуре органов чувств и организма в целом. Компьютер их игнорирует. Следовательно, пространство поиска увеличивается. Это означает, что к интеллекту машины предъявляются более высокие требования, чем к интеллекту человека, для которого приток информации физиологически ограничен.          

Системы с психикой отличаются от компьютера тем, что у них есть биологические потребности, и отражение внешнего мира происходит именно через эти потребности, в которых выражается деятельность психической системы. У компьютера нет нужды, информация для него не важна. 

Генетически присущая человеку значимость имеет два типа последствий: во-первых, сокращается круг поиска и облегчается решение проблемы; второй - фундаментальные потребности организма, которые не стираются из памяти, определяют односторонность психической системы. Дрейфус пишет:  если бы на Земле был марсианин, ему, вероятно, пришлось бы действовать в совершенно незнакомой среде; задача сортировки релевантного и нерелевантного, существенного и несущественного, которая могла бы возникнуть перед ним, была бы для него так же неразрешима, как и для цифровой машины, если, конечно, он не в состоянии учесть любые человеческие устремления. 

Иск является весьма спорным. Если у марсианина иная биология, чем у человека, то у него есть и другие потребности, и ему гораздо труднее принять человеческие устремления, чем компьютер, который можно запрограммировать для любых целей. Животное в принципе нельзя перепрограммировать по отношению к этому основному слою, хотя обучение есть. В этом смысле потенциальные интеллектуальные возможности машины шире, чем у животных. У человека социальные потребности строятся поверх фундаментального слоя биологических потребностей, и информация для него важна не только в биологическом, но и в социальном плане. Человек универсален, и эта универсальность присуща ему как социальному существу, производящему средства целенаправленной деятельности, включая сами системы искусственного интеллекта.     

Таким образом, можно сказать, что телесная организация предоставляет не только дополнительные возможности, но и дополнительные препятствия. Поэтому для интеллекта человека важно иметь такие системы, которые были бы свободны от его собственных телесных и других потребностей. От таких систем не требуется, чтобы они были независимыми в распознавании шаблонов, классификации их в соответствии с критериями, по которым это делает человек. Цели явно поставлены.   

Технические системы могут иметь аналоги телесной организации. Развитая кибернетическая система имеет рецепторные и эффекторные придатки. Разработка этих систем была инициирована интегрированными промышленными роботами, в которых компьютер выполняет функцию памяти. В роботах третьего поколения компьютеры уже выполняли интеллектуальные функции. Их взаимодействие с миром было предназначено для улучшения их собственного интеллекта. У таких роботов была телесная организация, конструкция их рецепторов и эффекторов содержала определенные ограничения, сокращающие пространство поиска цифровой машины.     

Совершенствование систем искусственного интеллекта может иметь ограничения, из-за которых переход к решению интеллектуальных задач более высокого порядка невозможен на дискретных машинах даже с совершенной программой. Это означает, что техническая эволюция отражающих систем связана с изменением материальной основы и конструкции этих систем. Такая эволюция состоится. Это не исключает использования физических процессов в мозгу и тех, которые психика не использует в качестве своих механизмов. Возможности улучшения систем искусственного интеллекта за счет использования эпистемологических характеристик мышления, которые уже обсуждались при функционировании цифровых машин, далеко не исчерпаны.    

При анализе задач искусственного интеллекта также используется математический аппарат нечетких множеств, идея которого принадлежит американскому математику Л.А. Заде. Суть этого подхода - отказ от принципа детерминизма. Самым интересным свойством человеческого интеллекта является способность принимать решения в условиях неполной и нечеткой информации. Построение моделей приближенного мышления человека и их использование в компьютерных системах будущего сегодня является одной из приоритетных задач науки.   

Сдвиг в исследованиях нечетких систем в сторону практических приложений привел к возникновению ряда проблем: новые компьютерные архитектуры для нечетких вычислений, элементная база нечетких компьютеров и контроллеров, средства разработки, инженерные методы расчета и разработки нечетких систем управления, и больше. Математическая теория нечетких множеств Заде позволяет описывать нечеткие концепции и знания, оперировать ими и делать нечеткие выводы. Методы построения компьютерных нечетких систем, основанные на этом методе, значительно расширяют область применения компьютера.  

Нечеткое управление - одно из самых активных и продуктивных направлений исследований в области применения теории нечетких множеств. Это оказывается полезным, когда технологические процессы не поддаются количественному анализу или когда доступные источники информации интерпретируются качественно, неточно или неопределенно. Экспериментально показано, что нечеткое управление дает лучшие результаты, чем результаты, полученные с помощью обычных алгоритмов управления. Эти методы помогают управлять доменной печью и прокатным станом на производстве, автомобилем и поездом в автоматическом режиме, распознавать речь и изображения и проектировать роботов. Нечеткая логика ближе к человеческому мышлению и естественным языкам, чем традиционные логические системы. Он обеспечивает эффективные средства отображения реальных неопределенностей. Наличие математических средств отражения нечеткости исходной информации позволяет построить адекватную реальности модель.      

Подходы и концепции к решению задач искусственного интеллекта       

Механистический подход

Идея создания интеллектуальных машин по образу и подобию человека, способного думать, двигаться, слышать, говорить и вести себя как живые люди, имеет долгую историю. Попытки создать такую ​​машину приписывают древним изобретателям. В 18 веке французский изобретатель Жак де Вокансон создал антропоморфного механического музыканта (флейтиста), который мог играть двенадцать мелодий, механически воздействуя на клавиши инструмента и впуская воздушный поток в мундштук. В то же время Фридрих фон Кнаус, служащий при дворе Франциска I, сконструировал несколько машин, которые могли писать пером большие тексты. Пьер Жак-Дро из Швейцарии сделал две сложные механические куклы: мальчика, пишущего буквы, и девочки, играющей на клавесине.    

Развитие механики XIX века позволило пойти еще дальше. В 1830-х годах английский математик Чарльз Бэббидж задумал сложный цифровой калькулятор (аналитическую машину), по причинам, не связанным с технической реализацией, идея не была реализована. По словам самого Бэббиджа, его машина в принципе могла рассчитывать шахматные ходы. В 1914 году испанец Леонардо Торрес-и-Кеведо фактически создал электромеханическое устройство, способное играть в простейшие шахматные эндшпили.   

Механистический подход имеет ряд проблем, самая важная из которых состоит в том, что все механические устройства имеют мало общего с искусственным интеллектом, несмотря на интересную концепцию.

Электронный подход

Во второй половине прошлого века появились устройства, способные моделировать интеллектуальное поведение. Это были электронные цифровые компьютеры. В 50-е годы все поиски ответов на многие вопросы об интеллекте машин привели к выделению искусственного интеллекта как самостоятельной отрасли информатики. Исследования в этой области, первоначально сосредоточенные в нескольких университетских центрах США, в настоящее время проводятся во многих других странах. Исследователей искусственного интеллекта, работающих над интеллектуальными машинами, можно разделить на две группы. Первые интересуются исключительно наукой, и для них компьютер - это инструмент, дающий возможность экспериментальной проверки теорий мыслительных процессов. Интересы последних лежат в области технологий: они стремятся расширить сферу применения компьютеров и облегчить их использование. Представители второй группы практически не заботятся о выяснении механизма мышления, так как считают его бесполезным для их работы.       

В течение пятидесяти лет исследователи искусственного интеллекта были на переднем крае компьютерных наук. Многие знакомые разработки, передовые системы программирования, редакторы и программы распознавания образов рассматриваются для работы над искусственным интеллектом. Теории, новые идеи и разработки неизменно привлекают внимание тех, кто стремится расширить приложения и возможности компьютеров, сделать их похожими на умных помощников и активных советников. Несмотря на перспективы и то, что уже сделано за десятилетия работы, ни одну из разработанных программ нельзя назвать разумной в общем смысле этого слова. Объясняется это, например, тем, что все они узкоспециализированные, сложнейшие экспертные системы по своим возможностям напоминают дрессированных или механических кукол, лишенных гибкости ума и широкого кругозора. Даже среди исследователей в этой области есть сомнения, что все такие продукты принесут значительную пользу. Многие критики интеллектуальных машин считают, что такие ограничения вообще непреодолимы, и решение проблемы интеллекта следует искать не в самой области электроники, а где-то за ее пределами.      

Кибернетический подход

Попытка создать машину, способную к разумному поведению, вдохновлена ​​идеями профессора Массачусетского технологического института Норберта Винера. Он обладал обширными знаниями во многих областях, включая математику, нейропсихологию, медицину, физику и электронику. Винер был убежден, что наиболее перспективные научные исследования в приграничных областях, которые нельзя конкретно отнести к компетенции той или иной дисциплины:  

Если трудности в решении какой-либо проблемы психологии имеют математический характер, то десять психологов, не знающих математику, не продвинутся дальше, чем один столь же невежественный.

Таким образом, междисциплинарность - краеугольный камень современной науки. Винер и его сотрудник Джулиан Бигелоу выступили с идеей и разработкой принципа обратной связи, который был успешно применен при разработке нового оружия с радиолокационным наведением. Этот принцип заключается в использовании информации из внешнего мира, чтобы машина могла изменить свое поведение. Системы наведения, разработанные Винером и Бигелоу, основывались на точных математических методах: при небольшом изменении отраженных от самолета радиолокационных сигналов они изменяли наведение орудий так, чтобы траектории полета снарядов и самолета пересекались.   

По принципу обратной связи Винер разработал теории машины и человеческого разума. Он утверждал, что посредством обратной связи живое вещество (разумное или нет) адаптируется к окружающей среде и достигает своих целей:  все машины, которые утверждают, что они умны, должны иметь способность преследовать определенные цели и адаптироваться, то есть учиться.

В 1948 году Винер опубликовал свою книгу, заложившую основу для новой науки, которую он назвал кибернетикой, что в переводе с греческого (chhvesnzfychzm) означает рулевой. Принцип обратной связи, введенный Винером, был в какой-то мере предвиден Сеченовым в феномене центрального торможения, который он описал в своей книге Рефлексы мозга. Сеченов рассматривал принцип как механизм регулирования деятельности нервной системы. Он лег в основу многих моделей произвольного поведения в русской психологии. Обоснование исходных понятий кибернетики - информации, управления, обратной связи - требует перехода к более широкому философскому полю знания, в котором рассматриваются наиболее общие законы познания. Да и сама кибернетика многое дает философскому мышлению: позволяет глубже раскрыть механизмы самоорганизации материи, проясняет содержание категории связей, причинности, позволяет детально изучить диалектику необходимости и случайности, возможности и реальность. Открываются пути развития кибернетической эпистемологии, которая позволяет уточнить, детализировать и углубить в свете науки управления ряд существенных и важных проблем.      

Необычность кибернетики состоит в том, что она носит необычный синтетический характер. В связи с этим до сих пор существуют разногласия в трактовке некоторых его проблем и концепций. Кроме того, основные идеи в этой области пришли с Запада, где с самого начала находились под влиянием идеализма и метафизики, а также идеологии. Становится очевидной необходимость разработки философских принципов кибернетики, выделения ее основных положений с позиций философского познания. Понимание с таких позиций будет способствовать успешному осуществлению теоретической и практической работы в области кибернетики, создаст лучшие условия для эффективной работы и научных исследований в этой области знаний.    

Изучение методологических и эпистемологических аспектов кибернетики способствует решению ряда философских проблем: диалектического понимания простого и сложного, количества и качества, необходимости и случайности, возможности и реальности, прерывности и непрерывности, части и целого. Для развития математики и кибернетики большое значение имеет применение философских принципов и концепций к материалу этих наук, приложение, которое обязательно учитывает специфику этих областей научного знания. Философская мысль уже много сделала в анализе аспектов, теоретической и познавательной роли кибернетики. Кибернетика также имеет большое значение для построения научной картины мира, поскольку предметом кибернетики являются процессы, происходящие в системах управления, общие закономерности таких процессов.   

Нейронный подход

Сегодня ученые понимают, что в биологии существует множество аналогий, потенциально полезных для развития искусственного интеллекта. Среди таких ученых - нейрофизиолог Уоррен Маккалох, как и Винер, у которого был философский склад ума и широкий круг интересов. На Нью-Йоркской научной конференции 1942 года Маккалок оценил работу одного из сотрудников Винера о механизмах обратной связи в биологии. Идеи, высказанные в докладе, перекликаются с собственными представлениями Маккаллоха о том, как работает мозг.   

В течение следующего года Маккалок в соавторстве с математиком Уолтером Питтсом разработал теорию активности мозга. Эта теория стала основой, на которой сформировалось мнение о схожести функций компьютера и мозга. Частично основываясь на предыдущем исследовании нейронов Маккаллоха, он и Питтс выдвинули гипотезу о том, что нейроны можно упрощенно рассматривать как устройства, работающие с двоичными числами.  

В 30-х годах XX века компьютерные ученые, среди которых был американский ученый Клод Шеннон, осознали, что двоичная единица и ноль вполне соответствуют паре состояний электрической цепи, поэтому двоичная система идеально подходит для электронных вычислительных устройств. Маккалок и Питтс предложили построить сеть электронных нейронов, показав, что сеть может выполнять любое количество или логических операций. Они предполагали, что такая сеть сможет обучаться, распознавать закономерности, обобщать - в ней есть основные черты интеллекта.  

Теории Маккаллоха-Питтса и идеи Винера вызвали неподдельный интерес к интеллектуальным машинам. В 40-60-е годы кибернетики работали над теорией функционирования мозга. От кибернетического (нейромодельного) подхода к машинному интеллекту образовался так называемый восходящий метод - движение от простых аналогов нервной системы примитивных существ к сложнейшей нервной системе человека. План заключался в создании адаптивной сети, самоорганизующейся системы или обучающейся машины. Позднее эти термины стали обозначениями устройств, способных отслеживать окружающую среду и с помощью обратной связи изменять свое поведение в соответствии с идеями поведенческой школы психологии.    

Однако аналогия с животным миром была возможной не во всех случаях. Основной проблемой восходящего подхода была высокая стоимость электронных компонентов. Даже модель нервной системы муравья, состоящая из двадцати тысяч нейронов, оказалась недоступной.  

На сегодняшний день нейронный подход является наиболее продуктивным, так как создается структура, изоморфная человеческому мозгу, что увеличивает вероятность появления систем искусственного интеллекта в ближайшем будущем. Элементная база и принципы функционирования современных компьютеров исчерпали себя, научная мысль может пойти по пути использования моделей нейронов, что значительно упростит работу с компьютером и увеличит его вычислительную мощность. 

Возникновение перцептрона Фрэнка Розенблатта

В то время, когда кибернетика столкнулась с рядом трудностей, Фрэнк Розенблатт смог предложить новую концепцию, отвечающую чаяниям кибернетиков. В 1958 году он предложил модель электронного устройства, которое он назвал перцептроном, по замыслу имитирующего процессы человеческого мышления. Перцептрон должен был передавать сигналы от глаза, состоящего из фотоэлементов, на блоки электромеханических ячеек памяти, которые оценивали относительную величину электрических сигналов. Клетки были связаны между собой спонтанным образом в соответствии с теорией, согласно которой мозг воспринимает новую информацию и реагирует на нее через систему случайных связей между нейронами. Два года спустя была продемонстрирована первая работающая машина Mark-I, способная научиться распознавать некоторые буквы, написанные на карточках, которые были поднесены к ее глазам.    

Перцептрон Розенблатта оказался большим достижением восходящего (нейромодельного) метода создания искусственного интеллекта. Чтобы научить перцептрона делать предположения на основе изначально имеющихся предпосылок, он предусматривал элементарный вид автономной работы или самопрограммирования. При распознавании буквы некоторые ее элементы имеют гораздо большее значение, чем другие. Персептрон смог научиться различать такие особенности буквы полуавтоматически, методом проб и ошибок (как в процессе обучения). Но возможности перцептрона были ограничены: машина не могла точно распознавать частично замкнутые буквы, а также буквы измененного размера или рисунка, в отличие от используемых для обучения.    

Ведущие представители нисходящего подхода специализировались на написании программ решения задач для цифровых компьютеров общего назначения. Это требовало от людей значительного психологического напряжения. Защитниками этого метода были Марвин Мински и Сеймур Пейперт, профессора Массачусетского технологического института. Мински начал свою карьеру в качестве исследователя искусственного интеллекта с восходящего подхода, но к тому времени, когда был создан перцептрон, он перешел в противоположный лагерь. Он стал соавтором книги Персептроны с математиком Пайпертом, в которой он математически доказал, что персептроны принципиально неспособны выполнять многие из функций, которые для них предсказал Розенблатт. Мински писал, что они даже не приобретут способность распознавать объект, частично скрытый другим. Эта критическая работа, появившаяся в 1969 году, не покончила с кибернетикой, но сместила интерес аспирантов и правительственных грантов США к другому направлению исследований - подходу сверху вниз. Интерес к кибернетике недавно возродился, поскольку сторонники нисходящего подхода столкнулись с столь же непреодолимыми проблемами. Сам Минский публично выразил сожаление по поводу того, что его выступление повредило концепцию перцептронов, заявив, что, по его представлениям, для настоящего прорыва в создании интеллектуальных машин необходимо устройство, подобное перцептрону. В целом искусственный интеллект сегодня стал синонимом нисходящего подхода, выражающегося в составлении более сложных программ для компьютеров, имитирующих сложную деятельность человеческого мозга.         

Заключение

Мышление, разум, сознание, интеллектуальность - все это проблемы, которые волновали человечество на протяжении многих веков и тысячелетий. Тайны, окружающие эти категории, раскрываются через диаметрально противоположные направления философии - как в онтологическом, так и в эпистемологическом аспектах. С одной стороны, идеализм признает мышление как особую сущность, рассматриваемую изолированно от материи, отличную от нее. И наоборот, материализм исходит из того факта, что материя первична, а материальный мир, воспринимаемый через органы чувств, является единственным и реальным миром, а человеческое сознание - продуктом телесного органа.   

Исходя из того, что кибернетика сегодня позволяет моделировать отдельные функции мозга живого существа / человека, то мышление, сознание, разум и интеллектуальность могут иметь чисто материальную основу. Но этой области нельзя присвоить монопольное право доказывать многочисленные теории понимающего мышления, поэтому нельзя делать более или менее общие выводы. Взгляды теоретиков диалектического материализма или материализма в целом основывались на обобщенных данных таких областей научного знания, как психология, лингвистика или физиология. Кибернетика определила новый порог для развития представлений о мышлении и интеллекте, подняв вопрос о более конкретном понимании мышления.   

В арсенале философских наук есть знания, представляющие собой цепочку процессов, но не конечный результат. Инструмент кибернетики - моделирование, с точки зрения которого просто бессмысленно говорить о тождественности модели и оригинала. Следовательно, можно сделать вывод, что моделирование точной копии интеллекта или рациональности для компьютерных систем также невозможно.  

За счет развития информационных технологий человечество сумело компенсировать свои психофизиологические ограничения в различных сферах деятельности, и именно эта компенсация позволяет создавать самые сложные системы и управлять ими, минуя естественные преграды, выражающиеся в неспособности человека к абсолютному охвату информации, а, следовательно, и к абсолютному знанию. Искусственный интеллект не снимает эти преграды, но способен существенно их сдвинуть, что особенно важно сейчас, в эпоху, когда человечество развивается благодаря существованию таких сверхсложных систем. 

Изучение проблем искусственного интеллекта - значительный вклад в осознание человеком законов внешнего и внутреннего мира, в их использование в интересах общества и, тем самым, в развитие свободы человека.

Список литературы

  1. Аверкин А.Н., Гаазе-Рапопорт М.Г., Поспелов Д.А. Толковый словарь по искусственному интеллекту. - М.: Радио и связь, 1998.      
  2. Гаврилов А.В., Канглер В.М. Использование искусственных нейронных сетей для анализа данных. // Сидел. научный. труды НГТУ. - Новосибирск: Изд-во НГТУ, 1997.    
  3. Корсаков С.Н. Изложение нового метода исследования с использованием машин сравнения идей. / Под ред. Михайлова А.С. - М.: МИФИ, 2007.       
  4. Кузнецов Н.А., Мускешвили Н.Л., Шрейдер Ю. А. Информационное взаимодействие как объект научного исследования. // Вопросы философии, 1996. 
  5. Лекторский В.А. Теория познания (гносеология, эпистемология). // Вопросы философии, 1996. 
  6. Люгер Ю.Ф. Искусственный интеллект: стратегии и методы решения сложных задач / Под ред. Н.Н.Куссул - 4-е изд. - М.: Вильямс, 2007.      
  7. Петрунин Ю. Ю., Рязанов М.А., Савельев А.В. Философия искусственного интеллекта в концепциях нейронауки. (Научная монография). - М.: МАКС Пресс, 2012.       
  8. Тьюринг А.М. Вычислительные машины и разум. // В коллекции: Хофстадер Д., Деннет Д. Глаз разума. - Самара: Бахрах-М, 2009.