Проект "ИТ-Защита"

В информационно-методическом журнале «Защита информации. Инсайд», № 4   июль–август 2022 г. вышла наша новая статья про искусственный интеллект:

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ: КОГНИТИВНОЕ НАЧАЛО

ARTIFICIAL INTELLIGENCE: COGNITIVE BEGINNING

Авторы:

Владимир Афанасьевич Артамонов, доктор технических наук, профессор, академик МАИТ

Елена Владимировна Артамонова, кандидат технических наук, член МАИТ

Сафонов Александр Евгеньевич, магистр информационных технологий (M.Sc. IT)

Международное научное общественное объединение «МЕЖДУНАРОДНАЯ АКАДЕМИЯ ИНФОРМАЦИОННЫХ ТЕХНОЛОГИЙ» (МНОО МАИТ)

The international public union “THE INTERNATIONAL ACADEMY OF INFORMATION TECHNOLOGIES” (IAIT)

Аннотация

В данной работе рассмотрены три вида искусственного интеллекта, а также обозначены проблемы и угрозы, которые в себе несет искусственный интеллект для социума.  Авторы детально разбирают наиболее популярные алгоритмы машинного обучения, особенно выделяют плюсы и минусы этих методов. В статье делается основной акцент на методы машинного обучения, дается математическое обоснование этих методов.

Ключевые слова. Искусственный интеллект, символизм, коннекционизм, машинное обучение, нейронные сети, алгоритмы, регрессия, классификация.

 Подробности на сайте журнала «Защита информации. Инсайд», № 4   июль–август 2022 г.

Статья в формате .pdf

Введение

 

            С момента введения в 1956 году Джоном Мак Карти понятия «искусственный интеллект» (ИИ) для описания науки изучения разума путем воссоздания его ключевых признаков на компьютере, дальнейшее развитие получило, сформировавшееся ранее среди философов, новое научное направление – когнитивистика[1]. Когнитивистика объединяет, в частности, теорию познания, когнитивную психологию, нейрофизиологию, когнитивную лингвистику, невербальную коммуникацию и теорию искусственного интеллекта. По мере развития кибернетики и появления первых компьютеров идея аналогии человеческого разума и вычислительной машины начала выходить как прорывная в основе миропознания и во многом заложила основы теории когнитивизма. Процесс мышления сравнивался с работой компьютера, который получает стимулы из окружающего мира и генерирует информацию, которая доступна для наблюдения. Помимо символов, как результатов контакта разума с внешним миром, объектом исследований стали мыслительные образы (или представления).   Таким образом, произошло разделение на «внешние» (предметы, объекты, …) и «внутренние …» представления.

На вопрос, существует ли мир, когнитивная наука отвечает: «Неизвестно, но существуют наши представления об этом мире». Однако когнитивизм также вернул декартовский скептицизм и оставил без внимания субъективные переживания и эмоции.   В когнитивной науке используются два стандартных вычислительных подхода к моделированию когнитивных систем: символицизм (классический подход) и коннекционизм (более поздний подход).

            Символицизм основывается на предположении о том, что человеческое мышление подобно мышлению компьютера с центральным процессором, последовательно обрабатывающего единицы символьной информации.

            Коннекционизм основывается на предположении, что человеческое мышление не может быть уподоблено центральному цифровому процессору из-за несовместимости с данными нейробиологии, а может имитироваться при помощи искусственных нейронных сетей, которые состоят из «формальных» нейронов, выполняющих параллельную обработку данных.   Прогресс в когнитивистике, как полагают ученые, позволит «разгадать загадку разума», т. е. описать и объяснить процессы в мозгу человека, ответственные за высшую нервную деятельность. Это позволит создать системы так называемого «сильного» и «суперсильного» искусственного интеллекта, который будет обладать способностями к самостоятельному обучению, творчеству, свободному общению с человеком.

Говоря формальным языком, искусственный интеллект — это область компьютерной науки, ориентированная на создание «интеллектуальных» компьютеров и машин, имитирующих человеческие действия и реакции через машинное обучение (МО)[2], распознавание речи и решение задач.

На сегодняшний день различают три вида искусственного интеллекта:

1.Слабый (Narrow AI), — это ИИ в сегодняшнем понимании. Он запрограммирован на выполнение одной задачи — будь то мониторинг погоды, управление роботами или анализ корпоративных данных. Такой ИИ может работать в режиме реального времени, но он извлекает информацию лишь из ограниченного набора данных. В результате эта система способна справляться только с одной конкретной проблемой, решению которой она обучена.

2.Сильный ИИ (General AI) — схож с человеческим интеллектом. Иными словами, он может успешно выполнять любые умственные задачи и обладать когнитивными способностями, в том числе сознанием, которые под силу пока только людям.

3.Супер-ИИ (Super AI) — по определению философа Ника Бострома (Университет Оксфорд): «Это любой интеллект, который значительно превосходит когнитивные способности человека, практически во всех областях». Супер-ИИ превзойдет людей во всех аспектах — от творчества до жизненной мудрости и решения проблем. Машины будут способны демонстрировать интеллект, который мы не видели и у самых одаренных представителей человечества. Это тот тип ИИ, который многих беспокоит, а по мнению Илона Маска, именно он приведет к вымиранию людей как вида.

Тем не менее, до настоящего времени нет единой концепции (парадигмы) анализа и синтеза систем ИИ, что породило массу мифов и догматических толкований этого научного направления [1].

Следует заметить, что в английском языке словосочетание artificial intelligence (именно это понятие ввёл Мак Карти) не имеет антропоморфной окраски, которую оно приобрело в традиционном русском переводе: слово intelligence в используемом контексте скорее означает «умение рассуждать разумно», а вовсе не «интеллект» (для которого есть английский аналог intellect).

           В философии не решен вопрос о природе и статусе человеческого интеллекта. Нет и точного критерия достижения компьютерами «разумности», хотя на заре искусственного интеллекта был предложен ряд гипотез, например, тест Тьюринга[3] или гипотеза Ньюэлла — Саймона[4].

Создание разумной системы, с помощью рукотворного оборудования, вместо нашего собственного мозга в виде клеток и тканей, должно было стать иллюстрацией полного понимания этой проблемы, и повлечь за собой практические применения в виде создания умных устройств или даже роботов.

Выдающиеся советские математики Андрей Николаевич Колмогоров и Владимир Игоревич Арнольд доказали в 1957 году ряд теорем о том, что любая непрерывная функция нескольких переменных может быть представлена в виде комбинации конечного числа функций меньшего числа переменных, и именно это стало математическим обоснованием для построения нейронных сетей (НС) [2,3]. Было доказано, что соответствие между зависимыми элементами различных множеств или функций может быть представлено нейросетью фиксированной размерности с прямыми связями с определенным количеством «нейронов» входного слоя, увеличенным числом «нейронов» каждого следующего скрытого слоя с определенными функциями активации и «нейронами» выходного слоя с неизвестными функциями активации. Причем, НС могут настраиваться или «обучаться».

Для человека, мало знакомого с математическими теориями, всё это звучит несколько сложно, но это имеет принципиальное значение для ответа на вопрос: возможно ли создать искусственный интеллект и подлежит ли он настройке и машинному обучению.

 



[1] Когнитивистика (cognitive science) – наука о познании.

[2] Машинное обучение (англ. – Machine learning, ML) — свод методов и правил в области искусственного интеллекта, набор алгоритмов и программ, которые применяют, чтобы создать машину, которая учится на собственном опыте.

 

[3] Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом в 1950 году. Тьюринг задался целью определить, может ли машина мыслить. Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».

[4] Гипотеза была сформулирована Алленом Ньюэллом и Гербертом Саймоном в 1976 году. Основанием для гипотезы стало успешное применение созданной ими программы – универсального решателя задач – для моделирования рассуждений человека.

 





Отправить статью в социальные сети, на печать, e-mail и в другие сервисы:

Комментарии

Нет комментариев

Еще нет комментариев.

RSS лента комментариев к этой записи.

Извините, комментирование на данный момент закрыто.