Проект "ИТ-Защита"

Наш творческий коллектив (Артамонов В. А., Артамонова Е. В., Милаков А.С.) принял участие в панельной дискуссии по искусственному интеллекту в журнале "Управление наукой: теория и практика", Том 6, № 2. 2024.

Тема дискуссии: "Искусственный интеллект: возможности и последствия использования"

Когнитивизм как база искусственного интеллекта

Аннотация. В статье рассмотрены основные вопросы когнитивизма как базы искусственного интеллекта (ИИ) в современной философской трактовке этих сущностей. Дана классификация ИИ по уровню когнитивизма базовых функций.
Рассмотрены вопросы эволюции когнитивных возможностей искусственного интеллекта. Подняты проблемы предсказуемости негативного воздействия ИИ на социум. В статье выделены основные когнитивные искажения, которые возможны при применении искусственного интеллекта в научных исследованиях, а именно иллюзия исследовательской широты. Авторы дают рекомендации для учёных и редакций научных журналов по грамотному использованию ИИ в научных экспериментах. В данной работе также поднята проблема доверия в области кибербезопасности систем ИИ. Авторы рассматривают гипотезу о наличии сознания у чат-ботов и делают однозначные выводы о его отсутствии.

Статья доступна в журнале по ссылке

В статье освещены следующие проблемы ИИ и взаимодействия с ним человека:

  • 1) Когнитивные искажения в мышлении, вызванные использованием ИИ.
  • 2) Искусственный интеллект: проблема доверия и кибербезопасность.
  • 3) Есть ли сознание у нейросети?

Когнитивные иллюзии ведут к когнитивным ловушкам. Редакционная статья Nature «Почему ученые слишком доверяют ИИ — и что с этим делать» впервые на столь высоком научном уровне кардинально cмещает фокус видения ИИ-рисков для человечества.

Колоссальная и уже сейчас вполне реальная опасность развития ИИ-технологий —отнюдь не попадание людей под власть сверхразума в виде искусственного интеллекта, а влияние на наш разум этого инструмента расширения когнитивных возможностей человека.

Опираясь на данные антропологии и когнитивной науки, учёные, первой среди таких иллюзий, называют иллюзию понимания (иллюзию глубины объяснения), когда люди, полагаясь на ИИ, считают свои знания глyбже и точнее, чем это на самом деле.

Итогом этого становятся когнитивные ловушки. Степень катастрофичности которых зависит от «впаянности» когнитивной иллюзии в нашу когнитивную практику и от её институализированности в научном дискурсе.  И в заключении, с точки зрения когнитивной науки попытаемся ответить на главный вопрос современности: чем же занимаетcя искусственный интеллект?

Единого ответа на вопрос, чем занимается искусственный интеллект, не существует. В философии не решён вопрос о природе и статусе человеческого интеллекта. Нет и точного критерия достижения компьютерaми «разумности», хотя на заре искусственного интеллекта был предложен ряд гипотез, например, тест Тьюринга или гипотеза Ньюэлла-Саймона. Поэтому, несмотря на наличие множества подходов как к пониманию задач ИИ, так и созданию интеллектуальных информационных систем, можно выделить два основных подхода к разработке ИИ:

  • нисходящий (англ. Top-Down AI), семиотический — создание экспертных систем, баз знаний и систем логического вывода, имитирующих высокоуровневые психические процессы: мышление, рассуждение, речь, эмоции, творчество и т. д.;
  • восходящий (англ. Bottom-Up AI), биoлогический — изучение нейронных сетей и эволюционных вычислений, моделирующих интеллектуальное поведение на основе биологических элементов, а также создание соответствующих вычислительных систем, таких как нейрокомпьютер или биокомпьютеp.




Отправить статью в социальные сети, на печать, e-mail и в другие сервисы:

Комментарии

Нет комментариев

Еще нет комментариев.

RSS лента комментариев к этой записи.

Извините, комментирование на данный момент закрыто.