Проект "ИТ-Защита"

Опубликован наш доклад, представленный на Международную научную конференцию «Коэволюция техники и общества в контексте цифровой эпохи».

Полную версию доклада можно закачать по ссылке на портале "Клуб субъектов инновационного и технологического развития России".

Артамонов В.А., Артамонова Е.В.

Начало см. по ссылке.

Проблемы искусственного интеллекта: мифы и реальность. Часть 2.

 По мнению некоторых учёных–футурологов и того же Винджа, придерживающихся концепции сингулярности, она должна наступить около 2030 года и даже по самому пессимистическому сценарию не позднее середины этого века, т.е. в 2050 году. Сторонники теории технологической сингулярности считают, что если возникнет принципиально отличный от человеческого разум (постчеловек), дальнейшую судьбу цивилизации невозможно предсказать, опираясь на человеческую логику. С понятием сингулярности часто связывают идею о невозможности предсказать, что будет после нее.

Постчеловеческий мир, который в результате появится, возможно, будет столь чуждым для нас, что сейчас мы не можем знать о нем абсолютно ничего. Единственным исключением могут быть фундаментальные законы природы, но даже тут иногда допускается существование еще не открытых законов (у нас пока нет теории квантовой гравитации) или не до конца понятых следствий из известных законов (путешествия через пространственные «дыры», рождение "вселенных-карликов", путешествия во времени и т.п.), с помощью которых постлюди смогут делать то, что мы привыкли считать физически невозможным.

Вывод. Вопрос предсказуемости важен, поскольку, не имея возможности предсказать хотя бы некоторые последствия наших действий, нет никакого смысла в том, чтобы пытаться направить развитие в желательном направлении.

Миф 3. Угрозы ИИ и кризис человечества.

Человечество стоит на пороге не только технологического, но и философского кризиса, считает историк Юваль Харари, автор книги «Sapiens: Краткая история человечества». Новые технологии формируют новые формы антиутопии. И общество пока не понимает, как адаптироваться к меняющейся реальности.

Харари вывел формулу предстоящего глобального кризиса:

B *C*D=HH

В данном случае B – это познания в биологии, C – это вычислительная мощность, а D – это данные. Если помножить их друг на друга, появится возможность взламывать людей (HH – hack humans).

Под взломом исследователь подразумевает возможность управлять человеком на глубинном уровне, то есть контролировать его желания и стремления. Харари опасается, что правительства и корпорации скоро изучат людей настолько, что смогут с легкостью регулировать их мысли.

Технологии отдаленно будут напоминать таргетированную рекламу, только их действие будет более точным, а эффект – стопроцентным.

Ранее исследователь отмечал, что в сложившихся обстоятельствах привычные философские концепции отмирают. Это касается свободы воли и свободы выбора. Люди ошибочно полагают, что контролируют ситуацию, но на самом деле это не так.

Главное следствие масштабного внедрения искусственного интеллекта – это утрата человеком автономии и авторитета. При этом ИИ не обязательно выходить на один интеллектуальный уровень с людьми и обладать сознанием. Алгоритмам МО достаточно будет изучить личность досконально, чтобы найти самую слабую точку и запустить процесс манипуляций.

Общество подвержено взлому на всех уровнях, но больше всего Харари пугает биологический: «Эксперты по ИИ могут общаться с философами. С историками – да, пожалуйста. С литературными критиками – замечательно. Но меня пугает их общение с биологами», – признал он в интервью изданию Wired. Тем не менее, исследователь подчеркивает, что ИИ обладает и массой преимуществ. Особенно это касается медицины. Харари подчеркивает, что никто не станет препятствовать внедрению технологии – ведь она способна принести столько пользы людям.

Распространение ИИ в комплекте с биотехнологическими открытиями породит два возможных сценария антиутопии.

Первый: надзор-капитализм – даст алгоритмам полную власть над людьми. Машинный интеллект и МО решат за нас, где жить, работать, с кем встречаться и за кого голосовать.

Второй: укрепление тоталитаризма и диктатуры, при котором каждый житель Земли – это объект непрерывной слежки. Особую роль в этом процессе сыграют биометрические и видео-системы, которые не дадут гражданину скрыться от всевидящего ока государства.

Историк подчеркивает, люди могут даже не заметить, как оказались во власти ИИ и МО. Большинство не сможет понять, как работают механизмы алгоритмов и как именно нами манипулируют. Человечество привыкло к традиционным формам объяснения и повествования, но машинный интеллект работает со статистическими данными и оперирует другими понятиями.

Харари считает, что чрезмерное усложнение систем одна из главных актуальных проблем. Из-за этого, например, ученым все сложнее объяснять свои теории и доносить до аудитории суть открытий.

Важный побочный эффект этого – расцвет теорий заговора. По этой причине сейчас возникает все больше антиглобалистов и тех, кто не верит в глобальное потепление. То же касается и сферы финансов – с каждым годом она усложняется, и некоторые концепции можно объяснить, только если потратить 10 лет на изучение экономики и математики. «В этом тоже выражается философский кризис», – отмечает Харари.

Он также считает, что сегодня человек борется не с отдельными людьми, а с государствами и корпорациями. Перед лицом таких мощных соперников шансов на успех мало. Более того, влияние некоторых стран выходит за географические рамки. Историк обвиняет развитые государства и крупные корпорации в цифровом колониализме.

Вывод. По мнению некоторых учёных-футурологов, после наступления технологической сингулярности, человечество ожидает технологический и философский кризис. Социум погрузится в эпоху цифрового колониализма.

Нарисованная некоторыми учёными-футурологами довольно пессимистическая картина мира после достижения человеческой цивилизацией временной точки технологической сингулярности скрашивается последними исследованиями учёных-математиков: возможности ИИ оказались небеспредельными. Подобно человеческому разуму, ИИ ограничен парадоксами теории множеств.

До сих пор считалось, что самой фундаментальной проблемой развитии технологий ИИ является необъяснимость принимаемых им решений.

В январе 2019 к этой проблеме добавилась еще одна фундаментальная проблема  –  это принципиальная непредсказуемость, какие задачи ИИ может решить, а какие нет.

На пути триумфального развития технологий машинного обучения, как казалось, способных при наличии большого объема данных превзойти людей в чем угодно  – в играх, распознавании, предсказаниях и т.д.  –  встала первая из 23 проблем, поставленных в докладе Давида Гильберта на международном математическом конгрессе в Париже еще в 1900-м году.

Первой в списке этих 23 проблем, решение которых до сих пор считается высшим достижением для математика, была так называемая гипотеза континуума (континуум-гипотеза или 1-я проблема Гильберта), которую выдвинул и пытался решить (но потерпел неудачу) еще сам создатель теории множеств Георг Кантор.

И вот сейчас, на исходе второго десятилетия XXI века, гипотеза континуума, будучи примененная к задачам машинного обучения, стала холодным отрезвляющим душем для всех техно-оптимистов ИИ.

Машинное обучение оказалось не всесильно. И что еще хуже, –  в широком спектре сценариев обучаемость ИИ не может быть ни доказана, ни опровергнута.

Первая же научная сенсация 2019 года оказалась совершенно неожиданной. Опубликованная 7 января того же года в Nature Machine Intelligence статья «Обучаемость может быть неразрешимой» (Learnability can be undecidable) устанавливает предел возможностей машинного обучения  –  ключевого метода вычислений, на коем стоит весь современный ИИ.

Этот научный вывод столь важен, что журнал Nature сопроводил статью еще двумя популярно её разъясняющими статьями «Недоказуемость приходит в машинное обучение» (Unprovability comes to machine learning) и «Машинное обучение приводит математиков к неразрешимой задаче» (Machine learning leads mathematicians to unsolvable problem).

Суть всех этих статей в следующем. Обнаружены сценарии, в которых невозможно доказать, может ли алгоритм машинного обучения решить конкретную проблему. Этот вывод может иметь огромное значение как для существующих, так и для будущих алгоритмов обучения. Обучаемость ИИ не может быть ни доказана, ни опровергнута с использованием стандартных аксиом математики, поскольку это связано с парадоксами, открытыми австрийским математиком Гёделем в 1930-х годах.

Парадоксы – это формально-логические противоречия, которые возникают в теории множеств и формальной логике при сохранении логической правильности рассуждения. Парадоксы возникают тогда, когда два взаимоисключающих (противоречащих) суждения оказываются в равной мере доказуемыми.

С точки зрения математики, вопрос «обучаемости» сводится к тому, сможет ли алгоритм извлечь шаблон из ограниченных данных. Ответ на этот вопрос связан с парадоксом, известным как вышеупомянутая континуум-гипотеза (проблема континуума или 1-я проблема Гильберта) и разрешенным в 1963 г. американским математиком Полом Коэном.

Решение оказалось весьма неожиданным: то, что утверждается в гипотезе континуума, нельзя ни доказать, ни опровергнуть, исходя из аксиом теории множеств. Гипотеза континуума логически независима от этих аксиом. Неспециалисту довольно трудно понять, почему утверждения такого рода играют для математики столь большую роль и ставятся на первое место в списке важнейших проблем. Отметим лишь, что на самом деле речь идет о вещах принципиальных и фундаментальных, так как континуум  –  это, по сути, базовая математическая модель окружающей нас физической, пространственно-временной реальности (частью которой являемся и мы сами), а в математике континуум  –  еще и синоним совокупности всех действительных чисел, также центрального понятия математики и ее рабочего инструмента.

По сути Гёдель и Коэн доказали, что континуум-гипотеза не может быть доказана ни как истинная, ни как ложная, начиная со стандартных аксиом, утверждений, принятых как истинные для теории множеств, которые обычно принимаются за основу всей математики.

Иными словами, утверждение не может быть ни истинным, ни ложным в рамках стандартного математического языка.

Вывод. Математически доказано, что возможности ИИ не беспредельны. И какими бы огромными вычислительными ресурсами не обладал человек, машинное обучение никогда не приведёт к победе искусственного разума над человеческим.

В пользу данного доказательства говорят и последние исследования нейробиологов в области исследования структуры и возможностей человеческого мозга.

Так учёные Стэнфордского университета потратили несколько лет, разрабатывая новый способ 3D-сканирования мозга. Они совместили объёмную компьютерную томографию (array tomography — техника «антенных решёток» из радиоастрономии) и специально разработанный софт, чтобы получить объёмную и реалистичную 3D-модель. Такую, по которой можно перемещаться, масштабировать и вращать её в разных измерениях.

Изучив полученную картину, учёные пришли к выводу, что синапсы (соединительные ткани нервных клеток) устроены гораздо сложнее, чем предполагалось раньше. Здоровый человеческий мозг содержит около 200 млрд. нервных клеток, которые соединяются друг с другом сотнями триллионов синапсов. От каждой нервной клетки могут отходить десятки тысяч синапсов. В одной только коре больших полушарий человека находится около 125 трлн. синапсов — в 1500 раз больше, чем звёзд в нашей галактике. По результатам визуальной реконструкции данных учёные обнаружили, что каждый синапс содержит около 1000 молекулярных «переключателей», наподобие аналоговых транзисторов. То есть отдельный синапс можно сравнить с микропроцессором. Получается, что количество «транзисторов» в человеческом мозге теперь нужно увеличить на три порядка. Их больше, чем транзисторов во всех компьютерах на планете и маршрутизаторах вместе взятых.

Вывод. Получается, что один человеческий мозг по сложности примерно равен всей мировой ИТ-инфраструктуре, а учитывая тот факт, что возможности человеческого мозга задействованы человечеством максимум на 20%, говорить о победе ИИ над человеческим разумом не приходится даже в отдалённой перспективе.

Заключение

Проблемам информационной безопасности ИКТ и защищённости человеческого социума от негативного воздействия ИИ и МО уделено достаточно много внимания в ряде исследований.

Выделяются основные проблемы: нарушение работоспособности технического и программного обеспечения, распространение информационного оружия, непрерывное усложнение информационных и коммуникационных систем, возможность концентрации информационных средств в руках небольшой группы собственников, использование во вред информационных данных, манипулирование сознанием, использование технологического воздействия на психическую деятельность.

Однако, вместе с этим, технологии искусственного интеллекта рассматриваются как одно из самых действенных средств в области кибербезопасности сейчас и в будущем.

Почему ИИ — это будущее кибербезопасности.

Обнаружение мошенничества, обнаружение вредоносных программ, обнаружение вторжений, оценка риска в сети и анализ поведения пользователя/машины — это пятёрка самых актуальных способов применения ИИ для улучшения кибербезопасности. ИИ реально меняет привычные аспекты кибербезопасности. Он улучшает способность компаний предвидеть и предотвращать киберпреступления, защищает устройства с нулевым уровнем доверия, может контролировать даже устаревание паролей! Таким образом, искусственный интеллект действительно необходим для обеспечения безопасности периметров любых объектов хозяйственной или финансовой деятельности.

Поиск взаимосвязей между угрозами и анализ вредоносных файлов, подозрительных IP-адресов или необычную деятельность сотрудника длится считанные секунды или минуты. Уже сейчас ИИ помогает человеку обеспечивать кибербезопасность. А в дальнейшем его возможности будут только расширяться, делая участие человека в процессе защиты чисто номинальным.

В банках, благодаря ИИ, антифрод-системы станут работать надёжнее и быстрее, что позволит поддержать доверие и сэкономить деньги как клиентов финансовых учреждений, так и самих банкиров. А, по мнению компании Dell, занимающейся разработкой подобных продуктов, ИИ способен защитить, контролировать и отслеживать данные в гибридных средах, а также предотвращать 99% атак вредоносного ПО.

Кроме того, ИИ вполне можно сделать облачным. Это позволит ему автоматически масштабироваться при резком повышении нагрузки (например, если хакеры пытаются «атаковать» сервер или замаскировать свою активность под лавиной типовых действий в другом направлении). «Облако» позволит расширить безопасный периметр компании, если еще и вся носимая электроника (гаджеты) будет подключена к контролируемой ИИ среде.





Отправить статью в социальные сети, на печать, e-mail и в другие сервисы:

Комментарии

Нет комментариев

Еще нет комментариев.

RSS лента комментариев к этой записи.

Извините, комментирование на данный момент закрыто.