Евгений Павловский: «Разум человека за пределами концепций и алгоритмов»
Почему искусственный интеллект не заменит труда врачей и педагогов? Что произойдет, если роботы сами начнут ставить себе цели? Как «день без цифры» поможет справиться с информационными потоками, а колонизация Марса - победить в случае восстания машин? На эти и многие другие вопросы ответил кандидат физико-математических наук, заведующий лабораторией аналитики потоковых данных и машинного обучения Механико-математического факультета Новосибирского госуниверситета Евгений Павловский.
На ИТ-Форуме СИИС, который пройдёт 29-30 июня в Технопарке Новосибирского Академгородка, планируется обсудить большой круг вопросов, связанных с развитием искусственного интеллекта.
- 4 года назад на предыдущем Форуме СИИС развернулась дискуссия «ИИ против НИИ». Учёные и разработчики обсуждали преимущества и риски. Что изменилось?
- Тогда мы предполагали развитие искусственного интеллекта, прогнозируя неумолимый прогресс. Сегодня он уже не только наступает нам на пятки, скорее это мы видим его сверкающие пятки. Всё стремительно меняется. Методы машинного обучения построены на обобщении экспериментальных научных методов. Они позволили в огромном нечеловеческом масштабе пронаблюдать миллионы данных и автоматически построить модели. Технологии проникли в творчество, искусство. Теперь сотруднику не составляет труда быстро составить служебку о выделении помещения в официальном стиле или сочинить стихотворение на заданную тему в рифму. В науке открылись возможности воспроизводимости, передачи кодов. Сейчас учёный не может опубликовать статью в международном издании, если не обеспечит научное сообщество доступом к своему коду и к данным. Мы идём по пути разработчиков программного обеспечения, которые не переизобретают код, а встраивают его в новое изобретение, ускоряя процессы разработки. Искусственный интеллект позволяет анализировать большие данные, объединять проекты целых институтов. Важно, что методы ИИ могут быть применимы и для проверки достоверности научных знаний.
В связи с тем, что была предпринята попытка загнать нас в каменный век и Россия оказалась отключена от многих международных научных проектов, правительство страны переориентировало науку на конкретные экономические показатели. На искусственный интеллект тут возлагаются большие надежды. Мы концептуально прорабатываем уровни готовности знаний — Knowledge Readiness Level (KRL), по аналогии с существующим сейчас показателем технологической готовности разработки (TRL). Можно будет целенаправленно двигаться от достоверных знаний к применимым. Знание должно быть подтверждено, воспроизводимо и интегрируемо. Все эти аспекты мы планируем обсудить на круглом столе, удерживая изменения в повестке.
- Искусственный интеллект становится умнее, может решать нестандартные когнитивные задачи, однако многие вопросы требуют человеческих решений. Чью сторону вы сами занимаете в поединке ИИ и человеческого капитала?
- Ответ очевиден, я - за человеческий капитал. Индийская, как и русская философия строится на том, чтобы подчинить ум разуму. Это можно применить и к нашим отношениям с технологиями искусственного интеллекта. Нейросетевые методы копируют ментальную структуру человека, его ум, создавая некий реализатор желаний. Но вот скопировать разум человека не получится, он — за пределами концепций и алгоритмов. Развивая умные технологии, мы должны осознать себя в роли творцов, разумных существ и принять на себя всю ответственность. Возможно, через ИИ ответственность станет прозрачней, будет лучше осознана. Когда учёные работали над атомной бомбой, они увидели последствия в лице жертв бомбёжки Хиросимы и Нагасаки. Обществу удалось благоразумно встроить ядерную бомбу для своего выживания. Угроза породила мир на долгие годы. Сейчас ИИ тоже воспринимается как угроза. В этой части мы должны увидеть тезис, антитезис и выйти на уровень критического мышления и ответственности. Возникает новая этика — что можно, что должно и что нельзя. Всё это применимо в отношении исследований с использованием искусственного интеллекта. Если мы будем брать технологии ИИ для вывода новых знаний, что произойдёт? В принципе это уже возможно. Но не всякую возможность нужно реализовывать. Сейчас вообще очень опасно заниматься выявлением нового знания в отрыве от того контекста, где оно может применяться. То, что раньше принадлежало людям — их способность делать выводы — ограничивалось моралью. Системы искусственного интеллекта не встроены в наши отношения, они не «знают», что можно делать, а что нельзя. Вопрос – нужно ли «воспитывать» системы искусственного интеллекта и встраивать их в человеческие отношения? Или же необходимо самих себя воспитывать с учётом развития технологий, или же вообще отказаться и запретить применение ИИ в науках? На Форуме СИИС, думаю, стоит выйти к обсуждению этих вопросов.
- Какие проекты в области искусственного интеллекта вы реализуете в НГУ?
- Успешно реализуются проекты в сфере применения ИИ в медицине. Так, в течение трех лет мы проводили исследования возможностей алгоритмов искусственного интеллекта в обработке снимков головного мозга на предмет опухолей. Участвовали в международных соревнованиях, где показали себя в десятке сильнейших команд мира. Был разработан софт, который обозначает контур опухоли. Мы пошли дальше в университете – сделали алгоритмы классификации, провели медицинскую интерпретацию и сейчас создаём нейросетевые алгоритмы с объяснениями. Информация должна передаваться человеку в той форме, в которой он может её воспринять, чтобы повышать свою квалификацию. Врачу нужно развиваться вместе с технологиями, получая новые знания.
- Когда эти решения смогут применяться в медучреждениях?
- У нас готово программное обеспечение — модуль к бесплатному ПО с открытым кодом, его можно испытывать. Рассчитываем на участие компаний-партнёров, связанных с медициной. Есть компании из Санкт-Петербурга, Москвы, Республики Якутия (Саха), других городов, которые занимаются коммерциализацией научных разработок и работают в продуктовой логике.
- Не все люди доверяют технологиям, их пугает утечка данных, возможные ошибки. Если искусственный интеллект проникнет в сферу медицины и образования, сможет ли он потеснить человека? Тут видимо нужна информационная работа с населением, опять же не без участия ИИ, как думаете?
- Что касается врачей и педагогов, точно не заменит. Это не значит, что надо расслабиться. Годы пандемии показали, что человек не учится у машины, даже если с другой стороны находится человек. Компьютер передает информацию, но не передает энергию. Без энергии информация не усваивается. Преподаватель нужен, чтобы мотивировать и вдохновлять. Энергия учителя позволяет ученику расставлять акценты, понимать, что важно. Если преподаватель не умеет делать акценты, то детям не понятно, на что обратить внимание. В этом заключено мастерство педагога. Возможно, увеличится информационная нагрузка. Хорошо использовать дополнительный материал, смотреть видео лекции известных людей. Например, мы с удовольствием со студентами смотрим лекции Семёна Козлова «Deep Learning на пальцах» и потом обсуждаем. Майкл Полани говорил про неявные знания, когда учёные учатся у своих коллег в деятельности, а не по книгам. Мы видим это в сфере образования и медицины. Можно заставить человека правильно отвечать на тесты, и в итоге мы получим машину, а не человека. Даже организатор ЕГЭ (пока ещё человек) должен зачитать побуквенно всё, что написано на листе. Все эти инструкции может прочитать и машина. Скоро и сдавать тест будет тоже машина машине. Тогда смысл участия человека в этой деятельности? Я думаю, смысл в том, что технологии должны занять своё место в образовательном и клиническом процессе, роли преподавателя и врача должны быть переосмыслены. Для этого и преподавателям и врачам необходимо понимать механизм работы этих технологий, их принципы и границы применимости. В тот же момент освобождающееся время необходимо направить на действительно важные задачи. Может быть, спектр этих задач расширится, перестроятся и рамки ответственности. Думаю, что станет возможным наблюдать за предвестниками заболеваний и последствиями педагогических воздействий. И исходя из этого принимать решения по изменению стратегии диагностики и лечения; а в случае педагогов – по усовершенствованию педагогических приёмов. Кроме того, расширение с помощью ИИ ментальных возможностей таких сотрудников актуализирует их исследовательскую способность – умение систематизировать свой опыт, соединяя его с базами данных и моделями. Вопрос только в том, готовы ли коллеги к такому преображению и готова ли консервативная система?
- Цифровые потоки увеличиваются, невольно встаёт вопрос о цифровой гигиене. Даже отдельная секция на форуме этому посвящена. На ваш взгляд, как сохранить баланс и использовать положительные стороны искусственного интеллекта?
- Недавно на мероприятии по гражданской информационной безопасности с министром Сергеем Цукарём (Минцифра НСО) я предложил идею - провозгласить «день без цифры». Нужно обязательно отдыхать от инфопотока. Уровень технологий становится сопоставим с человеческими способностями и велик шанс соскользнуть, отдать часть когнитивных функций машине. Мы уже не запоминаем, что столицей, например, Бангладеша является город Дакка, потому что можно открыть Википедию. Не актуализированная связь в голове постепенно затухает.
- Так же, как телефонные номера друзей и близких родственников, которые никто сегодня не запоминает.
- Да, именно. Некоторые номера я специально запоминаю, в книжке они значатся у меня просто номерами, но я помню, чьи это номера. Мыслительную деятельность хочется передать на аутсорсинг, но это ведёт к сильной зависимости. Человек как творец создан независимым. Если эти способности в себе не развивать, мы их утратим. С помощью искусственного интеллекта можно взламывать человека. Существует такое понятие, как ментальные вирусы, которые могут функционировать внутри человека. Мы периодически обновляем ПО, и человеку тоже нужны обновления. На мой взгляд, «день без цифры» - очень простая и эффективная мера. И нужна она на государственном уровне, как в Германии в воскресенье закрыты все магазины, можно отдыхать, в церковь ходить, гулять на природе. Один из механизмов маркетинга - актуализировать страхи, чтобы люди сохраняли вовлеченность в технологии. Месседж «Я не смогу без связи, интернета» нужен для того, чтобы на твоей платформе прочно сидели. Но оказывается, что ничего не происходит, если телефон забыт дома. Нужно сделать выгодным для платформ периодическое отсутствие людей «на связи». Например, такие отсутствующие в эфире пользователи, набравшись на природе новых смыслов, затем могут обогатить платформу новым контентом.
- Вспоминается фильм «Время» Эндрю Никкола, когда главной валютой становится время на руке, - им расплачиваются, дают в долг, получают как зарплату. Про искусственный интеллект говорят, что он таит еще больше опасности, чем ядерное оружие. А если компьютеры восстанут против людей, найдем ли мы кудесника, который направит всех назад? Какие есть альтернативные пути, и поможет ли нам колонизация Марса на этот случай?
- Можно выключить из розетки, но до ЦОДа нужно ещё добраться, так же, как и до Марса. Есть альтернатива: поехать на природу, без связи, разводить уточек и копать огородик. От «непродуманной» цифры человек возвращается на природу, которая продумана, и восстанавливает свои силы. Технологии должны быть инструментом, но мы сейчас олицетворяем себя с инструментом. В логике развития мы должны преодолеть такое видение вещей. Например, в йоге есть такой путь через отрицание – «я — не то» и «я — не это». И через отрицание приходишь к пониманию, кем являешься на самом деле. Нам тоже придётся пройти через отрицание с ИИ, чтобы понять, что мы им не являемся. Есть идеи, что искусственный интеллект обретёт телесное воплощение и будет самовоспроизводить себя. Тогда будет война. Если человечеству такой опыт нужен, то он случится, и люди это допустят. Я изучал вопрос целеполагания роботов. Может ли робот ставить себе цели? И понял, что проверить это невозможно, я не смогу отличить случайное поведение робота от целенаправленного. Считать целенаправленным можно только то, что можно понять. Думаю, строить теорию целеполагания роботов может быть опасным без наращивания понимания, где и как такие технологии будут использоваться. В рамках этики исследований хотелось бы обсудить, должен ли учёный отслеживать все факты неэтичного использования полученного им знания?
- Кого хочется увидеть на дискуссии по всем этим актуальным вопросам круглого стола? Какие эксперты приглашены?
- Обязательно должны быть участники предыдущего круглого стола, чтобы показать развитие вопроса. Приглашаем учёных из разных институтов, специалистов ИТ-компаний, гуманитариев, школьников, студентов. Хочется услышать от молодежи об отношении к искусственному интеллекту. Интересно поговорить с Дмитрием Ивановичем Свириденко и Антоном Германовичем Колониным, которые выступают за развитие общего искусственного интеллекта. Моя позиция – развивать нужно только специальный ИИ – для решения конкретных задач.
- Какие ваши ожидания на Форуме СИИС, на какие вопросы хочется получить ответ?
- Традиционно наш форум фиксирует Академгородок в информационном пространстве как ИТ-центр. Мы славимся разработкой качественных программных продуктов. Форум СИИС – это камушек, который мы бросаем в пруд коллективной памяти и от него расходятся круги. Прошлые дискуссии подняли серьёзные вопросы, и от текущего форума ждём не меньше. Людям не хватает обмена представлениями о перспективах развития, живого человеческого общения, и для этого мы встречаемся.
Беседовала Екатерина Вронская