Резюме дискуссии "Учиться у машин/учить машины: история и современные практики Ed tech", прошедшей на Робостанции 20 октября 2019 года.
1. Как мы учим машины?
Закат так называемых экспертных систем, символического искусственного интеллекта, основанного на дедуктивном выводе, затормозил разработку общего искусственного интеллекта, но реанимировал исследования и разработку систем, моделирующих наше восприятие. Сегодня под искусственным интеллектом чаще всего подразумевается именно совокупность методов машинного обучения нейронных сетей, имитирующих работу мозга. Новейшие методы deep leaning, такие как метаобучение, генеративно-состязательные и сотрудничающие сети, распутывание, обогащают возможности распознавания и обработки данных, повышая предвзятость в распознавании (предположительно «обучаемость»), сообщая сетям возможность коммуникации (предположительно «социальные навыки») и добавляя информацию о контексте (предположительно «здравый смысл»).
Ведущие теоретики глубинного обучения, например, Джошуа Бенджио, подчеркивают, что нейронные сети работают с данными так же, как рядовые субъекты восприятия и ученые, фактически выполняя простую статистическую индукцию. Здесь имеются три сильных философских допущения о том, что представляют из себя данные, как устроена реальность и как существует общее. Предполагается, что данные, которые доставляются нейронным сетям являются сырыми, а паттерны и закономерности, которые способна различать сеть, нейтральными, независимыми от человеческих категорий, но это не совсем так. Алгоритм работы с данными, который выполняет сеть, не является ни научным, ни человеческим. Данные, которые получает сеть, не являются сырыми, но не в смысле их зараженности теоретической оптикой, сконструированности сообществом или сконструированности организмом («различие, которое имеет значение», «небезразличное различие» Бейтсона). Любая цифровая обработка по Винеру представляет из себя решение, безальтернативный выбор из двух альтернатив.
Такими же сильными оказываются допущение о реальности: «Машинное обучение и прогнозирование возможны потому, что миру присуща регулярность. Вещи в мире меняются постепенно. Мы не перемещаемся скачком из точки А в точку Б, но должны пройти последовательность промежуточных положений. Разрывность соответствует границе, а они редки», пишет Этем Алпайдин в «Машинном обучении». То есть онтологическая установка соответствует упрощенным научным и философским представлениям 18-19 века, большая методологическая тема оправдания дискретности в философской и научной онтологии никак не учитывается и скорее всего не сможет быть принята во внимание из-за того, что технология строится по принципу имитации.
Еще более сильной является установка на возможность генерализации без категорий и предположение, что информация сама может превращаться в логику. Маттео Пасквинелли и другие указывает на то, что человеческие категории работают в установочно-тренировочном массиве фактов, отсюда следует, что мы имеем дело не с технологиями расширенного познания (extended cognition), а технологиями дополненного интеллекта. Нейронные не преодолевают, а скорее симулируют человеческую категоризацию знания.
2. Как машины учат нас? Помимо имеющихся оценок и перспектив использования искусственного интеллекта в обучении (генетическая оценка способностей, чат-боты для поддержания коммуникации в учебном процессе, подстройка под ресурсное состояние, персонификация контента и геймификация образования), важно отметить, что современные поисковые системы и социальные сети уже структурируют наш опыт. Разработчики современных моделей машинного обучения Джеффри Хинтон и Ян Лекунн с 2013 тренируют лаборатории искусственного интеллекта Гугл и Фэйсбук. Учитывая, что раздача поисковых систем и структура новостных лент зависит в том числе от генерализации данных пользователя, можно сказать, что мы является постоянными пассивными субъектами обучения искусственным интеллектом (если понимать под обучением именно то, что понимается под обучением в глубинном обучении), оказываемся в ситуации машинного производства опыта, таким образом приближаясь к полной реализации мысленного эксперимента про машины производства субъективного опыта, который придумал Роберт Нозик. Таргетированная реклама и поисковая раздача, кластеризованные новости и подписки оставляют нам все меньше возможности увидеть то, чего мы не ожидаем или не хотим видеть или знать.
3. Насколько машинное обучение изменит наши образовательные практики и институции? Скорее всего — никак, принципиальных прорывов здесь ждать не стоит. Классно-урочная система существует с 16-17 века, университеты с 11 века, потрясающий технологический разрыв практически не отразился на организации учебного времени и образовательного опыта, образовательных практиках и институциях, несмотря на желания реформаторов, технократов и технооптимистов. Образовательные практики устроены относительно автономно, критика их эффективности разбивается об амбивалентность все ещё авторитетного модернистского тезиса самодостаточности образования для изменения социального статуса и реформирования социального порядка, раскрытую Бурдье и Пассроном в "Воспроизводстве". Ригидность, негибкость социальных образовательных практик (один из примеров — невостребованность данных мультимодального анализа обучения, собранных в информационные базы для доказательной образовательной политики вроде Works Clearing House) показывает, что образовательные институты скорее проигнорируют возможности, предоставляемые технологиями машинного обучения.
4. Что нового о наших способностях учиться мы узнали с тех пор, как научились обучать машины?
Можно сделать предварительные выводы, что пока что наиболее важными и эксклюзивно человеческими характеристиками обучения оказываются забывание, объяснение и нестатистическая генерализация. Машину умеет учиться на своих ошибках благодаря технологиям backprop, но забывать она может только все и, что важнее, принудительно.
Объяснение чаще всего сопровождается изобретением новых правил, а не простой генерализацией старых. Эту проблему хорошо иллюстрирует коэн, который приписывают Марвину Мински. Однажды, когда Сассмен был ещё стажёром, к нему зашёл Мински и застал его в момент отладки очередной программы.
— Что ты делаешь? — спросил Мински.
— Обучаю случайно связанную нейросеть играть в крестики -нолики — ответил Сассмен.
— А почему случайно связанную? — спросил Мински.
— Не хочу, чтобы у неё было заложенное заранее мнение о том, как играть, — сказал Сассмен.
Мински закрыл глаза.
— Зачем ты закрыл глаза? — спросил Сассмен учителя.
— Чтобы комната стала пустой.
Тут Сассмен стал просветлённым. На самом деле Мински имел в виду следующее: если нейросеть случайно связана, это не избавляет её от заранее составленного мнения о том, как играть, просто вам оно будет неизвестно. Объяснение, метод набрасывания гипотез или абдуктивный вывод по Пирсу не является инвариантом индуктивного перехода от частного к общему и дедуктивного перехода от общего к частному, а каузальным сведением, налаживанием связи между причиной и следствием. В силу принципиальной технологической спутанности трансляции информации в нейронной сети и ее исключительно синтаксической структурированности остается открытым вопрос: насколько возможен объяснимый искусственный интеллект (ХАI). Объяснение как метафорическое связывание является прорывом к семиотическим ландшафтам, которые прежде были немыслимыми или бессвязными, такое связывание недоступно для искусственного интеллекта, скованного «смирительной рубашкой категорий» (Маттео Пасквинелли). Глубинное обучение снова актуализирует старую как philosophia perennis проблему онтологического статуса общего, оснований для генерализации или возможности синтетических суждений a priori. Можно сказать, что ответ на вопрос «что значит учиться в эпоху машинного обучения?» совпадает с задачами движения экологии разума, придуманного Грегори Бейтсоном, он связан с выявлением природы имеющихся у нас паттернов. Случайное связывание способом «вроде бы» может иметь не меньшую эвристическую ценность, чем точная статистическая генерализация, об этом один из известных металогов Бейтсона «Почему лебедь?».