OLAP.ru OLAP, data mining, analysis, данные, СУБД, генераторы отчетов, проектирование, принятие решений, оптимизация, хранилише, извлечение, поиск, Crystal, Business Objects, Cognos, SAS...
Полный список »
Business intelligence - effective data mining & analysis
Вход Регистрация Новости сайта Карта сайта/поиск RSS
 
OLAP и Business Intelligence
SUBSCRIBE.RU
 
 

РАЗВЕДОПРОС: СЕРГЕЙ МАРКОВ О МАШИННОМ ОБУЧЕНИИ

fst

Я занимаюсь вопросами машинного обучения, искусственного интеллекта, я не академический учёный, я простая корпоративная крыса, в этом смысле моя работа - это производство практических систем, решающих задачи, связанные с искусственным интеллектом, со сложной интеллектуальной обработкой данных.

Хронометраж выпуска:

0:15 Что такое машинное обучение?

4:50 Пути развития науки об искусственном интеллекте.

9:55 Сравнение: компьютер и человеческий мозг.

13:30 "Blue Brain" и его электронная копия человеческого мозга.

19:12 Про существующие интерфейсы "машина-мозг".

26:37 Перцептрон Розенблатта.

31:22 "Свёрточные нейронные сети" и их современные возможности.

36:40 О шахматах и го.

43:45 Распознавание и генерирование компьютером картинок.

49:00 Обработка и генерирование звука.

55:46 Генерирование текстов.

58:28 О предстоящих проблемах взаимодействия мира машин и мира людей.

Д.Ю.  Я вас категорически приветствую! Сергей, добрый день. 

Сергей Марков. Здравствуйте. 

Д.Ю.  Представьтесь, пожалуйста. 

Сергей Марков. Меня зовут Сергей Марков, я занимаюсь вопросами машинного обучения, искусственного интеллекта, я, в общем-то, не академический учёный, я простая корпоративная крыса, в этом смысле моя работа - это производство практических систем, решающих задачи, связанные с искусственным интеллектом, со сложной интеллектуальной обработкой данных, и сегодня я расскажу немножко о машинном обучении, о нейронных сетях, как, наверное, на сегодняшний день основной наиболее известной технологии, которая лежит в основе такого рода алгоритмов, ну и расскажу, что мы научились делать в ближайшие годы, и вот обо всём этом. 

Д.Ю.  Машинное обучение - это когда машины учатся или наоборот? 

Сергей Марков. Да, когда машина учится выполнять какую-то интеллектуальную задачу. Соответственно, весь-весь комплекс таких решений называется "областью машинного обучения". 

Д.Ю.  А какие интеллектуальные задачи машина может выполнять? 

Сергей Марков. С самого начала, когда появлялись и разрабатывались термины для того, чтобы в сфере, связанной с искусственным интеллектом, каким-то образом обозначать те или иные вещи, встал достаточно скользкий вопрос: хорошо, мы говорим об искусственном интеллекте и на бытовом уровне мы примерно понимаем, чего мы хотим - мы хотим те задачи интеллектуальные, которые человек решает своей головой, решать теперь при помощи машины. И специалисты по "computer science", по компьютерным наукам, с самого начала в основу понятия искусственного интеллекта положили такой вот чисто инструментальный подход. Т.е. если есть задачи, которые люди решают с помощью своей головы, а мы учим машину решать такого рода задачу, то такая система будет системой искусственного интеллекта. Другое дело, что, понятно, здесь есть огромное расстояние между искусственным интеллектом таким простым, прикладным, который предназначен для решения какой-то одной единственной интеллектуальной задачи, например, программы, которая играет в шахматы, или программы, которая играет в го, и неким универсальным искусственным интеллектом, тут по сути мы сейчас пока ещё мечтаем о такого рода системах, хотя, на самом деле, не только мечтаем, но сейчас уже достаточно активно ведутся проекты по разработке и созданию такого универсального искусственного интеллекта, иногда это называют ещё "artificial general intelligence", т.е. это искусственный интеллект, который сможет решать любые интеллектуальные задачи, которые человек решает при помощи своих мозгов. 

Д.Ю.  Я извиняюсь - перебью: совсем недавно в исторической перспективе вышел такой художественный фильм "Чужой". Тогда ещё ни у кого компьютеров не было, и не все представляли, что это такое. Там летел звездолёт, где бортовой компьютер разбудил экипаж, и капитан начинает общаться с компьютером, вводит вопрос, а компьютер даёт, чисто оракул, какой-то загадочный ответ, и вся команда ломает голову - очень смешно выглядит. 

Сергей Марков. На самом деле, конечно, кино создало здесь множество очень интересных и неоднозначных образов, во многом на которых и основывается представление обычного человека о системах искусственного интеллекта. Чего стоит хотя бы этот знаменитый HAL 9000 из фильма Кубрика или… 

Д.Ю.  Ещё лучше, да. 

Сергей Марков. На меня, например, в своё время очень повлиял образ машины, которая встречается у Ефремова в "Туманности Андромеды", когда звездолёт летит через туманность, в которой люди не предположили, не догадались, что там находится тяжёлая, массивная звезда, и попадает в беду, и в этот момент, когда люди не способны принимать решения, т.е. огромные перегрузки, звездолёт пытается маневрировать, и вот машина вступает в бой за людей, за их жизни, чтобы спасти, и честно говоря, у меня от этой короткой сцены, хотя иногда Ефремова обвиняют, что он, дескать, такой сухарь чёрствый, писал плохо, но у меня иногда наворачиваются слёзы на глаза, потому что… 

Д.Ю.  Писал плохо, а книжки были отличные! 

Сергей Марков. Так бывает. И конечно, очень красивая сцена, ты понимаешь, что за такой системой стоит очень много человеческого труда, т.е. люди, чтобы создать систему, которой они доверят свои жизни в экстремальной ситуации, должны, наверное, очень много копий сломать в лабораториях, и в этом, действительно, подвиг человеческого гения - в создании такой системы. 

Д.Ю.  Так и как же это дело двигается? 

Сергей Марков. Вообще в науке такой есть старый трюк, старинный-старинный: если мы хотим что-то такое сделать при помощи своей технологии, что уже существует в живой природе, то первая такая интенция - это давайте попробуем украсть у природы, называется "бионика". Леонардо да Винчи, когда хотел сделать летающую машину, он первым делом изучал, как летают птицы, он зарисовывал фазы движения крыла птицы и т.д. В этом смысле наука об искусственном интеллекте тоже по этому пути с самого начала пошла, и здесь, естественно, первые модели, которые стали создаваться специалистами по компьютерным наукам в конце 40-ых - начале 50-ых годов, по сути дела были попыткой скопировать то представление, которое тогда уже имели нейрофизиологи о том, как работает мозг, попробовать его воспроизвести в математической модели, а потом эту математическую модель реализовать при помощи доступных на тот момент времени вычислительных машин. Но нейрофизиологи мозг, нервную ткань исследовали ещё и до того. Ещё в самом начале века Луи Лапик создал первую, ещё очень примитивную математическую модель работы нервной клетки, она называлась "интегрировать и сработать", и здесь вот эти данные нейрофизиологии, конечно, помогли на первом этапе очень сильно. И здесь тоже, у науки всегда извилистые пути, на время в 50-е годы нейрофизиологи с компьютерщиками сблизились очень сильно, и был проделан целый ряд совместных работ. В то время проводилась куча экспериментов, самый, наверное, знаменитый эксперимент - это эксперимент с мозгом кальмара. Кальмар вообще зверушка очень интересная, потому что отдельные клетки мозга кальмара очень крупные, т.е. они фактически макроскопический масштаб имеют. Если на предметное стёклышко положить единичную клетку, там будет видно аксон, он 10 см длиной, и сама клетка такая достаточно крупная. 

Д.Ю.  10 сантиметров? 

Сергей Марков. Да, но, кстати говоря, и в мозге человека-то аксоны достаточно длинные и могут связывать нейроны, которые топологически на достаточно большом расстоянии находятся друг от друга. И вот в это время эта работа оказывается достаточно успешной поначалу, и во многом её успех, успех совместной работы нейрофизиологов со специалистами по computer science, привёл к тому, что на самом деле их пути потом на долгое время разошлись. Почему так получилось - потому что модель Ходжкина-Хаксли, допустим, которую создали Ходжкин и Хаксли, изучая аксон нейрона кальмара, была слишком сложная, а специалистам по компьютерным наукам удалось очень сильно упростить всю эту картину и получить вполне успешные работающие вычислительные модели. Т.е. оказалось, что можно дело очень сильно упростить, и тем не менее такая модель будет способна решать целый достаточно широкий спектр реальных задач машинного обучения. 

Первая вычислительная модель, которая использовалась в машинах, это модель, созданная МакКаллоком и Питтсом, кстати, весёлые были мужики, на самом деле, тоже вот большая была доля романтики в их работе, потому что когда читаешь стихи, которые писал МакКаллох в то же время, когда он вёл эту работу, и вот он пишет о падающих замках, что вот мы строим в вышине, где-то там на облаках падающие замки, вкладываем в них свою душу, а потом эти замки падают вниз, и снова мы принимаемся за это строительство. И в этом смысле, конечно, очень много было исписано бумаги, очень много было тупиковых путей исследовано, и как в воспоминаниях пишут, что первую работающую модель нейрона, которую они создали, они буквально нарисовали на каких-то салфетках, сидя на полу, выпивая вискарь, и оказалось, что это, действительно, наконец-то они нашли то, что искали очень долго и уже, казалось бы, отчаялись. 

50-е годы, 60-е годы были временем очень большого энтузиазма по поводу таких моделей, несмотря на то, что были доступны очень скромные вычислительные мощности, потому что ясно: что тогда можно было сделать, что тогда можно было посчитать, какую большую нейронную сеть можно было смоделировать на компьютере - ну десяток нейронов, ну 2-3 десятка нейронов. Если мы сравним с человеческим мозгом, вот здесь, кстати, может быть, имеет смысл сделать маленькое отступление, чтобы понять масштабы проблемы, которую мы имеем. 

Среднестатистический человеческий мозг- это 86 миллиардов нейронов. У каждого нейрона может быть в районе 2 тысяч отростков нервных. Т.е. вообще в среднестатистическом мозге 150 триллионов синапсов, а 1 синапс - это не просто ниточка какая-то, это очень сложный механизм, это тысяча молекулярных триггеров примерно, т.е. это тысяча канальцев таких достаточно непростых. Условно можно сказать, что 1 синапс - это аналог 1000 транзисторов, и если мы 150 триллионов на 1000 умножим, получим 150 квадриллионов транзисторов. Это такой очень грубый и примитивный эквивалент мозга. А что же наши электронные машины? Сейчас самый большой процессор, с точки зрения числа транзисторов, SPARC М7 - это 10 миллиардов всего-навсего транзисторов. 

Д.Ю.  Негусто. 

Сергей Марков. Есть отдельные вентильные матрицы, на которых 20 млрд., но порядок не меняется. Т.е. масштаб по-прежнему очень сильно отличается. Здесь нас, правда, спасает то, что машины быстрее, т.е. если мы посмотрим на рабочую частоту мозга, то это 1000 Гц максимум, т.е. 1000 раз в секунду вот эти молекулярные триггеры могут менять своё состояние. Машина, конечно, быстрее, тот же SPARC М7 - это 4 ГГц. Но даже если мы домножаем на эту достаточно большую разницу, всё равно оказывается, что двух порядков примерно нам не хватает. А если мы хотим моделировать мозг при помощи электронной машины, а это надо понимать, что машина с двумя принципиально разными архитектурами: фон-неймановская схема электронных машин и нейронная сеть, которая является основой человеческого интеллекта, - две машины совсем разные, и когда мы на электронной машине пытаемся эмулировать работу такой нейронной сети, мы ещё много проигрываем вынужденно, за счёт не совсем чёткого соответствия этих архитектур. Но тем не менее, есть примерные оценки того, когда человечество получит наконец-то те вычислительные мощности, которые позволят в реальном времени при помощи машины работу мозга эмулировать. И оценку эту проделал в своё время Рэй Курцвейл ещё в 2006 году в своей книжке "Сингулярность близко" - "Singularity is near", и примерно получалось так: если вычислительные мощности будут увеличиваться с теми же темпами, с какими они увеличивались до сих пор, т.е. закон Мура т.н. будет соблюдаться, то где-то к концу 2020-ых у нас будет машина, которая сможет в реальном времени мозг сэмулировать. 

Д.Ю.  Скоро! 

Сергей Марков. Тут есть, конечно, много всяких разных допущений, да, но в целом я специально проверил этот тренд перед тем, как я на эту тему стал читать лекции, и я нарисовал точечку, соответствующую самому мощному нынешнему суперкомпьютеру, и она точно находится на той линии, которую нарисовал тогда Курцвейл, т.е. пока что, по крайней мере, мы движемся по плану. 

Д.Ю.  Ну, 3 года осталось - всего ничего. 

Сергей Марков. Ну да. И что интересно: самый, наверное, большой и знаменитый проект по созданию электронной копии человеческого мозга, известный, как "Blue Brain", в нём тайм-план такой, что к 2023 году обещают, ну планируют, создать первую работающую модель. Там, правда, немножко выбились из графика сейчас, насколько я понимаю. Дело в том, что там работа из нескольких стадий состоит. На первой стадии они выбрали правильную математическую модель, описывающую работу отдельного нейрона, создавали протоколы для изучения нервной ткани. Вообще изучение нервной ткани само по себе - это тоже передний край технологии, потому что чтобы воссоздать мозг человека, нам нужно восстановить всю 3-мерную структуру связей внутри этого мозга. Мозг, как я уже замечал, большой - что с этим делать? Скажем, там, МРТ-аппараты и всякие прочие наши эти неинвазивные сканеры, у них весьма скромная разрешающая способность. Пространственная разрешающая способность там ¾ мм может быть, ну, может быть, сейчас у самых современных устройств ½ мм, но это очень много, т.е. 50 тысяч нейронов в одной единице пространственного разрешения, и надежд на то, что тут какая-то революция произойдёт, особых нету. Но что можно сделать: вот жил-был мышонок Гарольд - это очень знаменитая среди нейрофизиологов фигура в современной науке. И мышонок Гарольд умер, мышонка Гарольда заморозили, взяли его мозг и нарезали тонкими-тонкими микронными слоями. Эти слои отсканировали и получили огромное-огромное количество этих микронных сканов, сделанных при помощи электронного микроскопа. Прикинули, сколько времени потребуется, чтобы вручную нарисовать теперь 3-мерную структуру по этим сканам - оказалось, что лет 300 уйдёт у той группы, которая этим занималась в Эм-Ай-Ти. Но учёные имеют хитрые обходные пути, поэтому они придумали увлекательную игру для любителей поиграть в онлайн-игры, можно зарегистрироваться - игра называется "Айваер", получить набор срезов и по заданным правилам при помощи таких вот маркеров раскрасить. Раскрасил правильно - получаешь много очков, раскрасил неправильно - мало очков. 

Д.Ю.  А если прокрадётся хулиган, который будет пакостить? 

Сергей Марков. Можно каким образом решать эту проблему - раздать один и тот же срез десятку разных людей, и критерием того, что ты раскрасил правильно, является то, что ты раскрасил, как большинство. Т.е. работает это примерно так. Но на самом деле даже сил тех энтузиастов, которые вызвались поиграть в эту игру, игра не настолько, к сожалению, интересная, как второй StarCraft, но тем не менее какое-то количество людей нашлось. Но что сделали - они расшифровали какое-то количество этих срезов достаточно большое, больше, конечно, чем могли сами эти учёные сделать, и потом на этих наборах расшифровок обучили искусственную нейронную сеть распознавать и раскрашивать это уже самостоятельно. Собственно, был получен массив, на котором была обучена машина, которая теперь может получить набор таких срезов уже в автоматическом режиме и с огромной скоростью их раскрашивать. 

Д.Ю.  Справляется? 

Сергей Марков. Справляется, да. Это пример такой работающей технологии, при помощи которой можно реально мозг отсканировать с точностью до единичных клеток и воссоздать полностью 3-мерную структуру. 

Д.Ю.  Обалдеть! 

Сергей Марков. Возвращаясь к "Blue Brain", они эту работу проделали, т.е. они создали свой очень похожий протокол для решения этой задачи, и первое, что они показали - они собрали одну колонку неокортекса крысы и продемонстрировали в опытах, что сигнал через модель этой нервной ткани распространяется так же, как в реальном мозге крысы. Ну и дальше они начали её масштабировать, т.е. они вначале сделали замыкание, потом мезозамыкание т.н., и по плану они в 2015 году должны были полностью создать мозг крысы, но пока публикации на эту тему нету. Причин может быть несколько: может быть, не получилось, может быть, получилось очень хорошо, может быть, нужно время на то, чтобы опубликовать данные, потому что они всё-таки достаточно масштабные… 

Д.Ю.  Я вам главное скажу: про это узнали военные, из-за этого никому не покажут, потому что им нужнее для чего-то. 

Сергей Марков. Военные как раз потом всем покажут так, что мало не покажется. 

Д.Ю.  Недавно наши военные показывали какую-то спецкрысу, которой в башку вживляют электроды, сажают её над аппаратом, который в аэропорту вещи смотрит, и крыса тротил вынюхивает - вынюхивает лучше, чем любой прибор. 

Сергей Марков. Таких проектов много, есть прекрасный проект с радиоуправляемой крысой - можно погуглить … 

Д.Ю.  Если к ней гранату привязать, она может быть особенно полезна. 

Сергей Марков. Прекрасно, любые задачи. Ну, игрушку, может быть. Но на самом деле это отдельный разговор, на самом деле здесь тоже достаточно большой прогресс по созданию интерфейсов "машина-мозг" собственно по передаче информации туда и обратно. В принципе, если уж говорить об интерфейсах "машина-мозг", тут я тоже немножко эту тему копнул и удивился тому, как много на самом деле сделано до нынешних пор. Вот скажем, если аппараты для искусственного слуха никого уже не удивляют, с начала 2000-ных кохлеарные импланты, сейчас их 2 ставят уже, даже если полностью слух утрачен, т.е. 2 делают операции. А по сути дела это очень сложный с нейрофизиологической точки зрения прибор: внутри черепа человека устанавливается устройство, которое получает по беспроводному каналу сигнал от внешней части - от микрофона и передаёт затем эти данные непосредственно в слуховой нерв в виде электрических импульсов. И конечно, у этой технологии очень большое будущее, и почему мы считаем, что у неё большое будущее - потому что нам природа тоже показала пример неожиданно, очень впечатляющий: есть такие девочки-близнецы - Криста и Татьяна Хоган, они т.н. краниопаги - сиамские близнецы, которые срастаются головами. Но Криста и Татьяна Хоган необычны даже по меркам краниопагов, потому что они не просто срослись головами, они срослись и мозгами своими, и между двумя мозгами этих девочек образовалась уникальная структура, которую называют таламический мост, и показано в экспериментах, что девочки могут при помощи этого таламического моста передавать друг другу образы достаточно произвольные. Т.е., грубо говоря, их там разделяют ширмой, одной девочке показывают картинку какую-то… 

Д.Ю.  А вторая говорит? 

Сергей Марков. Вторая девочка может рассказать, да. Они чувствуют желания друг друга, например, что сестра хочет пить и т.д. 

Д.Ю.  Рехнуться можно! 

Сергей Марков. Очень сложную информацию могут передавать через вот эту штуку, которая у них получилась, и то, что мы в природе видим такие примеры, оно как бы намекает нам, что при неком развитии технологии мы можем то же самое делать. И сейчас тоже такой важный шаг - это оптогенетика, потому что с конца 70-ых годов было много попыток создать аппарат искусственного зрения. Был такой специалист Уильям Добелле, который уже в конце 70-ых начал ставить первые практические опыты на эту тему. Что интересно: конечно, никто бы не одобрил эти эксперименты в Штатах, так он возил своих пациентов в Аргентину, там было такое "серое" пространство для медицинской этики, там им делали операции, вживляли матрицы из 40 электродов примерно, и тогда это, конечно, вообще было чудовищная совершенно конструкция, потому что не было же цифровых камер нормальных, т.е. представьте себе - это камера, которая подключалась к мэйнфрейму, т.е. к огромному компьютеру, который занимал полкомнаты, потом человек подключался через вот эту матрицу вживлённых ему в мозг электродов, и ему пробовали передавать информацию с камеры. Люди в первых экспериментах видели просто светящиеся такие вспышки, их называли "фосфены", и потом в начале 2000-ых эту технологию отшлифовали до такой степени, что самый известный пациент Добелля - Дженс при помощи такого устройства, оно уже к тому времени было носимым, естественно, он мог читать достаточно крупные буквы, ну, 5-6-сантиметровой высоты буквы, мог даже водить автомобиль, ну так медленно, вокруг дома, конечно, но тем не менее, и на самом деле много чего делать. 

Д.Ю.  Раньше ничего этого не было, да? 

Сергей Марков. Да, но трагедия в чём заключалась: в данном случае Добелле умер, сам исследователь, который эти эксперименты ставил, и свою технологию он очень плохо документировал. Её потом воспроизвели, конечно, но все вот эти интерфейсы, связанные с вживлением электродов, у них есть такой очень серьёзный минус - они со временем деградируют, т.е. там происходят миелинизация, нарушаются проводящие пути, и соответственно, эти пациенты со временем зрение потеряли. Но сейчас тот уровень технологии, который Добелле тогда, в начале нулевых, достиг, уже превзойдён, и есть много достаточно работающих сейчас устройств… 

Д.Ю.  Здорово! 

Сергей Марков. … которые используются, но вот, конечно, да, такая история интересная. А что произошло уже в нулевые - в нулевые произошло возникновение оптогенетики, а оптогенетика - это возможность при помощи вирусного вектора модифицировать клетки нервной ткани и вырастить там фоторецепторы. 

Д.Ю.  Зачем? 

Сергей Марков. Чтобы передавать туда световой сигнал. Вместо громоздкого электрода, который мы тащим внутрь нервной ткани, вместо этого мы берём, в каком-то участке нервной ткани выращиваем третий глаз, грубо говоря, передаём туда информацию. И в 2016 году впервые были эксперименты на людях, одобрено как раз с целью восстановления зрения. Пока ещё клинические данные не опубликованы, но это такая технология, которая заменит эту технологию с электродами, и передавать информацию будут, конечно, через оптогенетические интерфейсы, скорее всего. 

Но возвращаясь к "Blue Brain": "Blue Brain" выпустили небольшой релиз в прошлом году, где они нам рассказали, что было такое открытие, немножко тоже нашумевшее в нейрофизиологическом мире, о том, что выяснилось, что в мозге есть дополнительные проводящие пути: через астроциты глиальной ткани тоже распространяется сигнал, т.е. не только через отростки - через аксоны и дендриты, но оказывается сигнал может распространяться и через глиальную ткань тоже. И вот в ответ на эту публикацию специалисты из "Blue Brain" сказали: да-да, мы в курсе, и в нашей модели это тоже учитывается. 

Ну посмотрим, я думаю, что в ближайшее время они нам всё-таки крысу-то должны показать. В принципе, для более примитивных организмов уже модельная нервная система есть, т.е., например, для любимого всеми биологами червячка "elegans", нематоды, для неё есть уже полная модель её нервной системы, есть виртуальная модель этого червячка, работающая, скажем так. Посмотрим, думаю, что скоро будет и виртуальная крыса, ну а там уже и человек не за горами. 

Но вся эта история с таким достаточно точным копированием мозга во многом существует параллельно с теми нейронными сетями, которые мы применяем для решения реальных задач, связанных с распознаванием образов, речи и т.д., много чего ещё. Почему - потому что оказывается, что более простые модели, т.е. это такие конвенциональные нейронные сети, есть импульсные нейронные сети - это, грубо говоря, нечто такое биологически достоверное, более близкое к биологически достоверным нейронным сетям, а есть обычные конвенциональные сети, где нейрон суммирует сигналы, трансформирует их при помощи логистической функции. С ними история была вот какая: первые такие считающие что-то нейронные сети появились в 50-е, Фрэнк Розенблатт, очень известный специалист, создал такую модель, которая получила названием "перцептрона". Более того, он сделал первый нейрокомпьютер т.н. 

Д.Ю.  Перцептрон - это то, что чего-то воспринимает, да? 

Сергей Марков. Воспринимает да, т.е. некая воспринимающая сеть, но на самом деле что представляет собой перцептрон - набор слоёв нейронов и соответственно связь между ними. Есть входной слой, через который, собственно… рецептивный, на который и поступает сигнал, есть выходной слой и может быть один или несколько промежуточных слоёв нейронов. Розенблатт собрал это всё "в железе", что называется, т.е. он буквально из палок и всех подручных средств это дело изготовил. В принципе, это работало, было даже коммерческое применение этого решения, но успехи были весьма скромные, и скромные они были в силу нескольких причин: во-первых, как я уже говорил, нужны большие вычислительные мощности, и даже если делать просто искусственные нейроны - ну сколько, опять же, их можно сделать? Не очень много. Вторая причина - то, что в 50-е ещё не было эффективных алгоритмов обучения нейронных сетей, и здесь вообще есть такая проблема, что даже тогда, когда эти алгоритмы появились, выяснилось, что полносвязная сеть, в которой каждый нейрон связан с каждым нейроном, мало того, что её медленно обсчитывать, она и медленно учится. И тогда уже было понятно, что в мозге человека не каждый нейрон связан с каждым, т.е. 86 млрд. нейронов, но связей не 86 млрд. в квадрате, связей меньше. Но по какому принципу, какие именно нейроны должны быть связаны с какими, т.е. какая должна быть топология, архитектура этой сети, для того, чтобы эта сеть эффективно решала задачи? И вот это стало такой непростой задачей, которая всех волновала, и пытались искать разные пути её решения. Были наивные пути: давайте попробуем просто случайно генерировать сеть - ну вот случайные нейроны свяжем со случайными и посмотрим, учится, не учится такая сеть. Ну, допустим, плохо, тогда заново сгенерируем случайную, и так вот методом слепого блуждания подберём такую топологию, которая будет для нашей задачи эффективна. 

Есть такая забавная история про Минского, Минский - это известный учёный, как раз занимавшийся перцептронами в 70-е годы: он зашёл в комнату, увидел своего ученика, который при помощи генератора случайных чисел генерировал сеть для того, чтобы играть в "крестики-нолики". Ну и Минский спрашивает у своего ученика: "А почему ты случайным образом генерируешь топологию сети?" Тот говорит: "Я не хочу, чтобы мои экспертные предубеждения влияли на то, каким образом эта сеть будет искать решение". Минский говорит: "А ну-ка закрой глаза". Ученик закрыл глаза, он говорит: "Ну и как, по-твоему, мир исчез?" Т.е. то, что этот ученик отказался от своих экспертных предубеждений, это не значит, что у генератора случайных чисел тоже есть своё какое-то случайное мнение, которое не факт, что чем-то лучше, а скорее всего, всё-таки хуже, чем экспертное мнение ученика Минского. 

Ну, словом, здесь тоже пытались разные придумать алгоритмы, синаптический прунинг - некоторые связи удалять, которые малые веса имеют, после первых шагов обучения, что-то ещё, ну, в общем, искали разные алгоритмические подходы к этой задаче, но хорошее решение тогда получить так и не смогли. Но здесь парадоксальным образом помогла всё та же самая бионика, потому что, конечно, стали изучать, а как в мозгу-то всё устроено, и самым интересным модельным объектом стала сетчатка. В принципе, ещё Виннер в "Кибернетике" подозревал, что сетчатка не так проста, как некоторым кажется, что это не просто проводящие пути для светового сигнала, но сетчатка может и определённые операции выполнять с этим изображением. Виннер считал, что сетчатка может выполнять аффинные преобразования т.н. - поворот, масштабирование. Так и оказалось, и вот стали исследовать сетчатку, тоже нарезать её слоями и смотреть, и оказалось, что там есть регулярные определённые паттерны, т.е. нейрон из одного слоя связан со строго определённым набором нейроном следующего слоя, и наблюдается некоторая регулярность в этих связях. И возникла идея: давайте мы попробуем описать эту регулярность в виде набора каких-то параметров, и уже сильно сократим перебор вариантов, будем просто подбирать ядро свёртки т.н. и будем делать многослойную сеть, которую будем собирать из слоёв, имеющих регулярную структуру. Идея эта появилась ещё в 80-е годы и была известна узким специалистам. Дело в том, что тут всё ещё совпало с т.е. "зимой искусственного интеллекта", когда первые радужные надежды не шибко оправдались, начиная со второй половины 70-ых - 80-е годы о нейронных сетях на долгое время забыли, т.е. считали, что это такая забавная игрушка, но не имеющая никакой практической ценности потому что при решении реальных задач машинного обучения тогда другие методы позволяли получить гораздо более впечатляющие результаты. Ну и нейронные сети положили куда-то на дальнюю полку, и этим занимались только какие-то очень-очень какие-то сугубо академические исследователи. И появилась вот эта модель, она получила название "свёрточных нейронных сетей". 

В 1998 году была опубликована знаменитая работа Яна ЛеКуна, посвящённая тому, что при помощи свёрточных нейронных сетей, как можно их организовать, чтобы хорошо распознавать изображения. Но вот она, опять же, была известна долгое время только специалистам в этой области, пока в 2012 году не было продемонстрировано это всё дело на практике с весьма впечатляющим результатом: оказалось, что система, основанная на свёрточных нейронных сетях, может очень хорошо распознавать рукописный текст. Т.е. долго время топтались на месте в этой задаче, и вдруг получился неожиданный прорыв - при применении такой модели доля ошибок сразу сократилась очень существенно, и конечно, это вызвало повышение интереса к многослойным сетям, но и тут же посыпались идеи, а к чему можно применить ещё свёрточные сети. 

Д.Ю.  Ко всему. 

Сергей Марков. Да, оказалось, что задач-то вагон и маленькая тележка - давайте мы будем, не знаю, собак на картинках распознавать, давайте мы будем речь распознавать, давайте мы будем паттерны физической активности - очень тоже интересная задача: в современном смартфоне обычно есть акселерометр и гироскоп, можно записывать данные с этих устройств и вот по этим данным потом угадывать, что человек делает в этот момент - бежит он, идёт по лестниц, спит и т.д. Тоже интересная задача, тоже она сейчас решается при помощи свёрточных нейронных сетей. И оказалось, что, действительно, если взять достаточно большую сеть, а сейчас всё-таки наши вычислительные мощности уже не в пример тем, которые были в 70-80-е годы, если обучить её на большом наборе данных, а здесь тоже произошёл своеобразный прорыв, связанный с тем, что в 70-е годы какие массивы данных для обучения нейронных сетей были у нас на руках - ну никакие. Если взять тексты, ну хорошо, учёный в лаборатории набьёт вручную "Войну и мир" за год, и вот у нас получился какой-то скромный корпус. Сейчас же за 2,5 года количество информации, которой обладает человечество, удваивается благодаря, конечно, интернету, и интернет создал огромные библиотеки изображений, текстов, звуковых файлов, и оказалось, что это, в общем-то, бесценный материал для обучения таких больших … 

Д.Ю.  Можно на нём потренироваться, да? 

Сергей Марков. Да. И вот получается, что здесь соединение трех таких составляющих привело к неожиданному прогрессу в этой сфере, хотя на самом деле здесь ещё очень большая медийная составляющая, потому что когда появились первые впечатляющие проекты - проекты по распознаванию образов, по распознаванию речи, красивый, конечно, проект - это "AlphaGo", которая в го обыграла наконец-то человека. 

Д.Ю.  Долго же говорили, что это невозможно. 

Сергей Марков. Очень, очень долго, и каждый раз, я сам много лет занимался и занимаюсь до сих пор в порядке хобби играми, и шахматная программа моя - мой давний трудный ребёнок, ещё в 99 году я её начал писать и с тех пор стараюсь находить по нескольку минуток в день и хотя бы что-то, какую-то новую идейку попробовать. 

Д.Ю.  Боитесь с ней уже играть? 

Сергей Марков. Нет, я уже давно не ровня, наверное, почти с самого начала. Когда-то у меня был 1 разряд и то с натяжкой, а программа-то играет, конечно, в силу, ну лучше, чем сильнейшие игроки сейчас, безусловно, сейчас программы, конечно, в основном соревнуются между собой, с людьми уже не очень интересно. Мобильный телефон обыгрывает гроссмейстеров без особых проблем. 

Д.Ю.  Обалдеть! 

Сергей Марков. Но здесь, конечно, про го очень долго говорили, что ладно, в шахматах - так и быть, но вот в го никогда… 

Д.Ю.  Никогда, нет. Я отлично помню, что там количество комбинаций превосходит всё мыслимое и немыслимое…  

Сергей Марков. А вот, кстати говоря, про количество комбинаций - тут ведь очень интересный вопрос, это вот обычно когда спрашивают: ну хорошо, в шахматы обыгрывает компьютер людей, а в го не обыгрывает - почему? И обычно первый же ответ - что большое вариантов: доска, ясно, 19х19, а в шахматах 8х8, но с другой-то стороны ведь количество вариантов там больше что для машины, что для человека - какая разница, кто играет? Но почему оказывается, что в шахматах машина лучше, а здесь… Хотя мы знаем, что машина, которая играет с человеком в шахматы, в принципе, не в пример меньше, чем человеческий мозг. Когда говорят, что машины обыгрывают людей, потому что они глупые, но быстрые, или что-нибудь в этом духе, на самом деле тут можно всё перевернуть ровным счётом наоборот: вот сравните по числу триггеров мозг и машину и теперь подумайте, кто умнее-то на самом деле, если мозг вот такой, а в шахматы обыгрывает. Так разница не в этом, разница не в том, что число вариантов отличается сильно. Разница в том, что именно те подходы, которые применялись в тот момент в компьютерных го, они были не слишком хорошими, почему - потому что в шахматах очень быстро придумали простую функцию, которая может очень приблизительно оценить, насколько хорошо на доске всё: посчитали материал, у кого больше материала, пешечную структуру оценили, ещё Нимцович, Стейниц в учебниках писали, как оценивать пешечную структуру - про проходные пешки, сдвоенные, изолированные, слабые. Вот, это всё достаточно несложно было запрограммировать: атаку на короля, что-то ещё, некоторый набор позиционных факторов - и вот мы уже получили функцию, которая более-менее уже неплоха. А вот чтобы в го сделать то же самое, тут оказалось, что халявы нет, т.е. нужно распознавать образы, по сути дела, сложные структуры, которые на доске образуются. И вот здесь формализовать это распознавание образов не получалось просто, т.е. либо у тебя получится 100 км правил, описывающих эти структуры, но эти правила кто будет составлять - человек, а он ошибётся где-то, ну если у тебя там 100 тысяч правил, любой программист знает, что такое запрограммировать 100 тысяч правил вручную. И здесь как раз прогресс потому и произошёл, что появились модели, которые хорошо распознают образы, и оказалось, что мы можем распознавать и образы выигрышных паттернов на доске при игре в го. Проект, на самом деле, красивый, он красивый не только с точки зрения эффектности результата, но и с инженерной точки зрения, потому что там есть 2 нейронных сети сразу: одна нейронная сеть оценивает позицию, другая нейронная сеть выявляет наиболее перспективные ходы для анализа, там тоже есть перебор такой Монте-Карло. В принципе, тоже часто говорят, что компьютерная шахматная программа глупая, потому что она все варианты перебирает, и вот то, что стали программы обыгрывать человека - это потому что стали компьютеры быстрее. Но это, на самом деле, чепуха, конечно, страшная, потому что ну вот простой такой расчёт - мат в 6 ходов, задачка из учебника для продвинутого шахматиста-перворазрядника. 6 ходов - это значит 12 полуходов, т.е. ход с одной стороны, ход с другой стороны. Если просто прикинуть среднестатистические шахматные позиции, там 35 ходов возможно. 35 в 12 степени - чтобы перебрать эти все варианты, самая быстрая вообще машина в истории человечества, которая играла в шахматы, это "Диблу" - "Диблу" мог 200 млн. позиций в секунду посчитать. Вот можно легко посчитать: 350 лет потребовалось бы "Диблу", чтобы решить этот несчастный мат в 6 ходов, который любому перворазряднику более-менее доступен. Поэтому, конечно, из этого примера понятно, что дело совершенно не в полном переборе, и если мы посмотрим на те алгоритмы, которые лежат в основе современных шахматных программ, это алгоритмы про что - про то, какой вариант надо поглубже посмотреть, а какой вариант можно бросить и особенно не рассматривать. 

Д.Ю.  Почувствовав себя умнее, да? 

Сергей Марков. Да. И конечно, современная шахматная программа на обычном турнирном контроле в середине игры отдельные варианты может посмотреть на 40-50 полуходов, а отдельные бросить буквально после 3-4, оценив их полную бессмысленность и бесперспективность. Поэтому да, это перебор, но отнюдь не глупый и не полный, это как раз очень такой умный перебор, в принципе, человек тоже похожим образом играет в шахматы, выбирая какие-то лишь отдельные варианты для обдумывания. 

И вот, возвращаясь к нейронным сетям: что получилось сделать помимо того, что обыграть в го, распознавать картинки - очень интересная история про то, что ну хорошо, научились распознавать разные объекты, и вот был такой знаменитый проект, который назывался "Deep Dream", но начинался он с нейронной сети, которая распознавала собак. Ну хорошо, нейронная сеть, многослойно, свёрточно… 

Д.Ю.  Картинки или вживую? 

Сергей Марков. Картинки - показываем нейронной сети картинку, и она говорит, есть собака на картинке или нет собаки на картинке. И выяснилось, внезапно возникла интересная идея: давайте мы сделаем следующее - покажем картинку машине, посмотрим, где она увидела что-то, хотя бы отдалённо похожее на собаку, и попробуем теперь эту собаку усилить на исходном изображении, её проявления. И появились такие очень смешные вирусные картинки с собачьими мордами, когда показывают какой-нибудь пейзаж, лес и пропускают его через такую нейронную сеть, обученную на куче изображений собак, усиливают на входном слое собаку, и оказывается, что луна - это глаз собаки один, тут где-то увиделось что-то похожее на морду, ну и т.д. Все, в общем, стали… выглядело это, конечно, так смешно и страшно, я думаю, покажем нашим зрителям несколько примеров, и конечно, все очень жутко стали веселиться, пихать разные картинки в эту нейронку, там кого только уже, и Трампа туда пихали, и Хиллари, и всех, в общем. 

Д.Ю.  Лучшие люди, да? 

Сергей Марков. Да. И дальше на основе этого проекта возникло такое направление, которое называется "Style Transfer", когда мы можем нейронную сеть обучить, например, на картинах какого-то художника и потом в стиле этого художника переработать любое изображение. 

Д.Ю.  Ловко! 

Сергей Марков. Тоже покажем несколько смешных картинок на эту тему, у меня их много. Это был первый шаг к тому, чтобы нейронные сети научить не только распознавать что-то, но и наоборот создавать что-то, потому что в конечном счёте выяснилось, что вообще-то на вход нейронных сетей можно ведь подать вообще белый шум, а не картинку, просто случайное изображение, и вот она по сути дела с нуля нам нарисует что-то, на чём она была обучена. И здесь очень интересно, что долгое время тоже это очень впечатляющее направление т.н. … - подписывание картинок, когда мы показываем нейронной сети картинку и просим её словами подписать, что она видит на этой картинке. Тоже очень забавно и интересно выходит, но потом, естественно, стали тоже разворачивать, т.е. говорить: а теперь нарисуй нам то, что описывается какими-то словами, и очень интересно выходит. 

Прекрасный проект, конечно, сделала компания "Yahoo". Они, как и все крупные компании, озабочены были всегда цензурированием контента: к ним пользователи загружают картинки, и надо выявлять, порно это или не порно. В принципе, все, кто занимается такими системами, давно при помощи разных способов проблему пытаются решить, потому что если мы возьмём крупную сеть - сколько в день туда грузится картинок и видео, всё-таки хотелось бы не всем показывать то, что загружается. Ну и специалисты из "Yahoo" подумали: почему бы не научить такую сеть наоборот генерировать порно? И появился прекрасный проект по генерированию порно при помощи нейронной сети - т.е. вы говорите нейронной сети: хочу картинку, в которой градус порно 0 - она генерирует картинку совсем не порно. 

Д.Ю.  Бабушку в калошах, да? 

Сергей Марков. А вот можно посмотреть, что получается там, на самом деле. Сейчас покажем, где-то у меня здесь всё это есть. Нет, здесь версия для детей. Ну, в общем, я думаю, мы зрителям покажем, потому что это, конечно, не совсем настоящее порно… 

Д.Ю.  Видали и получше, да? 

Сергей Марков. Да, пока ещё качество оставляет желать лучшего. С другой стороны, прогресс всё-таки идёт вперёд семимильными шагами, так что думаю, что качество порно будет улучшаться. Пока что выглядит, я бы так сказал, что если боковым зрением посмотришь на эту картинку, то думаешь: о, что-то видать, да. Потом, конечно, смотришь - некая какая-то абстракция, но вот что-то такое уже нездоровое есть. 

Д.Ю.  Шевеления какие-то. 

Сергей Марков. Да. Ну и конечно, прекрасная работа связана с обработкой звука: год назад "Microsoft" показала проект, в котором нейронная сеть распознаёт речь лучше, чем профессиональные специалисты по дешифровке записей диктофонов. Ну там, на чуть-чуть буквально обогнали, но тем не менее, это важная веха, потому что это такая задача, которая очень востребована в индустрии, все хотят везде голосовые интерфейсы. 

Д.Ю.  Обязательно, да. 

Сергей Марков. Мы тоже в том году внедрили систему распознавания в колл-центре большом, систему распознавания речи, естественно, это сразу же даёт кучу возможностей - и контролировать работу операторов, чтобы никто не ругался ни на кого, например, что все здороваются, все прощаются, соблюдают остальные установленные правила. 

После того, как появились эффективные системы распознавания речи, опять же возникла идея: давайте мы попробуем генерировать звук. И такой проект появился буквально в конце сентября 2016 года, всё та же самая лаборатория, нынче принадлежащая "Гуглу", "DeepMind" показала проект, который называется "WaveNet" - они генерируют речь, по сути дела это синтезатор речи, но основанный на новых принципах. Т.е. если раньше синтезаторы речи были 2 видов - т.н. конкатенативные и параметрические. Конкатенативные - это где мы берём и склеиваем просто семплы звуков, фонемы, грубо говоря, каким-то образом выглаживать между ними переходы, чтобы было более натурально. В принципе, успехи в этом направлении были достигнуты, т.е. такие системы говорят внятно, но там вопросы сразу возникают: а как регулировать интонацию произнесения этой речи, т.е. это придётся поназаписать столько вариантов каждой фонемы, и т.д., и т.п. А тут нейронная сеть, которая генерирует речь, и оказалось, опять же вот, взяли оценку, "mean opinion score" это называется - просто опрашивают людей, показывают им разные записи речи, часть из них говорят люди, часть из них говорит нейронная сеть, часть из них старыми методами сгенерирована синезируемая речь, и просят оценить качество, насколько хорошо. Ну и получилось, что примерно половина отставания от настоящей человеческой речи сразу ушла за счёт внедрения такой модели. Ну вот можно какие-нибудь сэмплы послушать. 

Д.Ю.  Я помню, рассказывали там какие-то древние новости про Стиви Уандера, что у Стиви Уандера появилась машина, которая ему читает книжки вслух. Потом появились уже у всех эти читатели вслух - ну отвратительно было. 

Сергей Марков. В принципе, вот сейчас на русском языке есть несколько моделей классических, но более-менее неплохо говорящих: вот есть синтезатор, "IVONA" называется - такая речь достаточно… ну почти-почти человеческая, т.е. трудно всё-таки, даже если прислушаться, отличить, но… 

Д.Ю.  Мы можем сейчас включить, да? 

Сергей Марков. Мы сейчас включим, как звучит нейронка - нейронка звучит вот так: … Ну или вот другая запись: … На мой взгляд, достаточно трудно отличить от… 

Д.Ю.  Я бы сказал так, что это просто человек, не обладающий актёрским дарованием - вот и всё. 

Сергей Марков. Я думаю, да, и более того - в случае нейронок как раз появляется возможность неплохо управлять интонацией, управлять разными другими параметрами речи, причём делать это в явной форме, т.е., опять же, берём обучающую выборку, учим, размечаем вручную, говорим, что здесь вот такая интонация, здесь такая, здесь такая, ну и в генеративной модели просто говорим: теперь произнеси нам такие-то слова вот с такими-то интонациями. 

Д.Ю.  В конце концов им можно скармливать, наверное, речь актёров? 

Сергей Марков. Конечно. Кстати, есть проект, к нему пока нельзя заглянуть особенно под капот, что называется, но демонстрация весьма впечатляющая - это работа Adobe-овская, они делают такой фотошоп для речи, т.е. они могут перенести голос одного человека на речь другого человека. Поэтому я думаю, что в ближайшие несколько лет нас ждёт куча новых весёлых розыгрышей. 

Д.Ю.  В т.ч. по телефону, да? 

Сергей Марков. Вот-вот, ну и не только - и видео, я думаю, прекрасные появятся… 

Д.Ю.  Забавно. Опасно! 

Сергей Марков. Да. Программку "Маскарад" все, наверное видели, ещё вдобавок речь можно подделывать, так что политики у нас нам расскажут, я думаю, много чего теперь интересного с экранов YouTube. Можно, кстати говоря, заставить модельку говорить на тарабарской речи, т.е. убрать слой, который обусловливает наборы фонем, и получается такая вот голосолалия, как это называют: … 

Д.Ю.  Британский акцент налицо, а что говорит - непонятно. 

Сергей Марков. Ну, видно, что в обучающем семпле был английский язык. Но интересно, что при помощи такой штуки можно музыку генерировать. Мне понравилось, смотрите, как: … По-моему, похоже на композитора Каравайчука. Ну вот такая импровизация. 

Д.Ю.  Ловко, да. 

Сергей Марков. Ну, ясно, что чепуха пока, но дело-то, как говорится, дело делается, думаю, что скоро качество будет лучше. 

Д.Ю.  Этак оно и тексты сочинять начнёт. 

Сергей Марков. Так уже: есть проекты, есть уже сейчас соревнования роботов-текстописателей… 

Д.Ю.  Псевдоним - Донцова, Акунин…  

Сергей Марков. Да, я иногда подозреваю, что они … разработки … 

Д.Ю.  Что они уже что-то открыли, да? 

Сергей Марков. Но это реальный случай, когда японцы тоже при помощи сетки сгенерировали текст, послали его на всеяпонский конкурс текстов и там где-то в серединке списка оказались. 

Д.Ю.  Т.е. ключевое - это то, что нее определили, что это не человек, да? 

Сергей Марков. Ну тут же как бывает: у нас помните эту историю с корчевателем, которая в научном мире прозвучала? Есть такая программка, она называется "Сайген", по-моему, она генерирует наукоподобную тарабарщину, т.е. просто такой псевдонаучный текст. Известный наш исследователь Михаил Гельфанд сгенерировал такой текст, перевёл его на русский язык и разослал по ряду изданий, которые за денежки публикуют научные работы, и в частности, было там одно ВАК-овское издание, которое приняло к публикации, всё, без проблем вышло и называлось это всё - что-то "корчеватель", там длинное название, абсолютно бессмысленное. Но как "корчеватель" желающие могут погуглить. 

Д.Ю.  Жесть! 

Сергей Марков. Но на самом деле это не единственный такого рода розыгрыш, но понятно, что он был - скорее всего, никто не прочитал, вот это качество рецензирования такое было, но всё равно забавно. Вот, думаю, что, опять же, чем дальше, тем будет всё будет веселее и страшнее. 

Есть пример гугловской работы, проделанной тоже буквально чуть больше года назад - это такой чат-бот тоже на основе нейронной сети, с которым можно пообщаться. Можно тоже погуглить - это называется "Google: Conversational Model Neural Networks" если погуглить, можно посмотреть - там есть несколько примеров диалогов с такой сетью, и она весьма осмысленно говорит. Ну т.е. иногда, конечно, какую-нибудь чепуху ляпнет, но всё равно даже там несколько очень философских интересных получилось диалогов. 

Д.Ю.  Т.е. надо понимать, восстание машин всё ближе и ближе? 

Сергей Марков. Ну, я-то, честно говоря, склонен считать, что человечество тут пойдёт не по пути какого-то противоборства с машинами, хотя, конечно, сейчас вот эта вот такая локальная технологическая революция приведёт к тяжёлым социальным последствиям, скорее всего, и она уже к ним приводит, потому что… 

Д.Ю.  Например? 

Сергей Марков. Ну, эти системы ведь эффективно заменяют людей во многих областях, а там, где дешевлё тётку вынуть, болвана поставить, там, конечно, болвана поставят, а что потом будет с этой тёткой, будет ли кто-то думать вообще, что с ней будет, это вопрос. 

Д.Ю.  Ну, тут недавние заявленные эксперименты: а давайте мы начнём по 2 штуки евро в месяц просто так давать - по-моему, это не социальный эксперимент, это первые звонки того, что - что с вами дальше делать, никому не понятно, чем занять. 

Сергей Марков. Что интересно - это же воскрешение идеи маркиза де Кондорсе. В своё время вся эта тема возникла впервые, когда появились современные ткацкие станки, и надо сказать, что социальные последствия этой истории были катастрофическими - та самая история, когда овцы съели людей: Англия тогда по разным оценкам до 30% населения потеряла. Для сравнения: Советский Союз-то меньше 15% во Второй мировой потерял. Т.е. представляете себе масштабы? И электроовцы людей тоже кушать будут, и кушать будут так, что за ушами будет хрустеть. И уже сейчас, допустим, моя группа работает над системой, которая заменит операторов в колл-центре - ну, в принципе, рабочий прототип пока… 

Д.Ю.  Знаешь, сколько индусов вы по миру пустите, а? 

Сергей Марков. Ну вот посмотрим, какие последствия будут у этой истории, но пока что ясно, что это приведёт к определённому перераспределению структуры занятости - ну т.е. из колл-центра можно убрать наименее квалифицированных сотрудников и оставить, нанять больше более квалифицированных, таким образом. 

Д.Ю.  Я даже не знаю, по-моему, это не революция, это вообще перелопатит всё, с ног на голову поставит. 

Сергей Марков. Перелопатит очень сильно, смотрите: водители - эффективно проблема решена, всё, в общем, за законодателями дело, складские сотрудники - склад, сейчас вот "Amazon" уже 8-е поколение автоматизированных складов: ездят тележки роботизированные, каждая возит 300 кг груза, единая управляющая машина, у которой учёт и контроль, которая оптимизирует ещё движение всех этих тележек по складам. 

Д.Ю.  Да, это важно, например, если машины оптимизировать, избавив дороги от идиотов… А вот некоторое время тут разъезжал, общался с людьми, которую нашу кольцевую автодорогу курируют и следят за ней - всё от идиотии людской: здесь я не соблюдаю скоростной режим, тут я перестроился, как дурак, в результате собрали неведомо что. Но машине-то не надо перестраиваться не так. 

Сергей Марков. Тут тоже очень много на эту тему споров: вообще технически проблема управления автомобилем решена была ещё в 90-е, т.е. уже в 90-е у крупных автоконцернов были свои роботизированные машины. У меня товарищ работал тогда в исследовательском центре Даймлер-Крайслер, он мне рассказывал, что у них тогда уже была вполне рабочая машинка, которая ездила и по автобану, и по городу не хуже человека. В начале нулевых уже пошли университетские конкурсы, когда студенты собирали такую машину, и было соревнование, но, опять же, 3-4 года - оказалось, что задача очень простая, даже для современных студентов, которые занимаются этим. Появились там какие-то гаражные проекты, когда известный специалист взял картинку с обычного видеорегистратора, натренировал нейронную сеть, он там поездил вначале сколько-то, там 100 часов, на этой машине, соответственно, собирал данные: картинка, и в это время на сколько куда поворачивается руль, с какой силой давится на газ, с какой силой на тормоз и т.д. И большую нейронную сеть натренировал, и получилась машина, которая вполне нормально ездила, ориентируясь только по картинке с обычного видеорегистратора, т.е. даже без лидара и т.д., как сейчас это всё делают во "взрослых" решениях. Естественно, упёрлось в то, что с правовой-то точки зрения делать с этими решениями: если будет авария, понятно, что аварии-то будут всё равно, как идеально ты ни води, ситуации бывают всякие. Есть оценки, по которым аварийность снизится, если всех водителей-людей заменить на водителей-машин, как минимум в 10 раз, а скорее всего даже в 100. Но тут стали возникать какие-то внезапные очень непростые проблемы: вот, скажем, есть такая знаменитая задача про вагонетку, которую любят преподаватели-психологи студентам задавать - едет вагонетка по железно дороге, стрелка, и если стрелку не перевести, там за стрелкой 5 человек привязанных лежит на путях. Вы стоите около стрелки, если стрелку перевести, то вагонетка пойдёт по другому пути, а там 1 человек привязанный лежит. И вот студентов спрашивают: кто из вас переключит стрелку, кто не переключит? Ну, большая часть, конечно, переключит, потому что, вроде бы, понятно: здесь 5 человек, здесь 1. Но с другой стороны, может, там 5 гитлеров лежит, там 1 эйнштейн. И опять же, получается, что одно дело - не делать ничего, а другое дело - делать что-то, и получается, что ты уже решил, кому умирать, кому не умирать. Есть такая более хардовая модификация: давайте теперь представим, что никакой стрелки нету, а вагонетка едет по дороге, над дорогой мостик, вы стоите на этом мостике и рядом с вами стоит очень толстый человек, и есть понимание, что если этого толстого человека взять за шкирку и сбросить вниз, то вагонетка в этого толстяка ударится, его самого убьёт, но дальше уже не поедет, и 5 человек, которые там привязаны, останутся в живых. 

Д.Ю.  У меня есть знакомые толстые, которых не жалко выкинуть. 

Сергей Марков. Я вот за себя опасаюсь - как бы меня… стараюсь что-то делать с диетой. 

Д.Ю.  Вы упитанный. 

Сергей Марков. Но оказывается, что в таком варианте тут, конечно, уже не с такой лёгкостью люди решаются на то, чтобы… 

Д.Ю.  Ну это задача уж совсем из…, так сказать - ты же не можешь угадать, кто это. Это наша любимое: что есть на свете ценнее человеческой жизни? Есть что-нибудь? Есть - 2 человеческих жизни. 

Сергей Марков. Конечно. 

Д.Ю.  А угадать, гитлеры они или нет, в таких обстоятельствах невозможно. 

Сергей Марков. Я, как многие технари, за такой здоровый марктвеновский каклькуляционизм в этом смысле, при прочих равных - понятно, 2 жизни важнее 1. Но здесь проблема-то даже… 

Д.Ю.  Это Марк Твен сказал? 

Сергей Марков. У него похожее суждение в "Записных книжках" есть, да, о том, что некоторые люди склонны дыма напустить тут, а зачастую самый простой механический подход наоборот наиболее человечным оказывается. Потому что это я помню, как ещё в 1993 году, когда расстрел парламента был, ну я ещё мальцом был тогда и возвращался домой, и разговорились с мамой моего одноклассника: я возмущался, говорил, что людей убили сколько там при расстреле, тогда 150 человек там, говорили. Она говорит: нет, но ведь с другой стороны, там же тоже погибли люди. Я говорю: ну там погибло 3 человека, там - 150. Она говорит: нет, ну так нельзя рассуждать, ведь человеческая жизнь - это бесконечность, все же бесконечность, поэтому и там бесконечность, и тут бесконечность, поэтому нельзя никак сравнивать. Ну и, в общем, у меня был, конечно, какой-то внутренний позыв ей доказать, что это не равные бесконечности, но я тогда уже понимал, что это неуместно - с такими людьми говорить таким образом, и как-то промолчал, но сам момент остался в памяти, и я поэтому очень часто немножко болезненно отношусь к разным попыткам спекулировать на тему этики при помощи всяких рассуждений о непознаваемости, бесконечности. 

Д.Ю.  Как правило, это всё манипуляции хитрые, чтобы куда-то там тебя склонили к чему-то …  

Сергей Марков. Ну вот у меня тоже такое ощущение возникает. И тут проблема почему внезапно эта связана с автоматическими машинами - а потому что у машины-то в определённый момент времени тоже такой выбор, как оказалось, может возникнуть. Он может на практике возникнуть, причём он может в очень нехорошей форме возникнуть: ну полбеды, если вы едете на машине, там внезапно выскочило несколько пешеходов перед вами - ясно, что нужно минимизировать число людей, которых вы раздавите. Но представим себе такую ситуацию: перед машиной выскочило 2 человека на дорогу… 

Д.Ю.  А ты один. 

Сергей Марков. Мы либо их сбиваем, либо направляем машину в отбойник и убиваем водителя - вот какой выбор самый оказывается неприятный, потому что вроде бы да, мы по числу жизней сэкономили, но захотят ли люди покупать машины, которым будет дозволено их убивать в определённой ситуации? 

Д.Ю.  Никуда не денутся. Там опять-таки встанет, если у нас на дорогах за год гибнет, грубо говоря, 30 тысяч человек, а если вот это вот ввести, и будет гибнуть 1000, то оно перевесит. 

Сергей Марков. Да, но покупатель всё равно, приходя в магазин, будет думать… 

Д.Ю.  Но конечно, осознавать такое неприятно. 

Сергей Марков. Т.е. тут классическая такая дилемма заключённого, как это называется. 

Д.Ю.  Кстати, хотел сказать, что если подобные вещи внедрять в местах лишения свободы, это вообще жизнь превратит в ад, т.е. надзиратель хоть дурак и дегенерат может быть, но он человек, и с ним можно о чём-то договориться - с этими нельзя будет договориться ни о чём: пулемёты на вышках, круглосуточное наблюдение, сюда не ходи, здесь не разговаривай, я всё слышу, я всё вижу, я всё анализирую - это же вообще! 

Сергей Марков. Конечно, ну так это, в принципе, во всех сферах человеческой жизни, у нас зачастую принято делать вид насчёт некоторых вещей. Например, сколько работник работает реально на своём рабочем месте? Были в своё время исследования по программистам, по другим людям-офисным работникам, оказалось, что работает он максимум 3-4 часа в день, остальное время он отвлекается на какие-то там дела, и т.д. Но если человека на самом деле заставить работать 8 часов в день, его продуктивность очень быстро станет настолько низкой, что всю эту экономию перебьёт с лихвой. Ну не могут люди, не отвлекаясь, долгое время сохранять сосредоточенность. И скажем, у нас тоже очень часто наши эффективные менеджеры, когда пытаются управлять работой инженерных или программистских коллективов, есть реальная проблема - есть сложная задача, к которой человеку трудно подступиться, он от неё бежит, не может себя заставить делать. Каждый, кто занимался решением каких-то сложных инженерных задач, задач в области программирования, эту проблему знает - её называют прокрастинация, что значит: не могу себя заставить и откладываю, откладываю. И очень часто так: раз у тебя такая проблема, значит, ты плохой работник, тебя надо наказать. Вот если тебя наказать, тогда ты возьмёшься за работу, и т.д. Но на практике это приводит к чему: если человек просто носит мешки, то его, может быть, можно заставить, но заставить человека думать о работе и эффективно решать интеллектуальную задачу - не очень это из-под палки хорошо работает. Т.е., конечно, должна быть дисциплина разумная и т.д., но при этом должно быть понимание, что это достаточно сложная история - программирование, создание инженерных конструкций, проектов и т.д. 

Д.Ю.  Мне кажется, что мы зашли вообще уже в такую полосу - мы сейчас наблюдаем вокруг какие-нибудь потрясения, ужасные какие-нибудь, типа, вот на Украине там у них случилось нехорошее, нехорошее - Бог с ним, но мы уже твёрдо знаем, что очень маловероятно, что люди там будут голодать. Такого, даже несмотря на то, что социальные потрясения могучие, то, что было в начале 20 века, когда там вообще караул, и непонятно что делать, мы все умрём - сейчас такого уже нет. На работе тоже никто с кнутом не стоит, и ты по плантации не бегаешь, вырывая сахарный тростник. И вот оно как-то сгладилось-сгладилось-сгладилось, а в результате получается, что врага у ворот нет, какие-то там чудовищные обстоятельства преодолевать, разрывая жилы, не надо, а всё вот тихо-спокойно, а вот внутри этого тихо-спокойно вообще непонятно, а зачем работать, да и зачем что-то делать? Зачем надрываться, зачем стремиться - вообще неясно: еда есть… Я вот на Запад часто езжу - у них ещё сильнее, чем у нас, заметно: т.е. первое, чем надо обеспечить людей, это дешёвой и полезной едой, от которой они не мрут, а нормально функционируют организмы - это раз, а второе - дешёвой модной одеждой. Если есть и то, и другое, то всё остальное, вот социальное недовольство раз - и нету: я, во-первых, сытый, во-вторых, красивый, обратите внимание - у меня уже всё хорошо, надрываться незачем. 

Сергей Марков. С одной стороны, да, с другой стороны, ведь эти все события показывают, на самом деле, какая всё-таки тонкая вот эта плёнка цивилизованности, которая есть и нас всех покрывает, и как легко люди в совершенно зверское первобытное состояние превращаются. 

Д.Ю.  У, это да! 

Сергей Марков. Казалось бы, образованные и воспитанные люди, с которыми ты вроде бы вчера ещё культурно беседовал где-нибудь в интернете и т.д., сегодня они кричат, я не знаю: убивай тех, кто нам не нравится, не знаю, Луганду и Донбабве давайте бомбить, и т.д., и т.п. Ты слушаешь это и думаешь: это вообще что с человеком произошло? Он же вроде, как бы, интеллигент. 

Д.Ю.  Это мне вот, опять, извините, перебью, это, мне кажется в свете наших антропогенезных увлечений, это, мне кажется, люди, которые не понимают, о чём говорят просто - они никогда никого не убивали, цену жизни они не знают, и поэтому они с такими вещами обращаются с такой легкомысленностью, что рука тянется к нагану. 

Сергей Марков. Да, а потом внезапно эти слова материализуются, и в весьма непотребных формах. Вот опять же, история с прививками очень показательна: многие столетия люди гибли миллионами от болезней, грипп-испанка в своё время унёс после Первой мировой войны больше жизней гораздо, чем унесла сама война. 

Д.Ю.  Говорят, там миллионов 20 было. 

Сергей Марков. Да-да, считается, что до 80-ти, чуть ли не до 100. 

Д.Ю.  Ого! 

Сергей Марков. Т.е. там масштабы явно больше были, чем у войны, как таковой. И мы за счёт развития медицины, за счёт развития прививок во многом избавились от этой чудовищной смертности, зажили хорошо, и вдруг оказалось, что а мы не хотим прививаться, а у нас вот тут вот что-то зачесалось после прививки, а у нас вот тут ещё что-то где-то свербит и аутизм вызывает, как нам кажется. И люди быстренько побежали, по сути дела, себе копать своими руками могилу. Т.е. когда ещё было много свидетельство того, как дети умирали от краснухи или… 

Д.Ю.  Да. Ну мы-то все с "оспами" на плечах, нас не спрашивали. 

Сергей Марков. Да, а мы, вроде бы, для нас это остроту проблемы утратило, и вот мы теперь всерьёз размышляем: а давайте мы пойдём в пещеры ближе к природе. Подзабыли, как оно там, в природе. 

Д.Ю.  Станислав Владимирович вчера очень хорошо рассказывал, как оно в природе. 

Сергей Марков. Да-да-да, я тоже под впечатлением, очень-очень здорово. Поэтому, конечно, здесь момент такой есть, что появление этих систем машинного обучения, меняющих принципы нашей жизни, связаны с определёнными вызовами. Это будет сильно менять наше общество, и я думаю, что об этом, может быть, имеет смысл поговорить как-то отдельно, у меня вообще есть целая большая лекция, которая называется "Электроовцы съели людей", где я пробую проанализировать возможные последствия того, что происходит, и те пути, те решения, которые мы, в принципе, можем предложить для того, чтобы с этой проблемой что-то сделать, смягчить… Ясно, что прогресс остановить нельзя. 

Д.Ю.  Невозможно, да. 

Сергей Марков. Это невозможно, и в этом смысле прогресс нам должен дать и решение этих вызовов, которые перед нами стоят. 

Д.Ю.  А немного отвлекаясь: старина Лем, пока не помер, что-нибудь об этом говорил, нет? 

Сергей Марков. Лем, конечно, мы все кормимся тем, что он наработал за свою жизнь, в принципе, "Сумма технологии", конечно, это прекрасная работа, которая предвосхитила очень многое от того, что происходило потом в технологиях, и конечно, у него и на эту тему тоже есть произведение, есть "Осмотр на месте" - наверное, самая знаменитая история. 

Д.Ю.  Отлично! Я как раз вспоминал… Я вспомнил "Непобедимого", где эти ужасные железные облака летали, и вот как раз "Осмотр на месте", где оружие затаилось на Луне. 

Сергей Марков. На Луне - это "Мир на Земле" называется вещь, где… 

Д.Ю.  Они связанные, да. 

Сергей Марков. Там эта история такая, что, в принципе, сейчас многие специалисты по искусственному интеллекту этот сценарий тоже всерьёз обсуждают: а ну мы создадим искусственный интеллект, которому зададут задачу произвести максимум скрепок, и он весь наш мир на скрепки переведёт? Вот этот сценарий часто в фантастике звучит: репликанты, серая слизь и т.д. Лично я считаю это опасение не очень серьёзным, потому что для того, чтобы быть эффективным, искусственному интеллекту нужно быть достаточно сложным. Если он должен эффективно оперировать в социальном окружении, то скорее всего неизбежно у него разовьётся многообразие реакций, самосознание, и он сам осознает бессмысленность изготовления такого количества скрепок. 

Д.Ю.  А также всего сущего, да? 

Сергей Марков. Т.е. парадоксальным образом действительно эффективный изготовитель скрепок не захочет весь мир на них переделывать. Я думаю, что человечество, в принципе, пойдёт скорее по пути синтеза с машиной, наверное, а не некой параллельной эволюции, как раз за счёт интерфейсов "машина-мозг", за счёт… В принципе, мы же очень давно сами на себя технологически влияем, мы сами не понимаем того, что являемся продуктом своей технологии. Когда мы изобрели огонь и стали варить зёрна в горшках, мы уже изменили себя биологически очень быстро, потому что выживать стали те, кто раньше умирал бы из-за слабости зубов, стали выживать люди с менее сильными, менее развитыми зубами, а это означало, что сместился фокус отбора, и это привело в т.ч. и к увеличению мозга, например, а счёт того, что объём головы ограничен тем, что чем крупнее голова, тем больше смертность при родах при прохождении через родовые пути, соответственно, уменьшилась челюсть - увеличился объём мозгового вещества. Мы - продукция технологии и в биологическом плане, т.е. если мы даже сегодня пытаемся разделить биологическое и социальное, на самом деле, в этом тоже есть большая условность, потому что наша биология уже очень продукт истории нашего общества. И когда мы получали инструменты более эффективного вмешательства в работу собственного организма, мы особо не раздумывали над их применением. Мы придумали лекарство, мы придумали современную фармакологию, а что это такое - это вмешательство в биохимические сигнальные пути организма в святая святых его деятельности. Соответственно, мы получаем возможность пользоваться какими-то сложными устройствами в своей жизни - пожалуйста, у каждого мобильный телефон в кармане, и мы при помощи него сегодня и общаемся, и путешествуем, и решаем кучу каких-то задач, и работаем. 

Д.Ю.  Покупаем, продаём - всё, что хочешь. 

Сергей Марков. Поэтому завтра появится эффективный интерфейс, который будет позволять обмениваться с машиной образами непосредственно, я думаю, что когда такие интерфейсы станут безопасными и простыми в использовании, конечно, все их начнут использовать. Это значит: проглотил таблетку - у тебя вырос интерфейс беспроводной в голове, и дальше ты при помощи него коммуницируешь с машиной, и по сути дела, это всё более и более тесное соединение человека с его орудиями труда. В какой-то момент это слияние дойдёт до стадии неразличимости, т.е. мы образуем такой синтетический вид. Я думаю, что мы пойдём по этому пути в конечном счёте. Ну, время покажет. 

Д.Ю.  Тема просто необъятная! Надо вас заманивать регулярно, Сергей. Это мы ещё про войну не поговорили - там-то вообще ад отверзнется, наверное. 

Сергей Марков. Спасибо, я с удовольствием - поболтать люблю. 

Д.Ю.  Спасибо, заезжайте к нам ещё. 

Сергей Марков. Спасибо вам. 

Д.Ю.  Спасибо большое, очень, очень познавательно! А на сегодня всё. 

Сергей Марков. До свиданья. 

Д.Ю.  До новых встреч.


Рекомендовать Обсудить материал Написать редактору Распечатать   Дата публикации: 27.02.2017  
Хостинг: SiliconTaiga    Поддержка: Interface Ltd. Обратиться по техническим вопросам     
Rambler's Top100 TopList