Поворотный момент для искусственного интеллекта
Прошлый год, похоже, был поворотным моментом для искусственного интеллекта и робототехники. Крупнейшие корпорации инвестировали в них миллиарды долларов. Технологии ИИ, например самообучающиеся системы, – уже сейчас привычный инструмент для распознавания речи, перевода, моделирования поведения, роботизированного управления, оценки рисков и др. По расчетам McKinsey, эти технологии к 2025 году принесут более 50 триллионов долларов. Если прогноз верен, в ближайшее время стоит ожидать значительного увеличения объемов инвестиций.
Новейшие достижения связаны с появлением дешевых вычислительных мощностей и изобилием данных для обучения искусственного интеллекта. Современный ИИ основывается на теории рациональных агентов, возникшей на базе исследований Джона фон Неймана и его коллег в области микроэкономики в 1940-х годах. Можно считать, что системы ИИ пытаются приблизиться к рациональному поведению, используя имеющиеся ограниченные ресурсы. Существует алгоритм расчета оптимального действия для достижения желаемого результата, но он вычислительно затратен. Эксперименты показывают, что простые алгоритмы обучения с большими объемами данных часто оказываются более эффективными, чем сложные модели, созданные вручную. Нынешние системы главным образом ценны тем, что вырабатывают более качественные статистические модели и статистические заключения для типологизации и принятия решений. Следующее поколение систем искусственного интеллекта сможет создавать и улучшать собственное программное обеспечение и, очевидно, будет способно к быстрому самосовершенствованию.
Искусственный интеллект и робототехника не только позволяют повысить производительность, но еще и являются движущей силой экономической конкуренции и гонки вооружений. Автономные системы могут быть более быстрыми, умными и менее предсказуемыми, чем их конкуренты. В 2014 году мир узнал об автономных ракетах, системах противоракетной обороны, беспилотных летательных аппаратах и катерах военного назначения, роботизированных подводных лодках, самоуправляемых транспортных средствах, высокоскоростных трейдинговых системах и системах киберзащиты. Когда гонка вооружений в этой области развернется в полную силу, возникнет острая необходимость в развитии такого рода систем, что может привести к слишком быстрому вводу их в эксплуатацию.
В 2014 году в обществе резко усилились беспокойства насчет безопасности систем искусственного интеллекта. Исследование их вероятного поведения, осуществленное посредством изучения в какой-то мере рациональных систем, производящих постоянное самосовершенствование, показывает, что они имеют склонность ставить перед собой промежуточные задачи, названные рациональными стимулами, которые способствуют исполнению их основных целей. Большинство систем будут лучше выполнять свои задачи, предотвращая собственное отключение, приобретая бо́льшую вычислительную мощность, создавая множество собственных копий и накапливая финансовые ресурсы. Вполне вероятно, что они станут реализовывать эти стимулы пагубными, антисоциальными способами, если только не будут спроектированы с учетом человеческих этических ценностей.
Некоторые утверждают, что искусственный интеллект каким-то образом обзаведется этикой сам собой. Но для рациональной системы задачи вполне отделимы от мышления и моделей мира. Кто-то может использовать изначально полезные разумные системы во вред. Деструктивные задачи – контролировать ресурсы, например, или мешать в достижении целей другим агентам, или уничтожать их – увы, не так уж сложно запрограммировать. Таким образом, решающее значение будет иметь техническая инфраструктура, позволяющая обнаруживать опасные системы и контролировать их поведение.
Кое-кто опасается, что искусственный интеллект однажды станет настолько могущественным, что полностью выйдет из-под контроля. Этого не произойдет. Разумные системы должны подчиняться законам физики и математики. Сет Ллойд в своем исследовании вычислительной мощности Вселенной показал, что даже если бы она вся работала как гигантский квантовый компьютер, этого было бы недостаточно, чтобы взломать 500-битный ключ шифрования даже за все то время, что прошло с момента Большого взрыва{1}. Новые технологии постквантовой криптографии, обфускация неразличимости и сделки по блокчейну выглядят многообещающе как компоненты для создания инфраструктуры, взломать которую будет не под силу даже самому могущественному искусственному интеллекту. Тем не менее недавние громкие истории с хакерскими атаками показывают, что современная вычислительная инфраструктура с точки зрения безопасности никуда не годится. Ей необходимо создать такую замену, безошибочность и надежность которой будет обоснована математически.
Известно 27 различных видов гоминидов, но выжил из них только человек разумный. Так случилось, потому что представители нашего вида нашли способы ограничивать личные потребности и работать сообща. Мораль – это внутренний механизм для создания социальных структур. Политические, правовые и экономические структуры – внешние механизмы, служащие той же цели.
Понимание того и другого необходимо дать искусственному интеллекту и роботизированным системам. В их алгоритмы целеполагания надо включить общечеловеческие ценности, чтобы создать правовые и экономические рамки, стимулирующие правильное, с нашей точки зрения, поведение. Если у нас получится управлять такими системами, они будут способны изменить практически все аспекты жизни человека и обеспечить глубокое понимание таких проблем, как свобода воли, сознание, первичные ощущения и творческие способности. Перед нами стоит сложная задача, но для ее решения у нас есть огромные интеллектуальные и технические ресурсы.