Разделы
Счетчики
Нас посчитают
На прошлой неделе сотрудники Лос-Аламосской лаборатории - места, где 60 лет назад создали первую атомную бомбу - рассказали в сравнительно коротком интервью, с помощью каких методов США будут теперь противостоять "новым угрозам". Месяцем раньше германские астрофизики и швейцарские нейрофизиологи сообщили прессе о своих проектах. Как выяснилось, ученые, области интересов которых почти не пересекаются, говорят об одном и том же. И, в отличие от своих предшественников, претендуют на исчерпывающее описание реальности. Правда, созданной искусственно.Все три проекта используют суперкомпьютеры для не вполне обычного моделирования. Прообразы моделей - человеческий мозг, государство и Вселенная - вообще говоря, представляют собой исчерпывающий список всех возможных целей научного любопытства.
В равной степени непривычна и избранная методика - компьютерная симуляция. Ученым приходится следовать ньютоновской максиме - "гипотез не измышляю", чтобы, ограничившись минимумом предположений, предоставить систему самой себе.
Самоочевидный для экспериментаторов, такой подход давно и уверенно используется для описания "частных случаев", когда поведение простых объектов плохо укладывается в рамки известных формул. Но к системам, сложность которых превосходит все естественные ожидания, его применяют, возможно, впервые.
Мозг
Федеральная политехническая школа Лозанны (EFPL) приобрела у IBM суперкомпьютер Blue Gene, восьмой в мире по быстродействию, в начале июня. Машина, зарекомедовавшая себя детальным расчетом структуры белков, в течение последующих двух лет будет изображать фрагмент коры головного мозга. Точнее - нейронную сеть в неокортексе: эту область считают главной среди ответственных за "слишком человеческое" в сознании - язык, память, творческое мышление. Каждый из 4096 процессоров станет на время "нервной клеткой", способной обмениваться сигналами с соседями. Внутри неокортекса они сгруппированы в колонки, и именно такую колонку будет воспроизводить весь суперкомпьютер.
Никаких дополнительных закономерностей, кроме био- и электрохимических реакций, в программу не закладывали. Строго говоря, это все, что можно сказать о механизмах мышления с абсолютной достоверностью. Нейрофизиологи решили отталкиваться от "ясных и очевидных" первопринципов, в частности для проверки более сложных гипотез, но едва ли ограничатся этим. Глава Института мозга EFPL уже заявил, что на последующих стадиях планируется воссоздать весь мозг. Когда это произойдет, неизвестно, но "вступительная часть" - моделирование неокортекса - должна занять не более двух лет.
Ни создатели суперкомпьютера, ни представители EFPL, надо думать, сознательно не формулируют вопрос, вынесенный Тьюрингом в заголовок знаменитой статьи 1950 года - "Может ли машина мыслить". В их распоряжении - 22,8 терафлопа и физические законы. Теоретик искусственного интеллекта пытался понять, как посредством математических алгоритмов имитировать те операции, которые осуществляет человеческое мышление. Теперь само слово "имитация" выглядит намеренным упрощением - механизм собираются скопировать, а вовсе не "переизобрести".
Заставить компьютер "думать" - одна из самых популярных проблем кибернетики (и, по понятным причинам, науки вообще). Тьюринг, умерший в 1954 году, не застал результатов, превративших его высказывания из "заклинаний технократа" в программу действий: функциональные языки программирования появились вскоре после его смерти, нейронные сети и "нечеткая логика" - позже. Однако все эти средства, найдя себе неожиданные применения, начали жить самостоятельной жизнью, а рост быстродействия суперкомпьютеров позволил не воспринимать их в качестве главного инструмента при новом "акте творения".
Государство
Поэтому тот, кто преуспел в военном деле, подчиняет чужие армии, не вступая в битву, захватывает чужие города, не осаждая их, и разрушает чужие государства без продолжительного сражения.
Сунь-Цзы
Лаборатория в Лос-Аламосе - главный оборонный исследовательский центр США, всемирно известный благодаря Манхэттенскому проекту. Вернее, благодаря его участникам (Эйнштейну, Бете, Нейману, Фейнману, Ферми, Теллеру), его результатам - Хиросиме и Нагасаки - и не вполне однозначному отношению первых ко вторым. События последних нескольких десятилетий, когда оборонные успехи связывали в первую очередь с инженерными достижениями, и только потом - с физикой, отодвинули в общественном сознании "резервацию для Нобелевских лауреатов" на второй план.
Cкупого комментария из этой лаборатории было достаточно, чтобы отодвинуть на второй план все остальное: мощный суперкомпьютер уже давно содержит внутри себя "виртуальную Америку" - с людьми и инфраструктурой. Разумеется, не праздного любопытства ради и не для воплощения смелых фантазий братьев Вачовски: это - очередная мера по борьбе с терроризмом. Смысл модели - предсказать последствия возможных терактов, не вовлекая в "учения" реальных людей и технику (не говоря уже о том, что "учебная тревога" не способна никого заставить поступать так же, как во время настоящей катастрофы).
Авторы эксперимента, ссылаясь на секретность, ограничились отдельными репликами о том, как устроено виртуальное государство. Известно, что в нем можно проследить за перемещениями каждого отдельного гражданина, заставив его реагировать на "внешние раздражители" - сигнал тревоги, распространение новостей, непосредственную опасность. Поведение террористов продумано в еще больших деталях - их действия, правда, определяет не программа, а сами разработчики. Уже опробованы такие сценарии, как распространение болезнетворных бактерий и прекращение работы электростанций.
Любопытно, что в Лос-Аламосе были осуществлены первые работы по компьютерному моделированию вообще - как раз в контексте Манхэттенского проекта. Тогда нужно было рассчитать численно механизм детонации ядерного заряда, а в качестве "побочного продукта" появились математическая теория игр и представления об архитектуре современных компьютеров (и то, и другое - благодаря Джону фон Нейману).
Более поздние и более близкие аналоги "виртуальной Америки" следует искать в математической биологии: эксперименты по численному воспроизведению колонии бактерий широко известны, а первая программа, демонстрирующая их возможность - игра "Жизнь" - является самым простым и самым наглядным примером компьютерной симуляции. Причем, если последней достаточно для исполнения практически любого микропроцессора, то мощности суперкомпьютера хватает, чтобы куда более сложные виртуальные существа "вели себя" правдоподобно.
Вселенная
...исчисляет количество звёзд; всех их называет их именами
Книга Псалмов Давидовых, 146:4 Эксперимент под названием Millenium Run, осуществленный на суперкомпьютере в Институте Макса Планка, вероятно, самый масштабный из всех. В виртуальный куб со стороной 2 миллиарда световых лет заключили 10 миллиардов частиц и проследили их историю от момента, близкого к Большому Взрыву, до современности. Каждая частица - с большей, чем у среднего звездного скопления, "виртуальной массой" - обозначала некоторый объем протозвездного вещества или "темной материи". Частицы разместили в далеком прошлом - и в течение месяца ждали от 4-терафлопового компьютера многотерабайтной выдачи, отвечающей структуре квази-Вселенной в заданные моменты времени.
За масштабы пришлось расплачиваться существенными упрощениями. Экспериментаторы рассматривали только гравитационные взаимодействия между близкими точками, и воспользовались тем соотношением между "обычным" и "темным" веществом, на которое указывают современные космологические теории.
Согласно замыслу, результат должен был не столько удивить кого-либо, сколько подтвердить уже существующие взгляды. Это и произошло, когда в начале июня журнал Nature опубликовал итоговую статью участников эксперимента. Впрочем, удивляться предстояло "мирянам", а не астрофизикам: странная "рабочая гипотеза" теоретиков стала признанным фактом. Космос действительно на 70 процентов состоит из "темной энергии", заставляющей его расширяться, на четверть - из "темного вещества", и только на пять процентов - из привычных нам атомов.
Компьютерная модель также перевела из разряда экзотики в категорию фактов сверхтяжелые черные дыры, которые служат "зародышами" галактик либо находятся в центре ярких квазаров на периферии видимого пространства. Еще астрофизики выяснили, что "случайные отклонения" на ранних стадиях роста Вселенной не сглаживаются при ее последующем развитии, как это происходит в обычных молекулярных системах.
Организаторы уверяют, что опубликована только малая часть выводов - массив данных слишком велик, и в нем можно будет искать закономерности и после появления новых гипотез. Получается, что у ученых появилась "Вселенная в кармане", позволяющая обратиться к себе в любой момент, когда понадобится узнать что-нибудь о прототипе.
В том же - неоконченном - состоянии и два других эксперимента по "моделированию всего". Но и ту часть, которая сделана, не все оценивают одинаково. Одновременно с теми, кто справедливо полагает, что это - прорыв, у суперкомпьютерных симуляций есть много противников. Чаще всего указывают на очевидный недостаток - модели грубы, а действительность намного сложнее (то же, впрочем, можно сказать и о "формулах на бумаге", что не мешает технической цивилизации существовать благодаря им). Но более серьезным кажется другой контраргумент - наличие сверхсильной техники лишает численные эксперименты прежней элегантности, и трудно утверждать, что, например, фон Нейман или Тьюринг не смогли бы с ее помощью добиться намного большего. А возможное превосходство "буквально воспроизведенного" человеческого мозга над математически выстроенным искусственным интеллектом почему-то напоминает победу компьютера над живым шахматистом - безусловную, но бесполезную.