Ии создал симуляцию вселенной но ученые не понимают как это получилось
Перейти к содержимому

Ии создал симуляцию вселенной но ученые не понимают как это получилось

  • автор:

Блеск и нищета гипотезы симуляции

Недавно я с интересом прочитал на Хабре сразу две свежие статьи с рассуждениями о том, насколько наблюдаемая реальность похожа на компьютерную симуляцию, или, иными словами, какова вероятность того, что мы живём в компьютерной симуляции. Первая (автор @igor_zvyagin) под названием «Мы живем в компьютерной симуляции. Мнение программиста. Часть 1» вышла 8 августа, а вторая (автор @flancer) «Мы живем в компьютерной симуляции. Мнение другого программиста» — 28 августа. Меня особенно впечатлила вторая статья, где автор размышляет о квантовании пространства и времени в контексте планковских величин. При этом сам я ранее писал пост «Как и зачем создавать вселенную в лаборатории», в котором особое внимание уделил идеям Андрея Дмитриевича Линде и попробовал рассказать, в чём заключается научная ценность таких опытов. Но две вышеупомянутые статьи побудили меня вернуться к этой теме, так как, оказывается, гипотеза симуляции имеет минимум три смысловых разновидности: 1) компьютерная модель/симуляция, 2) игра, 3) завуалированный креационизм.

Что такое цифровая физика

Не буду пересказывать доводы из вышеупомянутых статей, а обрисую, как именно появилась гипотеза симуляции. На протяжении второй половины XX века рост вычислительных мощностей казался настолько быстрым и стихийным, что вряд ли можно было спрогнозировать, как скоро компьютер сможет смоделировать (или создать) полноценное искусственное сознание или виртуальную реальность, неотличимую от базовой. В качестве наиболее «ошеломительных» вех такого рода я бы отметил:

  1. Изобретение перцептрона в 1959 году (превратить мелкое обучение в глубокое и найти практическое применение этой технологии удалось примерно через 50 лет)
  2. Изобретение полноценной виртуальной реальности, а именно — шлема для погружения в игры и симуляции. В данном случае особо отмечу идею погружения, сформулированную в 1968 году Айвеном Сазерлендом: виртуальная реальность — это «компьютерная имитация мира, воздействующая на пользователя через специальный шлем, который создаёт настолько реалистичную иллюзию, что человек не способен отличить имитацию от действительности, при этом у пользователя есть возможность взаимодействовать с объектами в виртуальной реальности»
  3. Идея «всё из битов» (It from Bit), предложенная в 1989 году легендарным физиком Джоном Уилером (1911 — 2008). Уилер полагал, что базовая ткань Вселенной — это информация, у каждого физического явления есть информационный эквивалент. Поэтому теоретически можно написать компьютерную программу, которая воспроизводит весь состав и динамику Вселенной. Так зародилось научное направление, именуемое «цифровой физикой»

Уилер был последним живым коллегой Альберта Эйнштейна и, в частности, развил идею Эйнштейна о чёрных дырах, которые сам Эйнштейн считал чисто умозрительным конструктом. Уилеру же принадлежит идея, что чёрные дыры — это «колодцы» не столько с материей, сколько с неизвлекаемой информацией в состоянии максимальной энтропии. Именно идеи Уилера предвосхитили вполне успешные попытки моделирования мультивселенной с тонко настраиваемыми физическими законами. Физика до сих пор не даёт ответа, почему исходные параметры, при которых случился Большой Взрыв, оказались подходящими для возникновения жизни и сознания. Более того, непонятно, почему конкретные значения физических констант привели к концентрации материи в виде галактик, звёзд и планет, однако не привели к мгновенному слипанию всей материи в чёрные дыры. Так возникла идея тонкой настройки, фактически допускающая участие разумного актора в подборе начальных значений для образования Вселенной. Альтернативная версия (перекликающаяся с эвереттовской интерпретацией квантовой механики) предполагает развитие Мультивселенной, в которой чисто статистически должен был возникнуть «пузырь» с такими подходящими условиями. Обе эти идеи — информационные. Они предполагают, что Вселенная потенциально поддаётся спецификации, развёртыванию (в том числе, по тому же принципу, по которому строится процедурная генерация игровых миров) и репликации.

Всё эмерджентно?

Информационная физика возникла отнюдь не как платоновская игра ума, а в процессе поисков того субстрата, который мог бы стать общим знаменателем и для ньютоновской механики, и для квантовой физики. Многие феномены макромира по сути эмерджентны, то есть на микроуровне не существуют. Например, температура есть у вещества, но ни у одного отдельно взятого атома температуры нет. Температура эмерджентна, так как возникает в результате движения большой совокупности атомов и зависит от активности этого движения. В аналогичном смысле на атомном уровне эмерджентны многие другие физические величины. В одной из следующих публикаций я надеюсь рассмотреть, как выглядит квантовый аналог пожара или огня. Таким образом, на микро- и макроуровне определённо тождественны лишь информация и энтропия. Более того, в 2011 году была впервые экспериментально подтверждена теорема о квантовом несокрытии информации (no-hiding theorem), ранее теоретически доказанная в 2007 году Сэмюэлом Браунстейном и Аруном Пати. Согласно этой теореме, проверенной в кубитовых системах из атомов углерода, водорода и фтора, та информация, что должна была бы теряться при декогеренции квантовых систем, на самом деле не теряется, а распределяется в окружающей среде. Эта тема приобретает практическую важность при разработке квантовых компьютеров, но в рамках данной статьи позволяет предположить, что на квантовом уровне действует закон сохранения информации, не наблюдаемый на макроуровне. Допустим, что этот опыт — в пользу теории Уилера о цифровой (информационной) Вселенной. Если Уилер был прав, то теоретически возможно написать компьютерную программу, которая в точности моделировала бы не только Вселенную, но и сознание.

Неудивительно, что на фоне таких идей Ник Бостром (профессор Оксфордского Университета и автор нескольких книг, из которых я выделил бы «Суперинтеллект») сформулировал в 2001 (и дополнил в 2003) году свою программную статью «Живём ли мы в компьютерной симуляции»? (оригинал). Суть статьи сводится к тому, что любая разумная цивилизация должна за считанные тысячи лет достигать такого уровня технологического развития, при котором плоды её деятельности сравнятся по степени сложности с наблюдаемой нами Вселенной. В таком случае, по Бострому, «базовая реальность» должна быть единственной, а космологических симуляций окажется настолько много, что они, возможно, даже напоминали бы Мультивселенную. Соответственно, вероятность, что мы живём в такой симуляции, несравнимо выше, чем вероятность нашего обитания в базовой реальности.

Полномасштабные симуляции Вселенной

Картина эта не настолько умозрительная, как кажется — ведь мы уже сегодня активно изучаем Вселенную путём моделирования, так как располагаем достаточными вычислительными мощностями.

Это суперкомпьютер Mira, третий по мощности в мире по состоянию на 2012 год, находится в Аргоннской национальной лаборатории в США. В сентябре 2012 года на нём была запущена полномасштабная модель эволюции галактик, в которой их развитие должно было уложиться в две недели. Именно начальный этап эволюции галактик сложнее всего смоделировать, и, хотя первые попытки такого рода предпринимались ещё в начале XXI века, первые «искусственные галактики» не выдерживали никакой критики, так как напоминали плотные пузыри, наполненные звёздами, а не диски со спиральными рукавами. Реалистичные спиральные галактики впервые удалось получить только в 2015 году в рамках симуляции BlueTides. Именно в этой симуляции в центрах галактик были размещены сверхмассивные чёрные дыры, а на окраинах спиральных дисков — облака тёмной материи. В рамках этой же серии экспериментов удалось подобрать такую частоту возникновения сверхновых и так распределить их в пространстве, чтобы образующиеся звёзды примерно соответствовали диаграмме Герцшпрунга‑Рассела, а набор химических элементов — таблице Менделеева. Вот пример подобной симуляции:

Так возникла целая научная дисциплина, именуемая «числовой космологией» (а также появился соответствующий софт), но рассмотрение этой науки выходит за рамки данного поста. Отметим только, что к началу второго десятилетия XXI века мы вполне успешно создаём космологические модели с эмерджентным временем, а также корректируем их методом тонкой настройки. Играем в те самые игры, о которых 20 лет назад теоретизировал Бостром.

Но далее напрашивается вопрос к Бострому: а зачем же населять компьютерную симуляцию Вселенной разумными существами, в особенности «заводить» их всего на одной из миллионов планет, на той самой, которая также населена разнообразными неразумными существами? Какова в принципе вычислительная мощность такого компьютера, на котором можно было бы эмулировать сознание? В своей статье Бостром берётся оценить этот показатель, исходя из того, сколько вычислительной мощности требуется на репликацию лоскута хорошо изученной нервной ткани in silico. В качестве такого образца он берёт участок сетчатки и, экстраполируя данные на весь мозг, получает цифру в ~10 14 операций в секунду для эмуляции одного человеческого мозга. Далее он оговаривается, что это скорее нижняя оценка, так как, если модель будет учитывать ещё и последовательности срабатывания синапсов, а также ветвление дендритов, цифра вполне возрастает до ~10 16 ‐10 17 операций в секунду. Иными словами, на моделирование человеческого сознания (во множестве экземпляров) уходит едва ли не больше вычислительных ресурсов, чем на моделирование целой Вселенной. Поэтому достаточно странно, что предполагаемая симуляция Вселенной, в которой мы обитаем, дополнительно нагружена никак не менее сложной симуляцией человеческого сознания, но все известные экземпляры сознания в этой модели сосредоточены всего на одной планете в одной звёздной системе. Кстати, знаменитый физик Фрэнк Вильчек, лауреат Нобелевской премии за 2004 год, также указывал, что наша Вселенная содержит слишком много избыточной сложности, чтобы быть компьютерной симуляцией.

В поисках артефактов симуляции

В начале 2020-х теорию Бострома пытались исследовать в статистической плоскости и с точки зрения правдоподобия по Байесу. Среди таких работ отдельно отмечу статью Дэвида Киппинга из Центра вычислительной астрономии при Колумбийском университете. Исходя из выкладок Киппинга, вероятность нашего обитания в симуляции — 50/50. Но есть и ещё один способ найти лазейку, которая выдавала бы, что мы живём в симуляции — поискать артефакты (изъяны) модели, которые выдавали бы присутствие «железа» — процессора, на котором выполняются алгоритмы. Вот вероятные свойства такого артефакта:

  • Это дополнительный компонент, присутствующий в любой операции. На него не влияет масштаб переменных, над которыми производятся операции, и он не отражается на работе симуляции, пока не будет доведён до максимума.
  • Соответственно, в симулированной Вселенной этот артефакт воспринимается как некий верхний предел.
  • Этот артефакт невозможно объяснить в терминах физических законов, действующих во Вселенной. Он должен приниматься по умолчанию.
  • Эффект этого артефакта абсолютен и должен проявляться без исключений.

В нашей Вселенной всем свойствам такого артефакта соответствует скорость света. Если бы мы жили в компьютерной игре, то предельность скорости света означала бы, что в нашей модели за секунду может «отрендериться» лишь область пространства не более 300 000 километров в диаметре. Другая трактовка — только в таком блоке пространства могут нормально (без искажения) действовать все физические законы, применяться все переменные. То есть, сфера диаметром 300 000 километров пространства обрабатывается за один такт процессора.

Другим артефактом такого рода может быть схлопывание квантовой функции в момент наблюдения при эксперименте с двумя щелями. Этот вариант проверки симуляционной гипотезы подробно исследован в статье Тома Кэмпбелла (Калифорнийский технологический институт) и его соавторов. Кэмпбелл полагает, что, если наша реальность является виртуальной, максимальная экономия вычислительной мощности при рендеринге должна выглядеть именно так. Мы отображаем только тот из возможных вариантов попадания частицы, который известен по завершении операции, а все прочие варианты при этом не реализуются, но, возможно, кэшируются до следующей операции.

Заключение и несколько слов о лженауке

При всей интуитивности и привлекательности приведённых наблюдений они, к сожалению, непроверяемы и нефальсифицируемы. Как в картине Уилера, так и в картине Бострома, а также в других приведённых здесь выкладках подразумевается, что наблюдаемую Вселенную можно описать не только на языке физических законов, но и в контексте некого базового алгоритма, относительно которого эти законы эмерджентны. Возможно, теорема о квантовом несокрытии информации — первый шаг к вычислению информационного содержания отдельных элементарных частиц, и развитие квантовых компьютеров рано или поздно позволит программировать и создавать элементарные частицы с заданными свойствами, но современные квантовые компьютеры ещё слишком далеки от прогона любых компьютерных моделей, тем более — от тестирования цифровой физики. Сабина Хоссенфельдер, физик‑теоретик из Центра по изучению тяжёлых ионов им. Гельмгольца подробно разбирает умозрительность симуляционной гипотезы. С Хоссенфельдер сложно поспорить, так как в рассмотренной гипотезе налицо тяжёлые признаки «разумного замысла» и нашей одержимости игроманией. Но мне кажется, что скепсис Хоссенфельдер вполне может быть пересмотрен, если когда-нибудь мы научимся воспроизводить в реальности небольшие «песочницы» с произвольно корректируемыми законами физики, которые могли бы быть выражены в терминах уилеровских информационно-физических моделей.

  • виртуальная реальность
  • космология
  • тонкая настройка
  • разум
  • Научно-популярное
  • Искусственный интеллект
  • Физика
  • Астрономия

ИИ создал 3D-симуляцию Вселенной, но ученые не знают, как это получилось / наука и техника :: ИИ :: нейронная сеть :: Искусственный Интеллект

Пока человечество еще не научилось путешествовать на миллиарды лет в прошлое, у нас не так много способов изучить историю родного мира и удивительной Вселенной, в которой мы живем. Одним из самых надежных способов узнать больше о прошлом космоса является компьютерное моделирование, с помощью котором можно создать весьма точные симуляции произошедших событий.

Большинство этих симуляций попадают в одну из двух категорий: медленная, но более точная или быстрая, но менее точная. Однако теперь международная команда исследователей создала ИИ, который может генерировать высокоточные трехмерные симуляции процессов, происходящих во Вселенной, и делать это быстро — даже когда ученые интегрируют в систему новые данные, которым искусственный интеллект еще не был обучен.

«Это все равно, что научить программу распознавать на фотографиях кошек и собак, а затем внезапно обнаружить, что она так же легко узнает на фото слона», поясняет исследователь Ширли Хо в пресс-релизе. «Никто толком не понимает, как это происходит, и нам еще лишь предстоит разгадать эту загадку».

Сама система получила название Deep Density Displacement Model (D3M), и принцип ее работы описан на страницах Proceedings of the National Academy of Sciences.

Цель состояла в том, чтобы научить D3M моделировать гравитацию, формирующую вселенную. Для этого ученые заложили в систему свыше 8000 симуляций, сфокусированных вокруг гравитации и созданных другими высокоточными симуляторами. Ранее системе нужно было до 300 вычислительных часов на создание одной лишь операции, однако после улучшения D3M смогла совершать собственное моделирование участка Вселенной протяженностью 600 миллионов световых лет… всего за 30 миллисекунд. Звучит как фантастика, правда? Но это еще не конец: оказалось, что полученные в результате симуляции были намного более точными, чем у большинства уже существующих систем, которые тратят на подобные (и весьма условные) модели космоса до 2 минут.

В результате эффективность системы удивила даже ее авторов. Оказалось, что скорость — это не главное достоинство, а лишь приятный бонус. Главным же плюсом новой системы стало то, что она с высокой точностью моделировала даже те данные, которые не были заложены изначально. Так, введя в систему понятие «темная материя» и настроив ее процент в заданном регионе космоса, исследователи получили детальную картину космической «эволюции».

Как оказалось, нам еще предстоит узнать многое не только о том, как появился привычный нам мир, но также о том, как работают нами же спроектированные программы. «Наша модель станет отличной испытательной площадкой для прочих ИИ», заявляет Хо.

Искусственный Интеллект,ИИ,нейронная сеть,наука и техника,песочница

Подробнее

Искусственный Интеллект,ИИ,нейронная сеть,наука и техника,песочница

ИИ создал симуляцию Вселенной, но ученые не знают, как он работает

ИИ создал симуляцию Вселенной, но ученые не знают, как он работает

Астрофизики впервые использовали искусственный интеллект для создания 3D-симуляции Вселенной. Результаты оказались настолько точными и надежными, что создатели не до конца уверены в том, как это работает, сообщает Naked science.

Ученые использовали Deep Density Displacement Model (D 3 M), которую создали Центра вычислительной астрофизики Института Флэтайрон в Нью-Йорке. Точность и скорость работы алгоритма не была неожиданностью для исследователей. Удивило их то, что он смог точно имитировать, как будет выглядеть Вселенная, если изменить, например, процент темной материи. Хотя при обучении ИИ не получал никаких данных о том, что будет, если изменить этот параметр.

Ученые «скормили» нейронной сети D 3 M более 8000 различных симуляций Вселенной, которые создала другая программа. В результате, когда исследователи запустили новый алгоритм, он смог воссоздать модель Вселенной диаметром в 600 миллионов световых лет за 30 миллисекунд. При этом его погрешность составила менее 3% по сравнению с программами, которые потратили на процесс более 300 часов.

Исследователи до сих пор не знают, как искусственному интеллекту удалось создать симуляцию всего за несколько миллисекунд. Вероятно, он просто соединил несколько моделей в одну, но так ли это, ученым еще предстоит выяснить.

Подписывайтесь на наш Telegram-канал с новостями технологий и культуры.

Ранее искусственный интеллект обнаружил лекарство от малярии в зубной пасте. В ходе исследования ученые подключили искусственный интеллект для анализа того, как возбудитель, малярийный плазмодий, взаимодействует с триклозаном, антибиотиком из обычной «лечебной» зубной пасты. Этот антибиотик, как объясняют биологи, подавляет размножение бактерий, мешая работе одного из ключевых ферментов, который отвечает за составление жировых молекул, необходимых для нормальной работы клеточных стенок микробов.

Ии создал симуляцию вселенной но ученые не понимают как это получилось

Hitech logo

ИИ создал сверхточную модель Вселенной. И ученые не понимают как

Георгий Голованов 27 июня 2019 г., 14:30

TODO:

Георгий Голованов 27 июня 2019 г., 14:30

Впервые астрофизики использовали искусственный интеллект для создания комплексной 3D-модели Вселенной. Результат был получен настолько быстро и оказался настолько точным, что разработчики пока не понимают, как это произошло. Их удивила способность ИИ делать с гигантским объемом данных то, чему систему не учили.

Самые интересные технологические и научные новости выходят в нашем телеграм-канале Хайтек+. Подпишитесь, чтобы быть в курсе.

Созданная учеными из Центра вычислительной астрофизики Нью-Йорка модель Deep Density Displacement может точно предсказать, как будет выглядеть космос, если изменить кое-какие параметры — например, концентрацию темной материи. Она тратит на обсчет симуляции несколько миллисекунд, в то время как обычные «быстрые» симуляции требуют нескольких минут. Кроме того, она оказалась поразительно точной, пишет Science Daily.

Такие компьютерные модели, как D3M — важный научный инструмент для астрофизиков-теоретиков. С их помощью ученые понимают, как могла бы развиваться Вселенная при различных обстоятельствах, например, если бы количество темной энергии, заставляющей ее расширяться, менялось бы со временем.

Такие исследования требуют проведения тысяч симуляций, и быстродействующая и точная программа способна сократить срок исследования в разы. И теперь она есть.

D3M моделирует влияние гравитации на Вселенную. Ученые выбрали гравитацию, потому что это наиболее важная сила, когда речь заходит об эволюции космоса в долгосрочной перспективе. Наиболее точные методы расчета влияния силы притяжения на каждую из миллиардов частиц за все время существования Вселенной требуют около 300 вычислительных часов на одну симуляцию. Более быстрые методы могут справиться за две минуты, но точность при этом падает.

В ходе обучения ученые загрузили в нейросеть D3M 8000 различных симуляций от самых высокоточных моделей. Когда учеба завершилась, D3M сама провела симуляцию кубической Вселенной со стороной 600 млн световых лет и сравнила результаты с самыми медленными (сотни часов вычислений) и самыми быстрыми (пара минут) моделями. D3M справилась за 30 мс с относительной погрешностью 2,8%. У самой быстрой модели этот показатель равен 9,3%.

Но не скорость или точность проекта, названного для краткости D3M, поразили ученых больше всего.

Настоящий шок вызвала у них возможность модели предсказать поведение системы при изменившихся параметрах — даже несмотря на то, что она не получала никаких данных, в которых эти параметры были бы иными.

«Этот как учить программу распознавания изображений по картинкам с котами и собаками, и выяснить, что она узнает слонов, — объяснила Ширли Хо, руководитель проекта. — Никто не знает, как у нее это получилось. Эту загадку нам лишь предстоит разгадать».

Нейросеть PlaNet, разработанная в Google и DeepMind, создает динамические модели мира на основе визуальных данных, что позволяет ей разобраться в таких абстрактных понятиях, как скорость объектов. Некоторые задачи она решает в 50 раз эффективней конкурентов.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *