Современное моделирование, проводившееся в Национальном научно-исследовательском вычислительном центре энергетических исследований (NERSC) Национальной лаборатории Лоуренса Беркли в течение двухлетнего периода, помогает физикам лучше понять, что влияет на поведение плазменной турбулентности, вызванной интенсивным нагревом. необходимо для создания термоядерной энергии. Это исследование дало интересные ответы на давние вопросы о потерях тепла в плазме, которые ранее мешали прогнозированию производительности термоядерных реакторов и могли бы помочь проложить путь к этому альтернативному источнику энергии.
Ключом к запуску термоядерного синтеза является поддержание достаточно высокой температуры и плотности, чтобы атомы в реакторе могли преодолеть взаимное отталкивание и образовать гелий. Но одним побочным эффектом этого процесса является турбулентность, которая может увеличить скорость потери тепла плазмой, значительно ограничивая результирующий выход энергии. Поэтому исследователи работают над тем, чтобы точно определить, что вызывает турбулентность, и как ее контролировать или, возможно, устранить.
Поскольку термоядерные реакторы чрезвычайно сложны и дороги в проектировании и строительстве, суперкомпьютеры использовались более 40 лет для моделирования условий для создания более совершенных конструкций реакторов. NERSC - это научно-исследовательский центр Министерства энергетики США, который поддерживает исследования в области термоядерного синтеза с 1974 года.
Одним препятствием на пути к термоядерному синтезу является то, что на сегодняшний день компьютерные модели часто не могут точно предсказать, как турбулентность будет вести себя внутри реактора. Фактически, уже давно существуют различия между предсказаниями и экспериментальными результатами в экспериментах по термоядерному синтезу при изучении того, как турбулентность способствует потерям тепла в замкнутой плазме.
Теперь исследователи из Центра плазменной науки и термоядерного синтеза Массачусетского технологического института в сотрудничестве с коллегами из Калифорнийского университета в Сан-Диего (UCSD) и General Atomics нашли решение этой проблемы. Выполняя многомасштабные симуляции с высоким разрешением, команда смогла одновременно разрешить несколько нестабильностей турбулентности, которые ранее рассматривались в отдельных симуляциях. Серия этих многомасштабных симуляций, запущенных в системе Эдисона NERSC, показала, что взаимодействия между турбулентностью в мельчайшем масштабе (электронная) и турбулентностью в 60 раз большем масштабе (ионная) могут объяснить загадочное несоответствие между теоретическими предсказаниями и экспериментальные наблюдения тепловых потерь.
Выводы, опубликованные 17 декабря 2015 года в журнале Nuclear Fusion, могут значительно улучшить наши знания о том, что на самом деле происходит внутри текущих исследовательских экспериментов на токамаках, которые существуют по всему миру, и в будущих экспериментальных реакторах, строящихся или планируемых, исследователи принято к сведению.
«В течение очень долгого времени прогнозы ведущих теорий не могли объяснить, сколько тепла теряется электронами в термоядерной плазме», - сказал Натан Ховард, научный сотрудник Центра плазмы и термоядерного синтеза Массачусетского технологического института. ведущий автор статьи о ядерном синтезе. «Вы применяете свои лучшие теории, но они занижают количество тепловых потерь, исходящих от электронов. В этой конкретной работе мы показали, что, используя связанную модель, где вы одновременно фиксируете как крупномасштабную, так и мелкомасштабную турбулентность - вы действительно можете воспроизвести экспериментальные потери тепла электронами, отчасти потому, что, по-видимому, существует сильное взаимодействие между крупномасштабной и мелкомасштабной турбулентностью, которое ранее не было хорошо изучено».
Более 100 миллионов процессорных часов
Для этого требуется огромное количество компьютерного времени для запуска симуляций, охватывающих такие широко разрозненные масштабы, подчеркнул он. Все исследование заняло от 100 до 120 миллионов процессорных часов на Edison, отметил Ховард; каждая симуляция требовала около 15 миллионов часов вычислений с использованием 17 000-30 000 процессоров NERSC, что сделало Ховарда крупнейшим пользователем вычислительного времени NERSC в 2014 году. Использование обычного MacBook Pro для запуска полного набора из шести симуляций. на то, что команда выполнила, по его оценке, ушло бы около 3000 лет.
«Я провел одно моделирование целиком в 36-часовых заданиях, и мне пришлось перезапускать его около 24 раз, чтобы оно работало достаточно долго», - объяснил он. «И это без учета времени, которое потребовалось для прохождения заданий через очередь на суперкомпьютере».
Для моделирования исследователи использовали данные экспериментов, проведенных в 2012 году на токамаке Alcator C-Mod Массачусетского технологического института. В многомасштабном моделировании использовалась гирокинетическая модель, реализованная кодом GYRO, разработанным Джеффом Кэнди из General Atomics. Ключевые входы в коды моделирования были рассчитаны на основе экспериментальных данных; затем результаты моделирования сравнивались с экспериментально полученными измерениями.
«На самом деле мы можем воспроизвести несколько аспектов эксперимента с помощью наших симуляций, что важно, потому что дает вам некоторую уверенность в том, что то, что вы видите в симуляциях, на самом деле соответствует реальности», - сказал Ховард.
Неожиданные находки
В течение более десяти лет физики ожидали, что, поскольку турбулентные «завихрения», связанные с ионами, намного больше, чем связанные с электронами, завихрения электронного масштаба будут просто размыты гораздо большее турбулентное движение ионов. И даже если меньшие завихрения переживут более крупную турбулентность ионного масштаба, их крошечный размер предполагает, что их влияние на потерю тепла будет незначительным.
Но новые данные показывают, что такое мышление не всегда верно. Исследователи обнаружили, что две шкалы турбулентности действительно могут сосуществовать, и когда они это делают, они могут взаимодействовать друг с другом настолько сильно, что невозможно точно предсказать общие потери тепла, если только не использовать моделирование, которое одновременно разрешает обе шкалы. На самом деле, крошечные завихрения, создаваемые электронами, не только не устраняются крупномасштабной турбулентностью, но и по-прежнему четко видны в результатах, вытянутые в длинные ленты, которые обвивают вакуумную камеру в форме пончика, характерную для токамака-реактора. Несмотря на температуру внутри плазмы в 100 миллионов градусов по Цельсию, эти лентообразные завихрения или завихрения сохраняются достаточно долго, чтобы влиять на то, как тепло рассеивается от турбулентной массы - определяющий фактор того, сколько синтеза может действительно происходить внутри реактора.
«Это первый раз, когда многие из этих очень больших гипотез были подтверждены и продемонстрированы, что они работают в соответствующих условиях плазмы», - сказал Крис Холланд, младший научный сотрудник Центра энергетических исследований в Калифорнийском университете и соавтор. -автор статьи о ядерном синтезе.
Забегая вперед, мы уже ведем работу по модификации числовых алгоритмов и алгоритмов распараллеливания в GYRO, чтобы он мог оптимально использовать архитектуры со многими интегрированными ядрами (например, Cori Phase II), а также сложное аппаратное обеспечение ускорителя на новые и будущие экзафлопсные платформы.«Мы полностью перерабатываем код GYRO, чтобы воспользоваться преимуществами этих мощных, но сложных новых архитектур и повысить точность моделирования физики», - сказала Кэнди.
Задача, над которой мы сейчас работаем, заключается в том, чтобы выяснить, как заставить сложные симуляции, которые требуют значительного объема памяти и пропускной способности, работать эффективно и хорошо масштабироваться на этих новых платформах, чтобы мы могли продолжать изучать еще больше. сложные сценарии», - добавил Холланд. «Я думаю, что это проблема, которую можно решить, и если мы добьемся успеха, это откроет захватывающие возможности для новых способов моделирования, изучения большего масштаба и более всесторонних прогнозов для ИТЭР и других типов реакторов. Если мы сможем найти способ использовать новое поколение платформ и сделать эти симуляции более рутинными, тогда это станет действительно захватывающим инструментом».