DeepMind решает квантовую химию


Наиболее известные применения нейронных сетей — это искусственный интеллект — зрение, речь и игры, — но у них есть серьезные приложения в науке и технике. DeepMind от Google обучил нейронную сеть решать уравнение Шредингера, и это потенциально большие новости.

Любой физик скажет вам, что химия — это всего лишь раздел прикладной физики. Честно говоря, они скажут вам, что практически любой другой предмет — это раздел прикладной физики, но в случае химии они ближе к правоте. В основе химических реакций лежат электроны и то, как они вращаются вокруг атомов и молекул. Различия в энергиях определяют, как вещи реагируют, а орбиты электронов в молекулах определяют форму и, следовательно, свойства вещества.
В принципе, с химией легко. Все, что вам нужно сделать, это написать уравнение Шредингера для реагентов и решить его. На практике это невозможно, потому что уравнения Шредингера многих тел очень трудно решить. Фактически, единственный атом, который мы можем точно решить, — это атом водорода с одним протоном и одним электроном. Все остальные атомы решаются приближениями, называемыми методами возмущений. Что касается молекул — ну, мы действительно не сбились с пути, и квантовые химики потратили десятилетия, пытаясь усовершенствовать приближения, которые быстро вычислялись и давали точные результаты. Хотя прогресс был впечатляющим, многие практические расчеты все еще недоступны, и в этих ситуациях химия возвращается к догадкам и интуиции.
Нейронные сети можно рассматривать как аппроксиматоры функций. То есть вы даете нейронной сети функцию для обучения, и она будет. Вы представляете входные данные, x, а затем тренируете его для получения f (x), где x в данном случае означает множество различных переменных. Идея состоит в том, что он учится производить известные значения f (x), то есть те, которые вы даете ему в качестве обучающего набора, но ему также удается давать хорошие результаты, когда вы даете ему x, которого он никогда не видел.
Обычно мы говорим, что нейронные сети хорошо обобщают. Точнее, мы надеемся, что они это сделают, потому что это означает, что, когда они были обучены распознавать кошку, они все еще могут распознавать другую кошку, которой не было в обучающей выборке. В приложениях AI кажется разумным, что каким-то образом сеть извлекла сущность «кошки» и теперь может делать обобщения. В более абстрактных приближениях функций труднее представить себе «кошку» в уравнениях. В данном случае сеть, кажется, действительно извлекла кошку из уравнения Шредингера — и я оставляю вас шутить сами …

Что именно делает нейронная сеть, так это находит приближенную многоэлектронную волновую функцию, которая удовлетворяет статистике Ферми-Дирака, то есть волновая функция является антисимметричной. Все, что нужно, — это начальные конфигурации электронов — сколько их и т. Д. — и нейронная сеть затем выведет волновую функцию для любой конфигурации. Сеть была обучена находить приближение к волновой функции основного состояния путем минимизации ее энергетического состояния. Основное состояние по определению — это состояние с наименьшей энергией, и сеть меняла параметры, пока не достигла минимума.
Как говорится в документе:
«Здесь мы представляем новую архитектуру глубокого обучения, фермионную нейронную сеть, в качестве мощного анзаца волновой функции для многоэлектронных систем. Фермионная нейронная сеть способна достичь точности, превосходящей другие вариационные анзацы Монте-Карло, для множества атомов и небольших молекул. Не используя никаких данных, кроме положений атомов и зарядов, мы предсказываем кривые диссоциации молекулы азота и водородной цепи, двух сложных сильно коррелированных систем, со значительно более высокой точностью, чем метод связанных кластеров, который широко считается золотым стандартом квантовой химии ».
Азот — сложная молекула из-за существования тройной связи, которую необходимо разорвать.
«Для сети Fermi весь код был реализован в TensorFlow, и каждый эксперимент проводился параллельно на 8 графических процессорах V100. При меньшем размере пакета мы могли обучаться на одном графическом процессоре, но сходимость была значительно медленнее. всего за 2 дня обучения с 8 графическими процессорами, в то время как на одном графическом процессоре потребовалось несколько недель »
В сети примерно 70 000 параметров, и реальный вопрос заключается в том, какое обобщение здесь происходит? Сеть обучается только один раз, и после этого кажется, что она способна находить приближенные волновые функции, которые дают хорошие результаты для предсказанных свойств.
«Важно отметить, что одна сетевая архитектура с одним набором параметров обучения смогла достичь высокой точности в каждой исследуемой системе».
Насколько мы можем доверять нейронной сети, которую просто не понимаем? Это одно из возможных опасений, если полагаться на эти результаты. Однако они, вероятно, слишком хороши, чтобы просто игнорировать их, потому что мы не понимаем, как сеть строит свои оптимальные функции. В заключение в статье:
«Это может принести квантовой химии такой же быстрый прогресс, который глубокое обучение позволило во многих областях искусственного интеллекта».


Добавить комментарий