{"componentChunkName":"component---src-pages-projects-math-js","path":"/projects/math/","result":{"data":{"ru_projects":{"edges":[{"node":{"html":"

Одной из задач, решаемых группой, является популяризация и развитие метода статистической регуляризации, созданного В.Ф. Турчинным в 70-х годах XX века.

\n

Типичной некорректной обратной задачей, возникающей в физике, является уравнение Фредгольма I рода:

\nf(y)=abdxK(x,y)φ(x)f(y) = \\int \\limits_a^b dx K(x,y)\\varphi(x)f(y)=abdxK(x,y)φ(x)\n

Фактически, это уравнение описывает следующее: аппаратная функция прибора K(x,y)K(x,y)K(x,y) действует на иследуемый спектр или иной входной сигнал φ\\varphiφ, в результате чего исследователь наблюдает выходной сигнал f(y)f(y)f(y). Целью исследователя является востановить сигнал φ\\varphiφ по известным f(y)f(y)f(y) и K(x,y)K(x,y)K(x,y). Казалось бы, восстановление сигнала не является сложной задачей, поскольку уравнение Фредгольма имеет точное решение. Но уравение Фредгольма некорректно - бесконечно малое изменение начальных условий приводит к конечному изменению решения. Таким образом, наличие шумов, присутствущих в любом эксперименте, обесценивает попытки решить это уравение точно.

\n

Теория

\n

Рассмотрим некую алгебраизацию уравнения Фредгольма:

\nfm=Kmnφnf_m = K_{mn}\\varphi_nfm=Kmnφn\n

С точки зрения математической статистики мы должны должны оценить φ\\vec{\\varphi}φ по реализации f\\vec{f}f, зная плотность вероятности для f\\vec{f}f и содержимое матрицы KKK. Действуя в духе теории принятия решений, мы должны выбрать вектор-функцию S\\vec{S}S, определяющую φ\\vec{\\varphi}φ на основе f\\vec{f}f и называемую стратегией. Для того, чтобы определить, какие стратегии более оптимальные, мы введем квадратичную функцию потерь:

\nL(φ^,S)=(φ^S)2,L(\\hat{\\varphi},\\vec{S}) = (\\hat{\\varphi}-\\vec{S})^2,L(φ^,S)=(φ^S)2,\n

где φ^\\hat{\\varphi}φ^ — наилучшее решение. Согласно баейсовскому подходу рассмотрим φ\\vec{\\varphi}φ как случайную переменную и переместим нашу неопределенность о φ\\vec{\\varphi}φ в априорную плотность P(φ)P(\\vec{\\varphi})P(φ), выражающую достоверность различных возможных законов природы и определяемую на основе информации, сущетсвующей до проведения эксперимента. При таком подходе выбор оптимальной стратегии основывается на минимизации апостериорного риска:

\nrS(φ)EφEf[L(φ,S)φ]r_{\\vec{S}}(\\vec{\\varphi}) \\equiv E_{\\vec{\\varphi}}E_{\\vec{f}}[L(\\vec{\\varphi},\\vec{S})|\\vec{\\varphi}]rS(φ)EφEf[L(φ,S)φ]\n

Тогда оптимальная стратегия в случае квадратичной функции потерь хорошо известна:

\nSnopt=E[φnf]=φnP(φf)dφS^{opt} _n= E[\\varphi_n|\\vec{f}] = \\int \\varphi_n P(\\vec{\\varphi}|\\vec{f})d\\vec{\\varphi}Snopt=E[φnf]=φnP(φf)dφ\n

Апостерионая плотность P(φf)P(\\vec{\\varphi}|\\vec{f})P(φf) определяется по\nтеореме Баейса:

\nP(φf)=P(φ)P(fφ)dφP(φ)P(fφ)P(\\vec{\\varphi}|\\vec{f})= \\frac{P(\\vec{\\varphi})P(\\vec{f}|\\vec{\\varphi})}{\\int d\\vec{\\varphi}P(\\vec{\\varphi})P(\\vec{f}|\\vec{\\varphi})}P(φf)=dφP(φ)P(fφ)P(φ)P(fφ)\n

Кроме того, такой подход позволяет определить дисперсию полученного решения:

\nσn2=(φnSnopt)2P(φf)dφ\\left\\langle \\sigma_n^2 \\right\\rangle = \\int (\\varphi_n - S^{opt}_n)^2 P(\\vec{\\varphi}|\\vec{f})d\\vec{\\varphi}σn2=(φnSnopt)2P(φf)dφ\n

Мы получили решение, введя априорную плотность P(φ)P(\\vec{\\varphi})P(φ). Можем ли мы сказать, что-либо о том мире функций φ(x)\\varphi(x)φ(x), который задается априорной плотностью? Если ответ на этот вопрос отрицательный, то мы должны будем принять все возможные φ(x)\\varphi(x)φ(x) равновероятными и вернуться к нерегуляризованному решению. Таким образом, мы должны ответить на этот вопрос положительно. Именно в этом заключается метод статистической регуляризации — регуляризация решения за счет введения дополнительной априорной информации о φ(x)\\varphi(x)φ(x). Если исследователь уже обладает какой-либо априорной информацией (априорной плотностью P(φ)P(\\vec{\\varphi})P(φ)), он может просто вычислить интеграл и получить ответ. В случае, если такой информации нет, в следующем параграфе описывается, какой минимальной информацией может обладать исследователь и как её использовать для получения регулязованного решения.

\n

Априоная информация

\n

Как показали британские ученые, во всем остальном мире любят дифференцировать. Причем, если математик будет задаваться вопросами о правомерности этой операции, то физик оптимистично верит, что законы природы описываются “хорошим” функциями, то есть гладкими. Иначе говоря, он назначает более гладким φ(x)\\varphi(x)φ(x) более высокую априорную плотность вероятности. Так давайте попробуем ввести априорную вероятность, основанную на гладкости. Для этого мы вспомним, что введение априорной иформации — это некоторое насилие над миром, принуждающее законы природы выглядеть удобным для нас образом. Это насилие следует свести к минимуму, и, вводя априорную плотность вероятности, необходимо, что бы информация Шеннона относительно φ(x)\\varphi(x)φ(x), содержащаяся в P(φ)P(\\vec{\\varphi})P(φ), была минимальной. Формализуя выше сказанное, выведем вид априорной плотности, основанной на гладкости функции. Для этого мы будем искать условный экстремум информации:

\nI[P(φ)]=lnP(φ)P(φ)dφminI[P(\\vec{\\varphi})] = \\int \\ln{P(\\vec{\\varphi})} P(\\vec{\\varphi}) d\\vec{\\varphi} \\to minI[P(φ)]=lnP(φ)P(φ)dφmin\n

При следующих условиях:

\n
    \n
  1. Условие на гладкость φ(x)\\varphi(x)φ(x). Пусть Ω\\OmegaΩ — некоторая матрица, характеризующая гладкость функции. Тогда потребуем, чтобы достигалось определённое значение функционала гладкости:
  2. \n
\n(φ,Ωφ)P(φ)dφ=ω\\int (\\vec{\\varphi},\\Omega\\vec{\\varphi}) P(\\vec{\\varphi}) d\\vec{\\varphi} = \\omega(φ,Ωφ)P(φ)dφ=ω\n

Внимательный читатель должен задать вопрос об определении значения параметра ω\\omegaω. Ответ на него будет дан далее по тексту.

\n
    \n
  1. Нормированность вероятности на единицу:
  2. \n
\nP(φ)dφ=1\\int P(\\vec{\\varphi}) d\\vec{\\varphi} = 1P(φ)dφ=1\n

При этих условиях доставлять минимум функционалу будет следующая функция:

\nPα(φ)=αRg(Ω)/2detΩ1/2(2π)N/2exp(12(φ,αΩφ))P_{\\alpha}(\\vec{\\varphi}) = \\frac{\\alpha^{Rg(\\Omega)/2}\\det\\Omega^{1/2}}{(2\\pi)^{N/2}} \\exp(-\\frac{1}{2} (\\vec{\\varphi},\\alpha\\Omega\\vec{\\varphi}))Pα(φ)=(2π)N/2αRg(Ω)/2detΩ1/2exp(21(φ,αΩφ))\n

Параметр α\\alphaα cвязан с ω\\omegaω, но поскольку у нас нет собственно информации о конкректных значениях функционала гладкости, выяснять, как именно он связан, бессмысленно. Что же тогда делать с α\\alphaα, спросите вы? Здесь перед вами расрываются три пути:

\n
    \n
  1. подбирать значение параметра α\\alphaα вручную, и тем самым перейти к регуляризации Тихонова
  2. \n
  3. усреднить по всем возможным α\\alphaα, предпологая все возможные α\\alphaα равновероятными
  4. \n
  5. выбрать наиболее вероятное α\\alphaα по его апостериорной плотности вероятности P(αf)P(\\alpha|\\vec{f})P(αf). Этот подход верен, если мы предполагаем, что в экспериментальных данных содержится достаточно информации об α\\alphaα.
  6. \n
\n

Первый случай нам мало интересен. Во втором случае мы получим следующую формулу для решения:

\nφi=dφφiP(fφ)dαP(α)αRg(Ω)2exp(α2(φ,Ωφ))dφP(fφ)dαP(α)αRg(Ω)2exp(α2(φ,Ωφ))\\left\\langle \\varphi_i \\right\\rangle = \\frac{\\int d\\varphi\\, \\varphi_i P(f|\\varphi) \\int\\limits d\\alpha\\,P(\\alpha) \\alpha^{\\frac{Rg(\\Omega)}{2}} \\exp(-\\frac{\\alpha}{2} (\\vec{\\varphi},\\Omega\\vec{\\varphi}))}{\\int d\\varphi P(f|\\varphi) \\int\\limits d\\alpha\\,P(\\alpha) \\alpha^{\\frac{Rg(\\Omega)}{2}} \\exp(-\\frac{\\alpha}{2} (\\vec{\\varphi},\\Omega\\vec{\\varphi}))}φi=dφP(fφ)dαP(α)α2Rg(Ω)exp(2α(φ,Ωφ))dφφiP(fφ)dαP(α)α2Rg(Ω)exp(2α(φ,Ωφ))\n

Третий случай будет рассмотрен в следующем разделе на примере гауссовых шумов в эксперименте.

\n

Случай гауссовых шумов

\n

Случай, когда ошибки в эксперименте распределены по Гауссу, замечателен тем, что можно получить аналитическое решение нашей задачи. Решение и его ошибка будут иметь следующий вид:

\nφ=(KTΣ1K+αΩ)1KTΣ1Tf\\vec{\\varphi} = (K^T\\Sigma^{-1}K +\\alpha^*\\Omega)^{-1}K^T\\Sigma^{-1^{T}}\\vec{f}φ=(KTΣ1K+αΩ)1KTΣ1Tf\nΣφ=(KTΣ1K+αΩ)1\\Sigma_{\\vec{\\varphi}} = (K^T\\Sigma^{-1}K+\\alpha^*\\Omega)^{-1}Σφ=(KTΣ1K+αΩ)1\n

где Σ\\SigmaΣ - ковариационная матрица многомерного распределения Гаусса, α\\alpha^*α - наиболее вероятное значение параметра α\\alphaα, которое определяется из условия максимума апостериорной плотности вероятности:

\nP(αf)=C39;αRg(Ω)2(KTΣ1K+αΩ)1exp(12fTΣ1KT(KTΣ1K+αΩ)1KTΣ1Tf)P(\\alpha|\\vec{f}) = C39; \\alpha^{\\frac{Rg(\\Omega)}{2}}\\sqrt{|(K^T\\Sigma^{-1}K+\\alpha\\Omega)^{-1}|}\\exp(\\frac{1}{2} \\vec{f}^T\\Sigma^{-1}K^{T}(K^T\\Sigma^{-1}K+\\alpha\\Omega)^{-1}K^T\\Sigma^{-1^{T}}\\vec{f})P(αf)=C39;α2Rg(Ω)(KTΣ1K+αΩ)1exp(21fTΣ1KT(KTΣ1K+αΩ)1KTΣ1Tf)\n

В качестве примера рассмотрим востановление спектра, состоящего из двух гауссовых пиков, которые попали под действие интегрального ядра-ступеньки (функции Хевисайда).

\n\"deconvolution\"/","frontmatter":{"shortTitle":"Обратные задачи","title":"Статистическая регуляризация некорректных обратных задач","id":"deconvolution"}}},{"node":{"html":"\n \n \n
\n
\n \"Under\n
\n
\n

Этот раздел дорабатывается...

\n
","frontmatter":{"shortTitle":"Функции значимости","title":"Оптимальное планирование эксперимента при помощи функций значимости параметров","id":"significance"}}}]},"en_projects":{"edges":[{"node":{"html":"

One of the tasks solved by the group is the popularization and development of the statistical regularization method created by V.F. Turchin in the 70s of the XX century.

\n

A typical incorrect inverse problem that arises in physics is the Fredholm equation of the first kind:

\nf(y)=abdxK(x,y)φ(x)f(y) = \\int \\limits_a^b dx K(x,y)\\varphi(x)f(y)=abdxK(x,y)φ(x)\n

In fact, this equation describes the following: the hardware function of the device K(x,y)K(x,y)K(x,y) acts on the studied spectrum or other input signal φ\\varphiφ, as a result, the researcher observes the output signal f(y)f(y)f(y). The aim of the researcher is to restore the signal φ\\varphiφ from the known f(y)f(y)f(y) and K(x,y)K(x,y)K(x,y). It would seem that signal recovery is not a difficult task, since the Fredholm equation has an exact solution. But the Fredholm equation is incorrect - an infinitesimal change in the initial conditions leads to a final change in the solution. Thus, the presence of noise present in any experiment invalidates attempts to solve this equation for sure.

\n

Theory

\n

Consider a certain algebraization of the Fredholm equation:

\nfm=Kmnφnf_m = K_{mn}\\varphi_nfm=Kmnφn\n

In terms of mathematical statistics, we must evaluateφ\\vec{\\varphi}φ using implementation f\\vec{f}f, knowing the probability density for f\\vec{f}f and matrix KKK content. Acting in the spirit of decision theory, we must choose a vector function S\\vec{S}S, defining φ\\vec{\\varphi}φ on base of f\\vec{f}f and called strategy. In order to determine which strategies are more optimal, we introduce the squared loss function:

\nL(φ^,S)=(φ^S)2,L(\\hat{\\varphi},\\vec{S}) = (\\hat{\\varphi}-\\vec{S})^2,L(φ^,S)=(φ^S)2,\n

where φ^\\hat{\\varphi}φ^ — the best decision. According to the Bayesian approach, we consider φ\\vec{\\varphi}φ as random variable and move our uncertainty about φ\\vec{\\varphi}φ in prior density P(φ)P(\\vec{\\varphi})P(φ), Expressing reliability of the various possible laws of nature and determined on the basis of information prior to the experiment. With this approach, the choice of an optimal strategy is based on minimizing aposterior risk:

\nrS(φ)EφEf[L(φ,S)φ]r_{\\vec{S}}(\\vec{\\varphi}) \\equiv E_{\\vec{\\varphi}}E_{\\vec{f}}[L(\\vec{\\varphi},\\vec{S})|\\vec{\\varphi}]rS(φ)EφEf[L(φ,S)φ]\n

Then the optimal strategy in case of the square loss function is well known:

\nSnopt=E[φnf]=φnP(φf)dφS^{opt} _n= E[\\varphi_n|\\vec{f}] = \\int \\varphi_n P(\\vec{\\varphi}|\\vec{f})d\\vec{\\varphi}Snopt=E[φnf]=φnP(φf)dφ\n

Aposterior density P(φf)P(\\vec{\\varphi}|\\vec{f})P(φf) is determined by the Bayes theorem:

\nP(φf)=P(φ)P(fφ)dφP(φ)P(fφ)P(\\vec{\\varphi}|\\vec{f})= \\frac{P(\\vec{\\varphi})P(\\vec{f}|\\vec{\\varphi})}{\\int d\\vec{\\varphi}P(\\vec{\\varphi})P(\\vec{f}|\\vec{\\varphi})}P(φf)=dφP(φ)P(fφ)P(φ)P(fφ)\n

In addition, this approach allows us to determine the dispersion of the resulting solution:

\nσn2=(φnSnopt)2P(φf)dφ\\left\\langle \\sigma_n^2 \\right\\rangle = \\int (\\varphi_n - S^{opt}_n)^2 P(\\vec{\\varphi}|\\vec{f})d\\vec{\\varphi}σn2=(φnSnopt)2P(φf)dφ\n

We got the solution by introducing a priori density P(φ)P(\\vec{\\varphi})P(φ). Can we say anything about the world of φ(x)\\varphi(x)φ(x) functions, which is defined by a priori density? If the answer to this question is no, we will have to accept all possible φ(x)\\varphi(x)φ(x) equally probable and return to the irregular solution. Thus, we should answer this question positively. This is the statistical regularization method - regularization of the solution by introducing additional a priori information about φ(x)\\varphi(x)φ(x). If a researcher already has some a priori information (a priori density of P(φ)P(\\vec{\\varphi})P(φ)), he can simply calculate the integral and get an answer. If there is no such information, the following paragraph describes what minimal information a researcher can have and how to use it to obtain a regularized solution.

\n

Prior information

\n

As British scientists have shown, the rest of the world likes to differentiate. Moreover, if a mathematician will be asked questions about the validity of this operation, the physicist optimistically believes that the laws of nature are described by \"good\" functions, that is, smooth. In other words, he assigns smoother φ(x)\\varphi(x)φ(x) a higher a priori probability density. So let's try to introduce an a priori probability based on smoothness. To do this, we will remember that the introduction of the a priori probability is some kind of violence against the world, forcing the laws of nature to look comfortable for us. This violence should be minimized, and by introducing an a priori probability density, it is necessary that _ Shannon_'s information regarding φ(x)\\varphi(x)φ(x) contained in P(φ)P(\\vec{\\varphi})P(φ) be minimal. Formalizing the above, let us derive a type of a priori density based on the smoothness of the function. For this purpose, we will search for a conditional extremum of information:

\nI[P(φ)]=lnP(φ)P(φ)dφminI[P(\\vec{\\varphi})] = \\int \\ln{P(\\vec{\\varphi})} P(\\vec{\\varphi}) d\\vec{\\varphi} \\to minI[P(φ)]=lnP(φ)P(φ)dφmin\n

Under the following conditions:

\n
    \n
  1. Condition for smoothness φ(x)\\varphi(x)φ(x). Let Ω\\OmegaΩ be some matrix characterizing the smoothness of the function. Then we demand that a certain value of the smoothness functional is achieved:
  2. \n
\n(φ,Ωφ)P(φ)dφ=ω\\int (\\vec{\\varphi},\\Omega\\vec{\\varphi}) P(\\vec{\\varphi}) d\\vec{\\varphi} = \\omega(φ,Ωφ)P(φ)dφ=ω\n

The attentive reader should ask a question about the definition of ω\\omegaω. The answer to this question will be given further down the text.

\n
    \n
  1. The normality of probability per unit:
  2. \n
\nP(φ)dφ=1\\int P(\\vec{\\varphi}) d\\vec{\\varphi} = 1P(φ)dφ=1\n

Under these conditions, the following function will deliver a minimum to the function:

\nPα(φ)=αRg(Ω)/2detΩ1/2(2π)N/2exp(12(φ,αΩφ))P_{\\alpha}(\\vec{\\varphi}) = \\frac{\\alpha^{Rg(\\Omega)/2}\\det\\Omega^{1/2}}{(2\\pi)^{N/2}} \\exp(-\\frac{1}{2} (\\vec{\\varphi},\\alpha\\Omega\\vec{\\varphi}))Pα(φ)=(2π)N/2αRg(Ω)/2detΩ1/2exp(21(φ,αΩφ))\n

The α\\alphaα parameter is associated with ω\\omegaω, but since we don't actually have information about the specific values of the smoothness functionality, it makes no sense to find out how it is associated. Then what to do with α\\alphaα, you ask? There are three paths:

\n
    \n
  1. select the value of the parameter α\\alphaα manually, and thus proceed to regularization of Tikhonov
  2. \n
  3. average all possible α\\alphaα, assuming all possible α\\alphaα equally probable
  4. \n
  5. choose the most likely α\\alphaα by its a posteriori probability density of P(αf)P(\\alpha|\\vec{f})P(αf). This approach is correct if we assume that the experimental data contains enough information about α\\alphaα
  6. \n
\n

The first case is of little interest to us. In the second case, we get the following formula for the solution:

\nφi=dφφiP(fφ)dαP(α)αRg(Ω)2exp(α2(φ,Ωφ))dφP(fφ)dαP(α)αRg(Ω)2exp(α2(φ,Ωφ))\\left\\langle \\varphi_i \\right\\rangle = \\frac{\\int d\\varphi\\, \\varphi_i P(f|\\varphi) \\int\\limits d\\alpha\\,P(\\alpha) \\alpha^{\\frac{Rg(\\Omega)}{2}} \\exp(-\\frac{\\alpha}{2} (\\vec{\\varphi},\\Omega\\vec{\\varphi}))}{\\int d\\varphi P(f|\\varphi) \\int\\limits d\\alpha\\,P(\\alpha) \\alpha^{\\frac{Rg(\\Omega)}{2}} \\exp(-\\frac{\\alpha}{2} (\\vec{\\varphi},\\Omega\\vec{\\varphi}))}φi=dφP(fφ)dαP(α)α2Rg(Ω)exp(2α(φ,Ωφ))dφφiP(fφ)dαP(α)α2Rg(Ω)exp(2α(φ,Ωφ))\n

The third case will be considered in the next section using the example of Gaussian noises in an experiment.

\n

Gaussian noises case

\n

The case where the errors in the experiment are Gaussian distributed is remarkable in that an analytical solution to our problem can be obtained. The solution and its error will be as follows:

\nφ=(KTΣ1K+αΩ)1KTΣ1Tf\\vec{\\varphi} = (K^T\\Sigma^{-1}K +\\alpha^*\\Omega)^{-1}K^T\\Sigma^{-1^{T}}\\vec{f}φ=(KTΣ1K+αΩ)1KTΣ1Tf\nΣφ=(KTΣ1K+αΩ)1\\Sigma_{\\vec{\\varphi}} = (K^T\\Sigma^{-1}K+\\alpha^*\\Omega)^{-1}Σφ=(KTΣ1K+αΩ)1\n

where Σ\\SigmaΣ - covariance matrix of a multidimensional Gaussian distribution, α\\alpha^*α - the most probable value of the parameter α\\alphaα, which is determined from the condition of maximum a posteriori probability density:

\nP(αf)=C39;αRg(Ω)2(KTΣ1K+αΩ)1exp(12fTΣ1KT(KTΣ1K+αΩ)1KTΣ1Tf)P(\\alpha|\\vec{f}) = C39; \\alpha^{\\frac{Rg(\\Omega)}{2}}\\sqrt{|(K^T\\Sigma^{-1}K+\\alpha\\Omega)^{-1}|}\\exp(\\frac{1}{2} \\vec{f}^T\\Sigma^{-1}K^{T}(K^T\\Sigma^{-1}K+\\alpha\\Omega)^{-1}K^T\\Sigma^{-1^{T}}\\vec{f})P(αf)=C39;α2Rg(Ω)(KTΣ1K+αΩ)1exp(21fTΣ1KT(KTΣ1K+αΩ)1KTΣ1Tf)\n

As an example, we consider the reconstruction of a spectrum consisting of two Gaussian peaks that fell under the action of an integral step kernel (Heaviside function).

\n\"deconvolution\"/","frontmatter":{"shortTitle":"Inverse problems","title":"Statistical regularization of incorrect inverse problems","id":"deconvolution"}}},{"node":{"html":"\n \n \n
\n
\n \"Under\n
\n
\n

This section is being finalized ...

\n
","frontmatter":{"shortTitle":"Significance functions","title":"Optimal experiment planning with parameter significance functions","id":"significance"}}}]}},"pageContext":{"isCreatedByStatefulCreatePages":true,"intl":{"language":"ru","languages":["ru","en"],"messages":{"title":"NPM Group","language":"ru","description":"Лаборатория методов ядерной физики","header.news":"Новости","header.group":"Группа","header.projects":"Проекты","header.partners":"Партнёры","notfound.header":"404: НЕ НАЙДЕНО","notfound.description":"Вы перешли по несуществующему пути","jumbotron.labintro":"Лаборатория методов ядерно-физических экспериментов","jumbotron.lead":"Особенности нашего подхода к решению научных задач сегодняшнего времени: ","jumbotron.list":"

","jumbotron.about":"О нашей лаборатории","more.nuclear_title":"Ядерная физика","more.nuclear_body":"Лаборатория принимает участие в нескольких международных экспериментах в области физики частиц, таких как эксперимент по безнейтринному двойному бета-распаду GERDA, эксперимент по поиску массы нейтрино Троицк ню-масс и так далее.","more.nuclear_more":"Подробнее »","more.education_title":"Образование","more.education_body":"В задачи лаборатории входит разработка новых образовательных программ по физике и методике проведения физического эксперимента, а также совершенствование существующей методической и информационной базы в МФТИ и академических институтах.","more.education_more":"Подробнее »","more.software_title":"Компьютерные методы","more.software_body":"Одним из основных направлений деятельности является разработка вычислительных методов и открытого программного обеспечения для использования в образовании и научной деятельности.","more.software_more":"Подробнее »","more.news":"Последние новости","about.title":"Группа методики ядерно-физического эксперимента","about.descr":"Группа была создана в 2015 году на базе кафедры общей физики МФТИ, нескольких лабораторий ИЯИ РАН и при поддержке лаборатории физики высоких энергий МФТИ. Цель создания - разработка методов для проведения и анализа данных экспериментов в области физики частиц и ядерной физики. Помимо этого участники группы занимаются внедрением современных информационных технологий в экспериментальную физику и образование.","about.pubs.title":"Публикации","about.pubs.available1":"Публикации группы доступны на ","about.pubs.available2":"отдельной странице","about.contacts.title":"Контактная информация","about.contacts.mail":"Электронный адрес: ","about.contacts.telegram":"Телеграм канал: ","partners.mipt.title_fund":"Кафедра общей физики МФТИ","partners.mipt.description_fund":"Кафедра общей физики является основной точкой соприкосновения для ученых и преподавателей с одной стороны и студентов с другой стороны. Тесное сотрудничество с кафдерой является залогом постоянного притока молодых сотрудников, а также постоянного самосовершенствования членов группы, работающих со студентами.","partners.mipt.title_energy":"Лаборатория физики высоких энергий МФТИ","partners.mipt.description_energy":"Тесное сотрудничество с лабораторией физики высоких энергий позволяет осуществлять прямой контакт между образованием и научным сообществом, не выходя за рамки МФТИ.","partners.jb.description":"Лаборатория активно сотрудничает с компанией JetBrains во внедрении языка Kotlin в научном программировании, преподавании Kotlin и разработке библиотек на Kotlin.","partners.jbr.description":"Группа разработки программного обеспечения входит в международное научное объединение JetBrains Research.","partners.ras.title_exp":"Отдел экспериментальной физики ИЯИ РАН","partners.ras.description_exp":"Ведется очень плотное сотруднничество с ОЭФ ИЯИ РАН в рамках коллабораций Troitsk nu-mass и KATRIN, а также в плане подготовки квалифицированных кадров для работы на эксперименте NICA и в других ускорительных экспериментах. В рамках сотрудничества реализуются как научные так и образовательные задачи.","partners.ras.title_beam":"Лаборатория пучка ИЯИ РАН","partners.ras.description_beam":"Лаборатория пучка линейного ускорителя ИЯИ РАН отвечает за проводку и диагностику пучка ускорителя, а также ведет разработки систем диагностики пучка, используемых по всему миру. Группа ведет несколько совместных образовательных проектов с этой лабораторией.","partners.ras.title_education":"Научно-образовательный центр ИЯИ РАН","partners.ras.description_education":"Часть студентов, участвующих в группе обучается в научно-образовательном центре ИЯИ РАН.","partners.ras.title_iki":"ИКИ РАН","partners.ras.description_iki":"Группа участвует в математическом моделировании электрических разрядов в атмосфере.","physics.bc_title":"Физика","physics.title":"Ядерная физика","physics.description":"Традиционно к ядерной физике относят не только исследования, связанные со структурой атомного ядра и ядерными реакциями, но и всю физику элементарных частиц, а также отчасти некоторые разделы астрофизики и космологии. В настоящее время усилия нашей группы сосредоточены в области так называемых неускорительных экспериментов в физике элементарных частиц.","education.bc_title":"Образование","education.title":"Образование","education.description":"Образовательные проекты в побласти ядерной физики и методов проведения и анализа результатов физического эксперимента являются одним из ключевых направлений деятельности группы.","education.course1":"Подробная информация доступна на ","education.course2":"странице курса","math.bc_title":"Математика","math.title":"Математические методы","math.description":"Математическое моделирование физических процессов и математические методы анализа данных являются неотъемлимой частью современной экспериментальной физики. Постоянно возникает потребность как в совершенствовании существующих методов, так и в разработке принципиально новых подходов.","software.bc_title":"Программное обеспечение","software.title":"Научное программное обеспечение","software.description":"Современные эксперименты в физике частиц немыслимы без специального программного обеспечения, которое требуется как на этапе проведения эксперимента и сбора данных, так и при обработке результатов. Разработка научного программного обеспечения является дополнительным, но существенным направлением работы группы.","quarks":"Физика"},"routed":false,"originalPath":"/projects/math/","redirect":true}}}}