Gradient-based stochastic optimization methods in bayesian experimental design
En este artc̕ulo se desarrollan mťodos de optimizacin̤ estocs̀tica basados en gradientes para el diseǫ de experimentos sobre un espacio de parm̀etros continuo. Dado un estimador de Monte Carlo de ganancia de informacin̤ esperada, se utiliza un anl̀isis de perturbacin̤ infinitesimal para obtener lo...
Enregistré dans:
| Autres auteurs: | , , |
|---|---|
| Format: | Livre |
| Langue: | anglais |
| Sujets: | |
| Accès en ligne: | Gradient-based stochastic optimization methods in bayesian experimental design |
| Tags: |
Ajouter un tag
Pas de tags, Soyez le premier à ajouter un tag!
|
| Résumé: | En este artc̕ulo se desarrollan mťodos de optimizacin̤ estocs̀tica basados en gradientes para el diseǫ de experimentos sobre un espacio de parm̀etros continuo. Dado un estimador de Monte Carlo de ganancia de informacin̤ esperada, se utiliza un anl̀isis de perturbacin̤ infinitesimal para obtener los gradientes de este estimador. as,̕ se est ̀en la capacidad de formular dos enfoques de optimizacin̤ estocs̀tica basados en gradientes: la aproximacin̤ estocs̀tica Robbins-Monro y la aproximacin̤ promedio de muestras combinada con un mťodo determins̕tico cuasi-newtoniano.Una aproximacin̤ de caos polinomial del modelo anticipado (forward model) acelera las evaluaciones objetivo y gradiente en ambos casos. Se discute la implementacin̤ de estos mťodos y se conduce una comparacin̤ empr̕ica de su desempeǫ. Para demostrar el diseǫ en un escenario no lineal con modelos anticipados de ecuaciones diferenciales parciales, se usa el problema de colocacin̤ del sensor para inversin̤ de fuente. |
|---|