Gradient-based stochastic optimization methods in bayesian experimental design

En este artc̕ulo se desarrollan mťodos de optimizacin̤ estocs̀tica basados en gradientes para el diseǫ de experimentos sobre un espacio de parm̀etros continuo. Dado un estimador de Monte Carlo de ganancia de informacin̤ esperada, se utiliza un anl̀isis de perturbacin̤ infinitesimal para obtener lo...

Olles dieđut

Furkejuvvon:
Bibliográfalaš dieđut
Eará dahkkit: Huan Xun, Marzouk Youssef M., Cornell University
Materiálatiipa: Girji
Giella:eaŋgalasgiella
Fáttát:
Liŋkkat:Gradient-based stochastic optimization methods in bayesian experimental design
Fáddágilkorat: Lasit fáddágilkoriid
Eai fáddágilkorat, Lasit vuosttaš fáddágilkora!
Govvádus
Čoahkkáigeassu:En este artc̕ulo se desarrollan mťodos de optimizacin̤ estocs̀tica basados en gradientes para el diseǫ de experimentos sobre un espacio de parm̀etros continuo. Dado un estimador de Monte Carlo de ganancia de informacin̤ esperada, se utiliza un anl̀isis de perturbacin̤ infinitesimal para obtener los gradientes de este estimador. as,̕ se est ̀en la capacidad de formular dos enfoques de optimizacin̤ estocs̀tica basados en gradientes: la aproximacin̤ estocs̀tica Robbins-Monro y la aproximacin̤ promedio de muestras combinada con un mťodo determins̕tico cuasi-newtoniano.Una aproximacin̤ de caos polinomial del modelo anticipado (forward model) acelera las evaluaciones objetivo y gradiente en ambos casos. Se discute la implementacin̤ de estos mťodos y se conduce una comparacin̤ empr̕ica de su desempeǫ. Para demostrar el diseǫ en un escenario no lineal con modelos anticipados de ecuaciones diferenciales parciales, se usa el problema de colocacin̤ del sensor para inversin̤ de fuente.