Gradient-based stochastic optimization methods in bayesian experimental design
En este artc̕ulo se desarrollan mťodos de optimizacin̤ estocs̀tica basados en gradientes para el diseǫ de experimentos sobre un espacio de parm̀etros continuo. Dado un estimador de Monte Carlo de ganancia de informacin̤ esperada, se utiliza un anl̀isis de perturbacin̤ infinitesimal para obtener lo...
Αποθηκεύτηκε σε:
| Άλλοι συγγραφείς: | , , |
|---|---|
| Μορφή: | Βιβλίο |
| Γλώσσα: | Αγγλικά |
| Θέματα: | |
| Διαθέσιμο Online: | Gradient-based stochastic optimization methods in bayesian experimental design |
| Ετικέτες: |
Προσθήκη ετικέτας
Δεν υπάρχουν, Καταχωρήστε ετικέτα πρώτοι!
|
| Περίληψη: | En este artc̕ulo se desarrollan mťodos de optimizacin̤ estocs̀tica basados en gradientes para el diseǫ de experimentos sobre un espacio de parm̀etros continuo. Dado un estimador de Monte Carlo de ganancia de informacin̤ esperada, se utiliza un anl̀isis de perturbacin̤ infinitesimal para obtener los gradientes de este estimador. as,̕ se est ̀en la capacidad de formular dos enfoques de optimizacin̤ estocs̀tica basados en gradientes: la aproximacin̤ estocs̀tica Robbins-Monro y la aproximacin̤ promedio de muestras combinada con un mťodo determins̕tico cuasi-newtoniano.Una aproximacin̤ de caos polinomial del modelo anticipado (forward model) acelera las evaluaciones objetivo y gradiente en ambos casos. Se discute la implementacin̤ de estos mťodos y se conduce una comparacin̤ empr̕ica de su desempeǫ. Para demostrar el diseǫ en un escenario no lineal con modelos anticipados de ecuaciones diferenciales parciales, se usa el problema de colocacin̤ del sensor para inversin̤ de fuente. |
|---|