Estudio de los costes para cada neurona, con exponentes 0.5 y 2. Comparación del óptimo global con el que se obtiene fijando todas las demás neuronas en sus posiciones reales.

>> [alfa beta]
ans =
0.0794 0.1259
pos_cuad=coste2pos_cuad(todas.A*alfa,todas.M*beta+todas.S,todas.f);
miracostes(todas.A,todas.M,todas.S,todas.f,todas.pos_real,[.5 2],alfa,beta,[pos_opt(:,ind_min) pos_cuad],[])

Se ven sobre todo dos cosas:
1. Sobre todo para exponente 0.5, la posición óptima global (línea negra) suele estar bastante lejos de la posición de mínimo coste con el resto de las neuronas fijas en su posición experimental. Y la posición real (línea roja) suele estar más cerca del mínimo del coste con el resto fijas que del óptimo global.

2. Que algunas neuronas tienen posiciones reales clavadas en mínimos locales.

Pruebo encontrando el óptimo para cada neurona, con las demás fijas en sus posiciones reales.

pos_cm=coste2pos_restofijas(todas.A*alfa,todas.M*beta+todas.S,todas.f,todas.pos_real,.5);
>> mean(abs(todas.pos_real-pos_cm))
ans =
0.0911
pos_cm2=coste2pos_restofijas(todas.A*alfa,todas.M*beta+todas.S,todas.f,todas.pos_real,2);
>> mean(abs(todas.pos_real-pos_cm2))
ans =
0.0926
>> mean(abs(todas.pos_real-pos_cuad))
ans =
0.0976
>> mean(abs(todas.pos_real-pos_opt(:,ind_min)))
ans =
0.1321

Así que calcular el óptimo con el resto fijas apenas mejora el resultado con coste cuadrático, pero lo mejora muchísimo con coste 0.5. Tanto, que pasa a ser mejor que el cuadrático.

Ahora, gráfica omega-desv para el exponente 0.5 y los alfa y beta que dio Bayes. Un truñaco.

plot(abs(todas.pos_real-pos_cm),omega,’.’)

>> xlabel(‘Deviation’)
>> ylabel(‘\omega’)
>> hold on
>> axis(axis)
>> plot(abs(todas.pos_real-pos_cm),omega,’.’)
>> plot(x,7./x.^.5,’k’)
>> plot(x,5./x.^.5,’k’)
>> plot(x,2./x.^.5,’k’)

Miramos el coste de AVAL, que se va mucho en la gráfica:

Para calmar a cierto insidioso supervisor mío, añado omega-desv para el caso sintético con alfa y beta del pnas y exponente 0.5.

load datos_fig_pap_calibracionbayes_bichos_segundo
plot(abs(pos_opt{1}-pos{1}),omega_pnas,’.’)
>> xlabel(‘Deviation’)
>> ylabel(‘\omega’)

Y aquí viene lo acojonante. ¿Quiénes son esos dos puntitos desviados?

SOSPECHA: ¿Puede ser que Bayes se esté limitando a escoger el que más se acerca con el cálculo de fijar el resto en posiciones reales? (que ya sé que hace mucho más, pero a lo mejor se obtiene el mismo resultado con este otro método mucho más simple).

Pues parece que en el caso de los alfa y beta del PNAS sí es lo que hace:

>> pos_cuad_pnas=coste2pos_cuad(todas.A*.05,todas.M*1.5+todas.S,todas.f);
>> mean(abs(todas.pos_real-pos_cuad_pnas))
ans =
0.0879
>> pos_lin_pnas=coste2pos_num_ruido(todas.A*.05,todas.M*1.5+todas.S,todas.f,1,0,1,1);
>> mean(abs(todas.pos_real-pos_lin_pnas))
ans =
0.0946
>> pos_cm2_pnas=coste2pos_restofijas(todas.A*.05,todas.M*1.5+todas.S,todas.f,todas.pos_real,2);
>> mean(abs(todas.pos_real-pos_cm2_pnas))
ans =
0.0844
>> pos_cm1_pnas=coste2pos_restofijas(todas.A*.05,todas.M*1.5+todas.S,todas.f,todas.pos_real,1);
>> mean(abs(todas.pos_real-pos_cm1_pnas))
ans =
0.0828

En realidad no sé si esto importa mucho, porque:

  1. Casi es normal que el que mejor cuadra con las desviaciones también tenga un error medio menor (aunque no tenga que ser cierto en general, es lo más probable).
  2. Seguimos teniendo un patrón 1/x en la gráfica omega-desv para los alfa y beta del pnas, que indica que las desviaciones también son más consistentes con lineal.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

%d bloggers like this: