Guía 1

TP3 - Duda sobre el parámetro de regularización

Re: TP3 - Duda sobre el parámetro de regularización

de VERA MATIAS ALEJANDRO -
Número de respuestas: 0
Hola Juan,

Tranquilo, ya con lo que tenés podés cerrar el tp. Pero si te da curiosidad y querés chequear que es lo que pasa, te dejo algunos comentarios:

* El valor de accuracy de testeo es razonable, no esperaba mucho más que eso.
* Me deja tranquilo que el de entrenamiento si te varía, ese seguro que empeora a medida que crece lambda (o baja C).
* El accuracy de testeo se tiene que romper en algún momento, pero quizás el C que lo logra esté más lejos (1e-6 o 1e-7 quizás ¿?)
* Quizás tol=1e-3 sea mucho (el default es 1e-4). No me queda claro que métrica compara con tol sklearn...
* Si ya obtuviste un acc de entrenamiento de 94% me da a entender que más grado de polinomio no va a ayudar en nada.
* Habría que preguntarse cuanto vale el error bayesiano. Un buen criterio para aproximar el error bayesiano es probar si vos a ojo distinguís las imágenes. Quizás esto te hace concluir que alcanzaste lo mejor que se puede.
* ¿Qué ocurriría si uso polinomios pero no regularizo? Sería poner "penalty=None", C=infinito puede traer problemas. Dependiendo de lo que te de podés sacar dos conclusiones:
A) El acc de testing baja. Estarías viendo el overfitting, mostrando que regularizar ayuda.
B) El acc de testing sigue en ese rango (y el de train va a ser muy pero muy bueno). Casi hice desaparece el error de sesgo, pero el gap de generalización me molesta. En este caso debería poner el foco en lambdas mucho más grandes (o C mucho más chicos).

Espero que estas ideas sueltas te ayuden a entender que está ocurriendo. La estadística puede ser misteriosa.

Éxitos