Buenas! Dejo un resumen de la clase del lunes pasado (26/08):
- Vimos cómo Trust consume noticias representadas en formato json.
- Vimos algunos conceptos relacionados con APIs (pueden ser muy útiles para obtener datos en internet).
- Exploramos los resultado del análisis y detecciones de Trust sobre esa noticia, compuesto por entidades nombradas, adjetivos, sentimiento, fuentes y métricas calculadas con esas detecciones.
- Visualizamos las detecciones usando la demo disponible de Trust.
- Repasamos los contenidos del drive donde pueden encontrar ejemplos de noticias en jsons, demo del proyecto, seguimiento de anotaciones y problemas a resolver con el algoritmo de detección de fuentes, entre otras cosas.
- Vimos el entregable de Maca, que armó una aplicación usando Dash y Plotly con los datos de 1100 noticias analizadas por Trust, disponible para descargar acá. El entregable tiene un enfoque alrededor de las métricas de sentimiento y cómo se distribuyen entre las distintas secciones y autores.
- Pensar 1 o 2 métricas nuevas que podríamos agregar con las detecciones de Trust.
- Crear 2 visualizaciones para mostrar en clase que destaquen algo interesante del dataset de artículos.
Para llevar adelante la actividad pueden usar cualquier herramienta de exploración / visualización de datos. Si van por el lado de Python pueden hacer una copia del Google Colab cambiando las iniciales por las suyas. Recomiendo usar pandas, plotly y chatgpt para llevar adelante el análisis.
Cualquier duda pueden escribir por acá.
Nos vemos el lunes que viene!