Proyecto


Currículum y asignaturas utilizadas

A fecha de junio de 2016: Soy Guillermo Villar, graduado en Periodismo y Comunicación Audiovisual en la URJC y estudiante del Máster Máster en Periodismo de datos en Centro Universitario Villanueva. He pasado por RTVCM haciendo televisión y radio me involucré en la escritura online de artículos culturales, pero quería dar un paso más. Empecé a interesarme por el periodismo de datos y ello me llevó a investigar sobre el tema en la carrera y a empezar el máster.

En equipo hemos realizado colaboraciones para las elecciones generales de 2015 para El Confidencial e Infolibre y en este último diario formo parte del Traductor Político como receta antes de las elecciones siguientes del 26J. Me interesa tanto la divulgación como el aprendizaje continuo en el data-driven journalism. Mi próxima labor será de prácticas en el Laboratorio de Innovación Audiovisual de RTVE. PAHpers ha sido tutorizado por Amaranta Martín.

¿Qué asignaturas he utilizado para el proyecto?

Los datos tienen que estar vinculados con historias y estas adquieren fuerza gracias a lo aprendido de storytelling. La parte extensible del proyecto, audiovisual, también buscará ése fin, de ahí la importancia de la asignatura de “periodismo de datos en la televisión” (en tal materia, aprendimos del factcheck, verificación que heredan las preguntas del inicio). Esta es ramificación de la asignatura de visualización, cuyo fuerte se encuentra en los mapas, y del análisis de tendencias que pueda hacer evolucionar con el audiovisual el proyecto. Precisamente el escepticismo en este proyecto a relativizar datos es el que obliga a que las mayores licencias permitidas sean de geografía de datos, sin perder de vista cómo el “análisis de tendencias” y el “diseño web” enriquecerían la forma.

Dado que el proyecto aboga por los datos abiertos, también se ha preferido que la página web esté hecha en código abierto, y de esta última materia solo se ha aplicado el programa Adobe Muse para su captador de tonos en página web sin necesidad de buscar un código hexadecimal concreto.

Los “derechos y deberes en la búsqueda de datos” han servido para no sacar a la luz nombres asociados de forma directa a calles y direcciones concretas (al estar publicados ya en una página web, no se estaría cometiendo ninguna ilegalidad pero sí estaría vulnerando la ética periodística en perjuicio de personas que querrán respetada su intimidad).

El bloque de web scraping y programación” introduce el concepto de que las bases de datos no tienen por qué encontrarse limpias en una hoja de cálculo, y la energía de este proyecto nace precisamente de entradas mensuales de blog llenas de datos no explotadas. Además, la inclusión de este reportaje en una plantilla HTML5 y su traslado a un repositorio Git es también producto de tal asignatura. El análisis de los datos se ha hecho siguiendo las directrices en “hojas de cálculo y bases de datos”. Tras todo ello, finalmente el apartado de “periodismo de investigación” para llegar a los nombres que las tablas proporcionaron.

La asignatura de “periodismo de datos en economía, cultura, sociedad y deportes” es la que ha incentivado la precaución a la hora de mezclar cualquier dato y “estadística aplicada a la comunicación” ha permitido, de forma paradójica, a no hacer estadística, ya que tanto esta materia como la anterior obligan a que el tratamiento de los datos sea el correcto. Este periodismo de datos especializado, junto al tema de “periodismo político” y al ya citado periodismo de televisión han dado lugar a más soltura en la búsqueda de fuentes oficiales para cruzar otras bases.

Las asignaturas de “redes sociales”, “periodismo de datos aplicado a un gabinete de prensa” y “agencias de datos” dan pistas de cómo tiene que ser una buena difusión de lo aquí detallado. Suministrar tanto esta información como otras de forma periódica es lo que dará más rigor al proyecto y su continuidad.