StoryLAB
Experimentación en torno a las nuevas narrativas y su impacto en el conocimiento abierto e inclusivo.
Fórmulas, funciones y métodos para el análisis estadístico
Información ¿Cuál es la sintaxis adecuada para calcular una media estadística si estamos utilizando Python? ¿Y si lo hacemos con Excel? ¿O con lenguaje R? En estas [...]
¿Qué software gratuito puedo usar para visualizar datos?
En internet disponemos de una buena cantidad de herramientas de visualización de datos que ofrecen planes gratuitos. Hay que tener en cuenta, eso sí, que muchas de ellas [...]
Mapa de empatía para proyectos sociales
Me pregunta una de mis estudiantes sobre la pertinencia de crear un mapa de empatía para su trabajo en comunicación estratégica para el sector social. No me lo pienso dos segundos y le respondo [...]
Scrum Master
Cierro el año con dos nuevas certificaciones técnicas, scrum master y product owner, y una renovada motivación por los marcos agile de gestión de productos tecnológicos. [...]
La teoría de los ciclos económicos
Interactivo que explica el concepto y el origen de los tres principales ciclos económicos descritos hasta la actualidad. En teoría económica, un ciclo es el conjunto de oscilaciones que experimenta [...]
Tecnología para la investigación
Con todo lo estimulante que resulta cualquier proceso de investigación, también puede ser un camino plagado de escollos si no nos apoyamos desde los primeros estadios en determinados instrumentos y estrategias. Afortunadamente, la digitalización [...]
(con C entre paréntesis)
Fórmulas, funciones y métodos para el análisis estadístico
Información
¿Cuál es la sintaxis adecuada para calcular una media estadística si estamos utilizando Python? ¿Y si lo hacemos con Excel? ¿O con lenguaje R?
En estas fichas encontrarás las funciones y métodos apropiados para diferentes cálculos estadísticos.1
Fórmulas, funciones y métodos
Media
La media estadística es lo que habitualmente llamamos promedio.
La fórmula para calcular tanto la media poblacional como la media muestral es la misma:
Media es igual al sumatorio de todos los valores de la variable x dividido por el número de observaciones.

Media poblacional
Media muestral
La media estadística puede ser calculada con la función mean() de R.
Por ejemplo, busquemos la media de los valores 4,15,6,28,39 :
values <- c(4,15,6,28,39)
mean(values)
El resultado será 18,4.
Para obtener la media estadística, podemos utilizar el método mean() de la librería NumPy. Por ejemplo, para encontrar la media de los valores 3, 7, 25, 4, 72, 15:
import numpy
values = [3,7,25,4,72,15]
x = numpy.mean(values)
print(x)
Para calcular la media estadística con Excel, aplicamos la siguiente función:
PROMEDIO(número1; [número2]; …)
Por ejemplo:
=PROMEDIO(A2:A6)
Promedio de los números en las celdas A2 a A6.
Mediana
La mediana estadística de una serie ordenada de datos numéricos es la cifra que queda justo en medio, en el sentido de que la mitad de los datos estarán a su izquierda y la otra mitad, a la derecha.
La fórmula para calcular la mediana estadística es:
Número total de observaciones más 1, dividido por 2.

Mediana
Con R, obtenemos la mediana estadística con la función median(). Por ejemplo:
values <- c(13,21,21,40,42,48,55,72)
median(values)
Podemos obtener la mediana estadística usando el método median() de la librería NumPy.
Por ejemplo:
import numpy
values = [8,25,25,38,42,47,79]
x = numpy.median(values)
print(x)
Moda
La moda estadística de una variable cuantitativa es el valor que presenta una mayor frecuencia.
En R no existe una función predifinida para obtener la moda estadística, así que podemos emplear una función de usuario. Por ejemplo:
mode <- function(x) {
unique_values <- unique(x)
table <- tabulate(match(x, unique_values))
unique_values[table == max(table)] }
values <- c(4,7,3,8,11,7,10,19,6,9,12,12)
mode(values)
Usando el método multimode() de la librería estadística de Python podemos identificar la moda estadística de una serie de datos:
from statistics import multimode
values = [5,2,26,5,13,81,40,13]
x = multimode(values)
print(x)
La sintaxis de la función moda de Excel, que nos permite identificar la moda estadística en una serie de datos, sería MODA(número1,[número2],…).
Por ejemplo:
=MODA(A2:A7)
Cuartiles
Un cuartil de un conjunto ordenado de datos numéricos es cada uno de los tres puntos de corte que dividen el conjunto en cuatro grupos de la misma medida.
- El primer cuartil (Q1) es el dato que separa el 25% inferior del resto del conjunto de datos.
- El segundo cuartil (Q2) corresponde a la media estadística de los datos.
- El tercer cuartil (Q3) es el dato que separa el 75% inferior del resto de datos del conjunto.
La función quantile() de R nos permite encontrar fácilmente los cuartiles de un conjunto de valores numéricos. Por ejemplo:
values <- c(13,21,21,40,42,48,55,72)
quantile(values)
La función CUARTIL de Excel devuelve el cuartil de un conjunto de datos numéricos.
La sintaxis de la función sería la siguiente:
CUARTIL(matriz,cuartil)
Por ejemplo:
=CUARTIL(A2:A9;1) devolvería el valor del primer cuartil de los datos incluidos desde la celda A2 hasta la celda A9 de una hoja de cálculo.
Percentiles
Un percentil es una medida de posición no central que permite, en un conjunto de datos numéricos ordentado de menor a mayor, determinar el valor de la variable por debajo del cual se encuentra un porcentaje dado de observaciones de dichos datos. Los percentiles son los 99 cuantiles que separan el conjunto de datos en 100 partes iguales.
La fórmula para encontrar un determinado percentil sería:
Pi = X (( N + 1) i ) / 100
N representa el número de observaciones o datos del conjunto.
La función quantile() de R permite encontrar un determinado percentil en un conjunto de valores numéricos.
Por ejemplo:
values <- c(9,23,35,40,40,78,92,92,101)
quantile(values, 0.65)
Con esta función obtendríamos el valor del percentil 65º de los datos antes indicados; es decir, 80,8.
Con el método percentile() de la librería NumPy podremos encontrar un percentil de un conjunto de valores numéricos.
Por ejemplo:
import numpy
values = [13,21,21,40,42,48,55,72]
x = numpy.percentile(values, 65)
print(x)
Esto nos devolvería el valor del percentil 65º de los valores indicados; es decir, 45,3.
En Excel, la función PERCENTIL nos sirve para identificar el valor de un determinado percentil en un conjunto de datos.
La sintaxis de la función es como sigue:
PERCENTIL(matriz,k)
Por ejemplo:
=PERCENTILE(E2:E5,0.3)
En este caso obtendríamos el percentil 30 de la lista en las celdas desde E2 hasta E5.
Rango
La forma de calcular el rango es restar el valor menor del valor mayor.
Por ejemplo:
89 – 12 = 77
Para calcular el rango estadístico con la ayuda de Excel nos valdremos de la fórmula para identificar el número mayor de una selección de celdas (función MAX) y la fórmula para encontrar el número menor (función MIN) y realizaremos la resta entre ambos números.
Estos son los pasos que deberíamos seguir:
- Seleccionamos la celda en la que queremos mostrar el resultado del rango.
- En la barra de fórmulas escribimos =MAX(selección de celdas) – MIN(selección de celdas).
- Pulsamos Enter.
Con las funciones de R min() y max() podemos obtener el rango estadístico de una serie de valores numéricos. Por ejemplo:
values <- c(12,27,40,40,48,63,90)
max(values) – min(values)
El rango estadístico se puede obtener mediante el método ptp() de la librería NumPy. Por ejemplo:
import numpy
values = [9,25,40,40,54,55,80]
x = numpy.ptp(values)
print(x)
.
Rango intercuartil
El rango intercuartil es la medida de la diferencia entre el primer cuartil (Q1) y el tercer cuartil (Q3).
En R podemos emplear la función IQR() para conocer el rango intercuartil de un conjunto de valores.
Por ejemplo:
values <- c(23,24,52,67,80,80,93,104)
IQR(values)
En este caso, el resultado será 38,25.
Con el método iqr() de la librería de Python SciPy podremos obtener el rango intercuartil de un conjunto de datos.
Por ejemplo:
from scipy import stats
values = [9,13,13,28,41,41,56,82]
x = stats.iqr(values)
print(x)
El resultado sería 31,75.
Desviación estándar
Las fórmulas para el cálculo de la desviación estándar de la población estadística o el de la muestra estadística son bastante similares aunque no idénticas.
La desviación estándar poblacional es igual a la raíz cuadrada del sumatorio de la primera potencia de la diferencia entre los valores de las observaciones y la media poblacional y luego dividido por el número de observaciones.
La desviación estándar muestral es igual a la raíz cuadrada del sumatorio de la primera potencia de la diferencia entre los valores de las observaciones y la media muestral y luego dividido por el número de observaciones menos 1.
Podemos usar una fórmula de R para encontrar la desviación estándar de un conjunto de valores.
Por ejemplo:
values <- c(7,11,18,22)
sqrt(mean((values-mean(values))^2))
El resultado será 5.85235.
Valor Z
Para calcular la puntuación Z calculamos el valor estandarizado menos la media poblacional y el resultado de esta sustracción lo dividimos por la desviación estándar:
x es el valor estandarizado.
μ (mu) es la media poblacional.
σ (sigma) es la desviación estándar.
En R usaremos la función qnorm() para encontrar el valor Z de, por ejemplo, un valor p de 0,9:
qnorm(0.9)
Podemos encontrar el valor Z de un valor p usando la función norm.ppf() de la librería Scipy Stats para Python. Por ejemplo, si tenemos un valor p de 0.9:
import scipy.stats as stats
print(stats.norm.ppf(0.9))
Valor p
Para una prueba de cola inferior, el valor p se especifica mediante:
valor p = P(TS ts | H 0 es verdadera) = cdf(ts)
Para una prueba de cola superior se especifica mediante:
valor p = P(TS ts | H 0 es verdadera) = 1 – cdf(ts)
En lenguaje R utilizamos la función pnorm() para conocer el valor p de una puntuación Z.
Por ejemplo, si queremos saber cuánta probabilidad hay de que obtengamos un valor que esté a menos de 3 desviaciones estándares de la media, escribiríamos:
pnorm(3)
El resultado será 0.9986501 o 99.87%.
Podemos recurrir a la función norm.cdf() de la librería Scipy Stats para Python para calcular el valor p de un valor Z.
Por ejemplo, si queremos saber qué probabilidad hay de tener un valor que se encuentre a menos de 3 desviaciones estándares de la media, la sintaxis sería la siguiente:
import scipy.stats as stats
print(stats.norm.cdf(3))
El resultado será 0.9986501019683699 o 99,87%.
Más recursos
En la Biblioteca encontrarás más recursos relacionados con el análisis de datos y la estadística. Algunos han sido creados por mí, como las definiciones del glosario; otros son enlaces a recursos en línea o bases de datos.
Notas y referencias
¿Qué software gratuito puedo usar para visualizar datos?
En internet disponemos de una buena cantidad de herramientas de visualización de datos que ofrecen planes gratuitos. Hay que tener en cuenta, eso sí, que muchas de ellas presentan una condición: los gráficos y los datos serán de acceso público. De modo que si estamos trabajando con información sensible o confidencial tendremos que poner mucho cuidado a la hora de elegir la herramienta adecuada.
Aquí van algunos ejemplos de software de visualización..
Notas y referencias
Crédito de imagen: Datawrapper.
Mapa de empatía para proyectos sociales
Me pregunta una de mis estudiantes sobre la pertinencia de crear un mapa de empatía para su trabajo en comunicación estratégica para el sector social. No me lo pienso dos segundos y le respondo que sí, que por supuesto, que también en el sector social es relevante el uso de esta herramienta de marketing. Sin embargo, ya puestas a buscar referencias y recursos, caemos en la cuenta de que el lenguaje marquetero no es tan directamente interpretable desde el punto de vista de las organizaciones del tercer sector. Así que vamos a probar a establecer este puente.
Cuándo y para qué usar un mapa de empatía
Utilizamos un mapa de empatía cuando queremos conocer mejor a nuestro público objetivo. Esto quiere decir que se trata de una herramienta infaltable en cualquier buen plan de marketing. El nombre lo deja en claro: su función es ayudarnos a ponernos en el lugar de la persona usuaria o de un buyer persona.
Por medio del mapa de empatía accederemos a una lista detallada de los intereses, las aspiraciones, las demandas y las características de consumo de cada uno de los segmentos de público.
Una de las ventajas del mapa es que se puede llevar a cabo de manera colaborativa, integrando en su elaboración a múltiples stakeholders. Pero los inconvenientes no son ajenos a este tipo de herramientas. Evidentemente, no se trata de una técnica científica. Lo que queremos es ponernos en el lugar de las personas, no recabar datos objetivos. Los sesgos no son inevitables, pero la información subjetiva es una efectiva fuente de valor para la construcción del plan estratégico.
Elementos del mapa de empatía
El mapa de empatía es un conjunto de informaciones sobre el target de un proyecto, producto o servicio, que se obtiene a partir de respuestas a una serie de preguntas y que finalmente se vuelca en una matriz gráfica.
El documento resultante se compone de 6 apartados, que responden a preguntas clave sobre la persona usuaria:
- ¿Qué piensa y siente?
- ¿Qué escucha?
- ¿Qué ve?
- ¿Qué dice y hace?
- ¿Cuáles son sus esfuerzos?
- ¿Cuáles son los resultados?
¿Qué piensa y siente
Aquí nos preguntamos por las creencias del buyer persona, sus aspiraciones o expectativas, sus emociones.
¿Qué escucha?
Lo que interesa conocer son las fuentes de información del público objetivo, qué medios o canales tienen especial influencia.
¿Qué ve?
Nos preguntaremos también por las características del entorno familiar, social y laboral del público objetivo.
¿Qué dice y hace?
Buscaremos conocer el comportamiento de los clientes en sus diversos entornos.
Esfuerzos
Por esfuerzos entendemos las tensiones que afligen a nuestros clientes en su vida cotidiana; a qué amenazas se enfrenta y qué frustraciones éstas le deparan.
Resultados
Necesitaremos indagar sobre la definición de éxito de los clientes; qué deseos o necesidades quiere satisfacer y qué requeriría para conseguirlo.
El documento o matriz
La matriz donde volcaremos la información es bastante sencilla de realizar con cualquier editor gráfico o incluso -por qué no- a mano. De todas formas, si queremos simplificarnos todavía más el trabajo, en internet podemos encontrar un buen número de sitios que nos ofrecen plantillas para nuestro mapa. Es el caso, por ejemplo, del post de Leticia Calvo en GoDaddy. 1
O bien, puedes usar la versión que te propongo a continuación.

Si necesitas una versión accesible del mapa de empatía, aquí tienes el enlace a una versión en Excel que podrás descargar.
Adaptación al sector social
Es hora de volver sobre una cuestión que introducíamos al comienzo del post: ¿es pertinente emplear el mapa de empatía en un proyecto social?
Vamos por partes. También en el sector social aplicamos las técnicas del marketing. Siendo el mapa de empatía una técnica de marketing, tendríamos que responder que sí. Pero algunas precisiones se hacen necesarias. Si bien en toda organización distinguimos diversos tipos de públicos, es usual que el mapa de empatía se enfoque en el público externo; podemos concretar más todavía: se dirige al conocimiento del consumidor final. En proyectos comerciales B2C, el consumo es la principal fuente de beneficios. Por eso es que el mapa suele ir de la mano de otra importante técnica de marketing: la definición del buyer persona.
En un proyecto social contamos también con varias categorías de públicos. Entre el público externo encontramos las personas o colectivos beneficiarios y, dependiendo de las características del proyecto, podremos tener también consumidores. Pero es habitual que la fuente de recursos económicos provenga de otro tipo de público, como son los donantes o mecenas. Estos contribuyentes son un target vital de los planes estratégicos del proyecto. Con esto quiero decir que el mapa de empatía es una herramienta especialmente interesante en el desarrollo de un plan estratégico de fundraising.
Notas y referencias
Scrum Master
Cierro el año con dos nuevas certificaciones técnicas, scrum master y product owner, y una renovada motivación por los marcos agile de gestión de productos tecnológicos.
Más información
Nombre del curso
Scrum framework: Scrum Master & Product Owner Certified.
Certificación
Scrum Master y Product Owner.
Fecha
Noviembre 4 a diciembre 3 de 2022.
Lugar
Barcelona, online.
Duración
50 horas.
Organización
Consorci per a la Formació Contínua de Catalunya y Proyecto Universidad Empresa – PUE. Entidad certificadora: Scrum Manager.
La teoría de los ciclos económicos
Interactivo que explica el concepto y el origen de los tres principales ciclos económicos descritos hasta la actualidad.
En teoría económica, un ciclo es el conjunto de oscilaciones que experimenta la economía en un periodo determinado. En un ciclo económico se puede identificar una fase inicial de expansión, seguida de una fase de contracción, la cual genera una crisis económica.
Si bien se han descrito más tipos, tres son los ciclos económicos más conocidos: ciclo de Kitchin o de corta duración, ciclo de Juglar o ciclo de duración media y ciclo de Kondratiev o de larga duración.
Duración de los ciclos

Joseph Kitchin
(1861–1932)Joseph Kitchin
Empresario y estadístico británico. A partir del análisis de procesos de negocios y finanzas de Inglaterra y de Estados Unidos desarrolló su teoría del ciclo económico corto o ciclo de negocios, que luego sería más conocido por el apellido de su creador.

Clement Juglar
(1819-1905)Clement Juglar
Estadístico francés. Observó que las inversiones financieras solían variar en ciclos de 6 a 10 años. Con base en este descubrimiento desarrolló la teoría del ciclo de duración media que hoy en día lleva su nombre.

Nikolai Kondratiev
(1892-1938)Nikolai Kondratiev
Economista ruso. Fue un teórico de la nueva política económica soviética. Analizando el funcionamiento de las economías capitalistas occidentales llegó a la conclusión de que éstas se veían afectadas por ciclos de unos 40 o 50 años, observación que le sirvió de base para formular la teoría de los ciclos de larga duración.
Tecnología para la investigación
Con todo lo estimulante que resulta cualquier proceso de investigación, también puede ser un camino plagado de escollos si no nos apoyamos desde los primeros estadios en determinados instrumentos y estrategias.
Afortunadamente, la digitalización nos ha puesto al alcance una infinidad de facilitadores para el desarrollo de nuestras investigaciones. Hoy en día el problema podría estar en la sobreabundancia -y no la falta- de opciones y las consiguientes dudas a la hora de escoger los instrumentos que mejor se ajusten a nuestras necesidades.
Pensando en simplificar la búsqueda y selección, he preparado una lista de herramientas TIC que pueden ayudar en las diversas fases del proceso de investigación en ciencias sociales.
Definiendo el problema
La definición de la pregunta de investigación puede requerir más esfuerzos de lo esperado. Una revisión preliminar de bibliografía y hemerografía, junto con el aprendizaje obtenido desde la propia experiencia, nos facilitarán las cosas, pero aun así la organización, jerarquización y refinamiento de los conceptos puede volverse un camino cuesta arriba.
Mi consejo sería contar con una base de datos bibliográfica ya desde las primeras aproximaciones al objeto de estudio y, además, personalizarla con taxonomías de categorías y etiquetas. Los gestores bibliográficos digitales resultarán no sólo útiles sino imprescindibles. Pero en último caso, la delimitación del problema es una decisión personal no poco compleja. Por esto puede ser buena idea tener a la mano alguna herramienta de visualización del proceso de conceptualización, como una pizarra virtual o un generador de mapas mentales.
Gestión de información y documentos
La gestión documental no debería considerarse una fase de la investigación, sino una actividad transversal, que acompaña el proceso desde la ideación hasta el momento de la difusión de resultados. Por eso, conviene dedicar unos momentos a comparar, probar y elegir las TIC que mejor respondan a nuestras necesidades de búsqueda, conservación y uso de la información. Por suerte contamos en la actualidad con plataformas de gestión bibliográfica, así como de almacenaje de documentos en la nube.
Planificación del trabajo
La planificación de las tareas y del tiempo que habremos de invertir en cada una de ellas es un asunto que no podemos abordar de manera superficial y, por otro lado, deberíamos dedicarle nuestra atención en una fase muy inicial de la investigación.
Por supuesto, por muy cuidadosa que sea esta planificación, siempre habrá que hacer ajustes. De allí la recomendación de que nos dotemos de una herramienta digital y, ojalá, sincronizada en nuestros diferentes dispositivos electrónicos, que nos ayude a organizarnos, recordarnos los plazos de vencimiento, tener siempre a la mano toda la información necesaria para ejecutar cada tarea e, incluso, premiarnos por el trabajo hecho a tiempo.
Gestión del proyecto
La investigación no suele -y no debería- ser una labor solitaria. Necesitaremos constantemente de otras personas, ya sea como fuentes de información, colaboradoras para el desarrollo de determinadas tareas, pares que nos hagan comentarios y aportes, como evaluadoras o stakeholders.
Podemos sacar provecho de algunas herramientas que originalmente se crearon para la gestión de proyectos tecnológicos, pero que en la actualidad son utilizadas por equipos de trabajo de los ámbitos más variados.
La tecnología que elijamos para organizar todo el proyecto debería reunir unas características básicas, como que sea muy visual, utilice un sistema de gestión de tareas (por ejemplo, basado en el marco kanban), se pueda integrar con otras plataformas o que fomente la comunicación en línea y en tiempo real.
Análisis de información
El mundo de las TIC para el análisis de datos se ha enriquecido notablemente en los últimos años y sigue en continuo crecimiento. En este terreno encontraremos herramientas especializadas ya sea en métodos de investigación cuantitativos, cualitativos o mixtos; también las hay que requieren algunas competencias en codificación, junto con otras de tipo low code o no code. Es decir que, tanto si nos estamos iniciando en la investigación empírica, como si si somos versados programadores o expertos en data science, encontraremos una solución tecnológica que responda a nuestros requerimientos.
Presentación de resultados
La forma en que presentemos los resultados estará condicionada por la modalidad de investigación que hayamos aplicado. Los gráficos serán nuestro instrumento principal de visualización si la investigación ha sido de tipo cuantitativo. La investigación cualitativa tiene algunas particularidades a la hora de ofrecer resultados, ya que tendremos que recurrir a ejemplos, citas y tipologías. Sin embargo, también existen ciertas formas de visualización especialmente adecuadas para los estudios cualitativos; pensemos, por ejemplo, en la nube de palabras, el flujograma o el diagrama de Sankey.
Difusión de la investigación
Considerando que toda investigación persigue un incremento en el bagaje de conocimiento de la sociedad, los mecanismos que empleemos para su difusión son mucho más que un factor accesorio. Desde luego, los primeros canales que tendremos que incluir en la estrategia de comunicación son los de tipo académico: revistas científicas, prioritariamente, y congresos, conferencias, seminarios y publicaciones de divulgación, en segundo término.
Pero aún podemos ir más allá. En el mundo en que vivimos, las redes sociales son un mecanismo ubicuo de intermediación y en el terreno de las ciencias encontramos destacables ejemplos de su uso para expandir los alcances del conocimiento. Por ejemplo, pensemos en las posibilidades que ofrecen los hilos de Twitter para presentar datos y observaciones de manera encadenada y categorizada mediante hashtags. Eso sí, no olvidemos que por regla general las revistas científicas sólo acogen trabajos inéditos y la divulgación, por lo tanto, debería esperar a que los resultados de investigación se hayan distribuido por los canales académicos formales.
Revisemos algunas TIC que podrán ayudarnos en la difusión de la investigación y en la adaptación de nuestro mensaje a las narrativas digitales.
Unos breves consejos finales
El mundo de las TIC es tan atractivo y variado que vale la pena aplicar algunos criterios de discriminación a la hora de elegir la tecnología más adecuada.
En primer lugar, sugiero decantarse por aquellos aplicativos que requieran una menor curva de aprendizaje en relación con nuestras competencias previas, especialmente si somos investigadores noveles, emprendiendo, digamos, un trabajo final de grado. Como casi siempre, lo simple casa mejor con la eficiencia. Aparte del esfuerzo de adoptar nuevas tecnologías, otro riesgo viene asociado a la tendencia que tenemos algunas personas (y aquí utilizo intencionalmente la primera persona) a deslumbrarnos por cada nueva herramienta que vamos descubriendo. Si bien puede resultar muy atractivo contar con una app para cada necesidad, es una buena idea intentar reducir su número. O bien, decantémonos por aquellas soluciones tecnológicas que permiten la integración entre plataformas.
Por último, Insistiré en una idea que ya defendí antes: la investigación no es una empresa ni individual ni solitaria y aunque el proyecto sea tuyo y sólo tuyo, plantéate la conveniencia de adquirir hábitos de trabajo en equipo y, además, adoptar la tecnología que facilitará la comunicación, la coordinación y la colaboración con eventuales personas colaboradoras… o fuentes… o pares.
Este post ha sido pensado como una ayuda a estudiantes que llevan a cabo su TFG. No pretende de ninguna manera ser exhaustiva y seguramente experimentará modificaciones en el futuro próximo. ¡Se aceptan ideas, consultas y peticiones de información!