lunes, 24 de septiembre de 2018

Cultura Estadística

En las últimas décadas, los métodos y aplicaciones de la Estadística han permeado la mayoría de las áreas de la ciencia. La realidad es que se ha convertido en una disciplina que evolucionó para quedarse e incorporarse a la cultura de la sociedad moderna.

Actualmente la estadística está mucho más relacionada con otras disciplinas que las matemáticas. Se ha usado como lenguaje y método de investigación científica en áreas tan diferentes como la lingüística, geografía, física, psicología, economía y en todas las demás.

Sin embargo, en contextos más generales, es común encontrar información con errores en la presentación y valoración de los datos. Del mismo modo, en documentos académicos se pueden encontrar representaciones gráficas y tablas mal elaboradas.

Para el ciudadano común el saber estadística se ha convertido en una necesidad y una obligación de su educación integral porque implica más que una herramienta, técnica o método. 

En las últimas décadas se ha venido forjando el término statistical literacy o cultura estadística. En eventos académicos y en múltiples publicaciones especializadas, es constante el uso de este término para referirse al hecho de que la estadística forma parte de la herencia cultural necesaria para un ciudadano educado.
.
Desde hace buen tiempo la UNESCO ha venido implementando políticas de desarrollo económico y cultural para todas las naciones, incluyendo la alfabetización numérica. En esta última menciona que es importante difundir la estadística entre los ciudadanos no solo como técnica para manipular datos cuantitativos sino también como cultura, en términos de capacidad de comprensión lógica.

El término cultura estadística. se ha empleado de varias maneras y lo definen como la habilidad para entender y evaluar críticamente los resultados que impregnan la vida de los ciudadanos, a la par de la habilidad para apreciar las aportaciones que el pensamiento estadístico puede hacer en la toma de decisiones en el ámbito personal y profesional. Garfield, lo describe como el entendimiento del lenguaje estadístico en función de palabras, símbolos y términos, que permitirán a su vez interpretar gráficos y tablas.

También implica la habilidad para interpretar y evaluar críticamente información, argumentos, fenómenos estocásticos, así como la habilidad para comunicar y comprender significados e implicaciones en la toma de decisiones y la representatividad de las conclusiones obtenidas.

La cultura estadística se refiere a la habilidad de las personas para interpretar y evaluar críticamente información en el campo de la estadística. Menciona que esta información puede encontrarse en diversos contextos, como los medios de comunicación pero sin circunscribirse a ellos.

En suma, el término cultura estadística ha evolucionado en los últimos años. Cada vez es mayor la necesidad de que los ciudadanos sean estadísticamente cultos. Por tanto, diversos organismos promueven adecuaciones a los currículos escolares y universitarios, sugiriendo que la enseñanza de la estadística asuma un papel acorde a las necesidades actuales de la sociedad.

lunes, 17 de septiembre de 2018

Minería de Datos


El concepto “Minería de Datos” es un término que engloba resultados de investigación, técnicas y herramientas usadas para extraer información de grandes bases de datos. La Minería de Datos es una parte del proceso completo de Knowledge Discovery in Databases (KDD, en español Proceso no trivial de identificación en los datos de patrones válidos), en mucha bibliografía los términos Minería de Datos y KDD se identifican como si fueran lo mismo. 
Concretamente, el término Minería de Datos es usado comúnmente por los estadísticos, analistas de datos, y por la comunidad de administradores de sistemas informáticos, mientras que el término KDD es utilizado más por los especialistas en Inteligencia Artificial.

El análisis de la información es habitual que sea un proceso manual, basado en técnicas estadísticas. Sin embargo, cuando la cantidad de datos que disponemos, dificulta el tratamiento manual, aquí entra en juego el conjunto de técnicas KDD de análisis automático al que nos referimos al hablar de Minería de Datos.

Los mayores éxitos en Minería de Datos se pueden atribuir directa o indirectamente a avances en bases de datos. No obstante, muchos problemas de representación del conocimiento y de reducción de la complejidad de la búsqueda necesaria (con conocimiento a priori) están aún por resolver.
Otras definiciones de Minería de Datos:
  • “La Minería de Datos es la extracción no trivial de información implícita, desconocida previamente, y potencialmente útil desde los datos”.
  • “La Minería de Datos es el proceso de extracción y refinamiento de conocimiento útil desde grandes bases de datos”.
  • “La Minería de Datos es el proceso de extracción de información previamente desconocida, válida y procesable desde grandes bases de datos para luego ser utilizada en la toma de decisiones”.
  • "La Minería de Datos es la exploración y análisis, a través de medios automáticos y semiautomáticos, de grandes cantidades de datos con el fin de descubrir patrones y reglas significativos".
  • "La Minería de Datos es el proceso de planteamiento de distintas consultas y extracción de información útil, patrones y tendencias previamente desconocidas desde grandes cantidades de datos posiblemente almacenados en bases de datos”.
  • “La Minería de Datos es el proceso de descubrir modelos en los datos”.

lunes, 20 de agosto de 2018

¿Media aritmética o Mediana?


La media aritmética y la mediana son las medidas de tendencia central más utilizadas que se conoce y que se obtienen de un conjunto de datos numéricos.
La media aritmética, es fácil de entender, de calcular y es muy utilizada. La mediana, es menos usada, pero tiene propiedades de las que carece la media, por lo que es un buen complemento para analizar los datos y en algunos casos puede ser más útil que la media. Estas propiedades son:

  • Es más robusta que la media aritmética frente a la presencia de anomalías, ya que no depende de los valores, sino de su posición, por tanto no interesa que existan valores extremos o anómalos.
  • La mediana divide al conjunto de datos en 50% de las observaciones por encima y otro 50% por debajo y esto le da unas ventajas que la media no tiene.

Si la distribución de los datos es simétrica, la media y la mediana coincidirán, entonces todo es ventaja.

Hoy en día se dispone de herramientas que permiten el cálculo fácil de los estadígrafos, de un conjunto de datos, debemos aprovechar esta ventaja y analizar las dos mediciones y tendremos un mejor análisis de los datos.

lunes, 13 de agosto de 2018

Los Valores Atípicos


Cuando se obtienen datos, para un estudio, sea de cualquier fuente, puede ocurrir que se tenga valores atípicos. ¿Qué hacer con estos valores atípicos? Podemos ignorarlos o eliminarlos inmediatamente.
Es frecuente no prestarle atención de su existencia, realizando directamente las pruebas estadísticas correspondientes. Esto implica correr riesgos, ya que trabajar con valores que podrían estar errados (por cualquier razón), puede conducirnos a resultados no válidos.

Pero, puede  darse  el  caso  en  que  los  valores  sean  correctos  pero  no  es conveniente considerarlos. ¿Qué hay que hacer con estos valores? Lo primero es preguntarse a qué corresponden, mo es que se han producido. En este caso, después de una simple reflexión y análisis, se llega a la conclusión que lo s razonable es excluirlos del estudio.

En algunas situaciones, la identificación y el análisis de las anomalías es la parte más interesante del estudio y de la que más deducciones se pueden obtener. Ya que si los valores están bien medidos, no encontramos la explicación de por qué sucede o son completamente contradictorios los resultados obtenidos. ¿Qué hacer con estos valores? ¿Eliminarlos y olvidarse de ellos?

Estos valores se deben analizar, para no perder la oportunidad de incorporar información valiosa a nuestro conocimiento del proceso. Lo más adecuado sería preguntarnos: ¿Por qué se han dado estas situaciones?, ¿qué ha ocurrido para que se hayan producido esos valores?, es posible que la respuesta a estas preguntas nos aporte información que puede ser muy útil para nuestro mayor dominio y conocimiento del proceso.

Entonces, ¿qué hacer ante una anomalía? Debe servir para averiguar el por qué se ha producido. Si la causa es un error, se elimina el valor y asunto resuelto. Si no es un error habrá que valorar la conveniencia de incluirla en el estudio, según sea la razón por la que se ha producido, la frecuencia con que se esperan valores similares y otras razones.

En algunos casos uno no sabe si mantener el valor atípico o quitarlo. Cuando se da esta situación, es necesario es hacer un análisis con y sin la presunta anomalía,  y  si  se  obtienen  las  mismas  conclusiones  la  disyuntiva  deja  de  tener importancia. En caso contrario quizá se puede salir de dudas recogiendo más datos, o también pueden aplicarse técnicas específicas de análisis en presencia  de anomalías.

lunes, 30 de julio de 2018

Aprender y Enseñar Estadística


La enseñanza de la Estadística en el mundo se desarrolla en un contexto de nuevos enfoques que intentan aportar a las concepciones existentes y por el reconocimiento de las limitaciones que presentan los alumnos y profesores antes, durante y al terminar un curso de estadística.
Uno de los aspectos de la enseñanza de la Estadística es precisamente su base Matemática y de cálculo. A pesar del desarrollo tecnológico alcanzado en los últimos años, el enfoque que se le da a la enseñanza de la Estadística ha evolucionado poco, manteniendo el énfasis en muchos casos en los procedimientos utilizados cuando no existían las computadoras personales e incluso antes de que existieran las calculadoras. Sin embargo, la Estadística como ciencia, se aleja cada vez más de la Matemática pura y se convierte en una "ciencia de los datos" (Batanero).

Autores, como Garfield, Godino y Batanero, han coincidido en que los cursos de Estadística han sobrevalorado y hasta abusado de los algoritmos de cálculos y expresiones matemáticas.  Esto implica que se le ha dedicado la mayor parte del tiempo y de los esfuerzos a los cálculos, dejando poco tiempo para el tratamiento de los conceptos de manera empírica y teniendo en cuenta su comprensión, significado y aplicación a situaciones prácticas concretas.

Admitimos la importancia de los símbolos en el aprendizaje. El lenguaje matemático es un instrumento indispensable, sin embargo, el uso apropiado de la notación Matemática reviste especial dificultad constituyendo uno de los obstáculos importantes para el razonamiento, y estas dificultades tienen repercusiones, tanto en el plano del aprendizaje como en el afectivo.

Varios autores, como Batanero, Garfield y Benzvi, señalan otras dificultades en relación al tratamiento de los conceptos. Se ha reconocido que en algunas ocasiones los conceptos son tratados de manera aislada sin tener en cuenta la relación que debe establecerse entre ellos, ni la relación de los conceptos propios de la Estadística y la investigación con los de las otras materias.

Por otro lado, es interesante y necesario utilizar datos reales y casos prácticos para conseguir un aprendizaje significativo de la Estadística, ya que esa estrategia favorece una mayor implicación del estudiante en el proceso de enseñanza-aprendizaje. Asimismo, es conveniente generar situaciones de aprendizaje referidas a temas de interés al alumno y trabajar con datos elaborados previamente, para analizarlos mediante las técnicas y procedimientos estudiados. El mundo se dirige rápidamente hacia una sociedad cada vez más informatizada. Cada día es más importante la comprensión de las técnicas básicas de análisis de datos y su interpretación adecuada.

Un elemento a destacar en la enseñanza actual de la Estadística consiste en atribuir importancia a las ideas previas que poseen los alumnos acerca de aleatoriedad, variable aleatoria, medidas de tendencia central, medidas de dispersión, estimación y tamaño muestral, independencia y probabilidad condicional, relación, asociación, la determinación de la veracidad de las hipótesis estadísticas y causalidad, etc.

La Didáctica Estadística tiende a ocuparse más de las ideas de los estudiantes que ignorar, subvalorar o desaprobar sus ideas, ya que solo se consigue dejarlas esencialmente intactas. En lugar de suplantar unas nociones por otras, se debe proceder a una búsqueda creativa por parte de cada alumno, para que se instalen en su mentalidad.

Se puede deducir, según estos planteamientos, la individualidad en la apropiación del conocimiento, no da lugar a la existencia de una única dimensión óptima para el aprendizaje. Sugerimos un modelo en el cual el profesor es un facilitador y el estudiante es el protagonista, que puede elegir entre una gama amplia de oportunidades disponibles de aprendizaje, de acuerdo con sus condiciones particulares. Existen una variedad de actividades, asociados con los distintos estilos de aprendizaje: lecturas, conferencias, ejercicios, resúmenes, videos, metáforas, experimentos, proyectos, discusiones y otras.

lunes, 23 de julio de 2018

El Análisis Exploratorio de Datos (AED)


El Análisis Exploratorio de Datos (AED) es un enfoque que prioriza el análisis de datos y sobre este particular existen múltiples criterios.
Monterde y Perea, menciona que el AED es, “por una parte, una perspectiva o actitud sobre el análisis de datos, en la que se exhorta a que el investigador adopte una actitud activa en y hacia el análisis de los mismos, como un medio para sugerir nuevas hipótesis de trabajo. Por otra parte, se compone de un renovado utillaje conceptual e instrumental respecto a lo que podríamos llamar Estadística Descriptiva “clásica”, con el fin de optimizar la cantidad de información que los datos recogidos puedan ofrecer al investigador, mediante representaciones gráficas, a base de reducir la influencia de las puntuaciones extremas en los estadísticos con el empleo de, los que por ello se ha convenido en llamar, “estadísticos resistentes”.

Ante lo mencionado surge una pregunta, ¿cómo se inserta lo que ya se conoce de estadística?  La respuesta no puede darse en pocos párrafos, se requiere la revisión y lectura, desde el desarrollo de la teoría y la ejemplificación correspondiente para comprender la concepción de AED y sus similitudes y diferencias con la estadística clásica.

Muchos coincidirán en que no se exagera si se dice que el objeto de la Estadística es el estudio de métodos científicos para organizar, presentar y analizar datos estadísticos, pero el problema está en cómo empezar a organizar los datos, todos los que han pasado  por un curso básico de Estadística recordará la prioridad que se da a las tablas de frecuencia, al estudio de la distribución normal o la correlación lineal que describen de una manera simple el comportamiento de los datos.

Estos temas, que la AED no los desecha, representan estructuras a gran escala que resumen las relaciones entre todos los datos y que liberan a los investigadores de la búsqueda minuciosa de modelos, para el entendimiento de las estructuras que subyacen en grandes conjuntos de datos; esta es una primera idea de la concepción del AED.

Desde su comienzo, el AED ha tenido como finalidad la revisión de los datos previo a la aplicación de cualquier técnica estadística para alcanzar primero un entendimiento básico de los mismos y de las relaciones existentes entre las variables analizadas. Es decir, cualquier cálculo, (promedios, desviaciones, correlaciones, etc.) debe estar precedido por un análisis visual de los datos, dicho de otro modo, mientras la Estadística Descriptiva clásica se ocupa de recoger, ordenar y representar los datos en forma de tablas, agrupándolos por intervalo y calculando estadísticos basados principalmente en la distancia y con datos centrados en la media (promedio); el AED se preocupa primero por detectar anomalías y errores en las distribuciones univariadas de los datos, intentando descubrir en ellos patrones o modelos, pero empleando variadas técnicas gráficas y buscando estimadores no paramétricos o estimadores libres de distribución o simplemente estimadores robustos, según el término acuñado por Box, tratando de llevar el estudio de la información que se tiene, hacia una modelización más completa que la establecida por la Estadística Clásica, basados principalmente en el orden y centrados en la mediana.

Los programas estadísticos como el SPSS, Minitab, Statgraphs, Statsoft, SAS, IDAMS y otros, ofrecen muchas posibilidades a partir de interaccione simples y amigables, con diálogos dinámicos tanto de la Estadística Clásica como las de AED, debiendo tener en cuenta que una buena gráfica informa más que un conjunto de números disgregados.

En resumen el AED, permite que hablen los datos y a partir de ellos encontrar los patrones y modelos indicados, con esto se logra que en muchas situaciones, el AED puede preceder a una situación de inferencia formal, mientras que en otras, puede sugerir preguntas y conclusiones que se podrían confirmar con un estudio adicional, por esto el AED es una herramienta de utilidad en la generación de hipótesis, conjeturas y preguntas de investigación acerca de una realidad que los datos fueron obtenidos.

En la investigación de diferentes áreas, donde intervienen numerosas variables y donde los datos no abundan, el AED bien utilizado se convierten en instrumento que complementan los diseños de investigación y dan validez, confiabilidad y rigor científico a los resultados.

lunes, 16 de julio de 2018

La Estadística y la Corrupción

Tenia pensado agregar un post referido a la Estadística y la Corrupción, pero me di cuenta que la corrupción esta en todo, desde lo más simple de las cosas que hacemos hasta lo más complejo.  De repente no iba poder terminar el post por la cantidad de información o detalles que tendría que haber considerado. Por eso decidí mejor presentar el siguiente video.


viernes, 29 de junio de 2018

Capacidad Estadística de un País

El BID ha desarrollado el Índice de Capacidad Estadística Nacional (ICEN), este índice permite medir de forma cuantitativa la capacidad de los sistemas estadísticos de los países de América Latina; la capacidad estadística es “la existencia de una estructura o sistema permanente que disponga de los recursos necesarios para generar de manera sostenida datos estadísticos relevantes y de calidad, y para difundirlos adecuada y oportunamente”.

El ICEN, es una medición compuesta de cuatro dimensiones principales: recursos, normas y prácticas institucionales, metodologías y difusión.

La primera se refiere a los recursos financieros (presupuesto), humanos (empleados y salarios), tecnológicos (software) y físicos (equipos, infraestructura) con los que cuenta una entidad de estadística para producir la información. Estos son centrales, debido a que en cantidades adecuadas otorgan capacidad operativa a las oficinas.

En segundo lugar, las normas y prácticas institucionales son aquellas que regulan la existencia y organización de la entidad estadística y del sistema en su conjunto, así como su rol de coordinador y articulador del mismo.

Las metodologías, que componen la tercera dimensión, hacen referencia a las técnicas mediante las cuales se recoge y procesa la información siguiendo estándares internacionales validados, controles de calidad, y métodos que generen información coherente y comparable de forma longitudinal y transversal.

Finalmente, la dimensión de difusión se refiere a las metodologías usadas para hacer accesible la información a los diversos usuarios, de forma transparente, oportuna y resguardando la confidencialidad de los datos.

Para medir el ICEN se aplicaron cuestionarios a diferentes actores en los 10 países. Un cuestionario fue llenado exclusivamente por funcionarios de la entidad estadística, mientras que otros fueron aplicados a funcionarios del Sistema de Estadística Nacional (SEN), académicos, periodistas y usuarios del sector privado. La información provista por estos dos tipos de actores, productores y usuarios permitió estimar de forma más integral la capacidad de los sistemas estadísticos nacionales. El puntaje resultante se encuentra en un rango de 1 a 10, donde 1 indica un bajo nivel de capacidad y 10 uno muy alto.

La herramienta se ha aplicado para medir la capacidad estadística de 10 países en el año 2015 y 2016, sus componentes y su forma de aplicación. Asimismo, se ha presentado el ranking de países. Se observa que, este ranking se encuentra asociado con los niveles de capacidad generales de los Estados, pero al mismo tiempo se confirma que en algunos casos los niveles de capacidad estadística son superiores a lo que se esperaría por su entorno.

El informe completo puede descargarse de este enlace:¿A quién le importa saber? .

lunes, 25 de junio de 2018

La Estadística y el Científico de Datos


Artículo de Enrique Saldivar, El Comercio 17/06/2018

La transformación digital exige una profunda re­flexión sobre la empresa, pero también plan­tea retos muy importantes para poder llevar con éxito el proceso y la comprensión de la tecno­logía que se requiere: Machine Learning, Internet of Things y Blockchain, teniendo como base el uso, ac­ceso y explotación de datos.
Según datos de Excelacom. firma de consultoría y análisis tecnológico, cada 60 segundos se envían 150 millones de correos electrónicos, se real izan 1.389 viajes en UBER, se efectúan 2.4 millones de búsquedas en Google, son publicadas 38.194 fotos en Instagram, se crean más de 120 nuevos perfiles en Linkedln y son descargadas 51.000 aplicaciones en dispositivos inteligentes.

Tiene sentido entonces que, hoy por hoy, el análisis del Big Data se haya vuelto el motor fundamental en la economía de la información. Sin embargo, pa­ra que las empresas obtengan el máximo valor de los datos, no solo se necesitan tener las herramien­tas adecuadas, sino también se requiere contar con personal capacitado. Es por esta razón que es de su­ma importancia potenciar el capital humano, prepa­rando a profesionales para transformarlos en lo que hoy se conoce como Científicos de Datos.

Aunque esta profesión no tiene una definición exacta, el Científico de Datos se centra en un profesional dedicado a analizar e interpretar grandes volúmenes de información, con el fin de diseñar una estra­tegia de inteligencia de negocios e identificar nue­vas oportunidades para las compañías. No es coincidencia entonces que, en el Perú, las carreras relacio­nadas con Estadística, Informática y Ciencias Mate­máticas hayan mostrado un crecimiento sostenido en los últimos años.

Lo expuesto supone un gran reto para las organiza­ciones, ya que deben identificar la necesidad de con­tar con científicos de datos y reconocer el potencial del Big Data, y abre una oportunidad para futuros profesionales que buscan nuevos campos laborales.

lunes, 18 de junio de 2018

Estadísticas y Futbol


Dicen que en el futbol las estadísticas no juegan. Sin embargo, ayudan a describir y establecer patrones de juego, incluso se puede llegar a ensayar su relación con la economía de un país, revisar el reporte: The World cup and Economics 2018. Incluso se puede realizar análisis sociológico como es el caso del Libro “Ese gol existe” de Aldo Panfichi.
Pero hay que hacer una diferencia, una cosa son las “Estadísticas” y otra cosa es la “Estadística”, incluso habría que previamente hacer otra diferencia, el que se ocupa de la (ciencia) Estadística se le conoce como Estadístico (sea licenciado o Ingeniero) y no “Estadista” como erróneamente se le suele llamar.

Las estadísticas permiten ordenar, clasificar y describir detalles a través del conteo que se hace de la ocurrencia de hechos de una variable, en el fútbol puede ser partidos ganados, perdidos o empatados; goles que hace un equipo o un jugador, en un partido o en varios en un campeonato o torneo.

A partir de los datos que generan las estadísticas, se puede establecer ratios, tasas, proporciones o porcentajes e incluso medidas de tendencia central o de variabilidad y tal vez algunos estadígrafos de correlación o relación de interés que indiquen el comportamiento de un jugador o un equipo.

Más complicado es utilizar estas estadísticas para establecer inferencias o modelos más complejos, ya que cada partido e incluso cada jugador tienen una performance diferente al tener un oponente diferente y cada ambiente o condiciones de cada partido no es igual a otro, por tanto los resultados o estadísticas van a ser diferentes.

Esta frecuencia de las estadísticas nos permiten construir distribuciones de probabilidades, ya que son hechos aleatorios que son singulares en cada partido, y estas probabilidades son tendencias que se pueden o no cumplir aún si es cercano al 0.99 (que implica probabilidad de un suceso seguro de ocurrir).

Todos los deportes usan estadística, las cuales les permitirá en el futuro medir las tendencias o patrones de los jugadores de los equipos de un país o de un club; pero, estos deben ser tomados con cuidado ya que son productos del azar. Como todo en la vida (y el futbol) muchas de las cosas que suceden están determinados por la aleatoriedad de las cosas que lo rodean.

lunes, 4 de junio de 2018

Los Pronósticos Cualitativos


Los diversos métodos estadísticos para realizar pronósticos están en su mayor parte dirigidos hacia los pronósticos económicos, de mercadotecnia, financieros y otras formas de predicción empresarial. Estos métodos se centran fundamentalmente en el corto y mediano plazos.
En el campo de los pronósticos tecnológicos y ambientales existen varias formas de predicción, que se enfocan al largo plazo. Dichos métodos cubren la predicción poblacional o demográfica, disponibilidad y costo de materias primas, evaluación del riesgo político, pronósticos gubernamentales y legislativos, predicción competitiva y, la predicción tecnológica.

La predicción tecnológica y ambiental no siempre proporciona un procedimiento detallado, ni presenta sus pronósticos como una respuesta numérica sencilla. El uso de tales métodos requiere de un entendimiento de los factores implicados en cada situación y una necesidad para adaptar el método a esa situación. Con dichos métodos es el experto quien es el procesador de hechos, conocimiento e información, más que algún conjunto de reglas matemáticas, como sería el caso con los métodos cuantitativos.

Los métodos de predicción tecnológica y ambiental se utilizan en tres tipos de situaciones:

La primera es la predicción cuando un nuevo proceso o producto dado llegará a ser ampliamente adoptado. Por ejemplo, una organización puede estar consciente de un cierto número de descubrimientos científicos que todavía no han sido aplicados y puede pretender pronosticar el momento en el cual su aplicación se hará más amplia. O una empresa puede interesarse en el horizonte temporal para la adopción de un nuevo proceso. Como un ejemplo, se puede considerar el desarrollo de la robótica y el problema de pronosticar el punto en que dicha tecnología tendrá amplio reconocimiento en las aplicaciones industriales. Esta información sería de interés para las empresas que manufacturan o venden robots y para quienes pueden explotar las oportunidades disponibles a través del uso de la robótica para mejorar su producción y reducir sus costos.

La segunda es predecir qué nuevos avances y descubrimientos se harán en un área específica. Por ejemplo, ciertas organizaciones podrían interesarse en lo que sucedería con los nuevos descubrimientos y avances médicos. Las corporaciones podrían desear pronosticar nuevos procesos y tecnologías que serán desarrolladas en su industria durante los próximos años, para ayudar en la planificación de los programas de ampliación de planta física, el desarrollo del mercado de largo plazo y las inversiones en investigación y desarrollo a largo plazo. También es importante ser capaz de pronosticar el costo de la energía y otras materias primas, porque los aumentos de tales costos podrían tener graves consecuencias en algunos países o empresas.

La tercera es la predicción de los tipos de cambios y patrones que podrían surgir de un área que está sufriendo o está a punto de sufrir un cambio primordial. Un objetivo principal es romper paradigmas e identificar la gama de posibilidades futuras. Aislar patrones y relaciones emergentes en tal situación es también deseable ya que los cambios tecnológicos afectarán inevitablemente las actitudes sociales, las que a su vez afectarán la demanda de productos y servicios y las innovaciones tecnológicas.

lunes, 28 de mayo de 2018

Estadística y Ciencias Sociales


El estudio de la realidad social y política se realiza cada vez con mayor frecuencia mediante análisis de encuestas y exploraciones de campo. En una investigación la Estadística se utiliza para: a) Diseñar el tamaño de la muestra; b) Decidir el tipo de muestreo en función de la población a investigar y c) Analizar los datos obtenidos. Además, nuevas preguntas, resultado del análisis de encuestas, ha llevado a nuevos desarrollos de modelos estadísticos.
Durante la mayor parte del siglo XX los investigadores, entre ellos los estadísticos trabajando en estas investigaciones, se concentraron en el análisis de datos de tablas de contingencia, que ha sido la forma más habitual para presentar los resultados de una encuesta.

A mediados del siglo XX, se desarrollaron técnicas de medición de la asociación entre variables categóricas que a través del coeficiente de correlación miden la dependencia en contextos más amplios. Los avances en el tratamiento estadístico de las variables cualitativas se han venido impulsado por las necesidades propias del análisis.

Un avance importante en este campo fue encontrar la relación entre el análisis de correspondencias, herramienta introducida por Benzecri para representar datos multivariantes de frecuencias. El Análisis de Correspondencias puede verse como una generalización para variables cualitativas de una técnica estadística clásica para reducir la dimensión de variables continuas, como la técnica de Componentes Principales, esta técnica tiene muchas aplicaciones en diferentes campos de la ciencia. Por ejemplo, los índices de desarrollo humano de la ONU, muchos sistemas de compresión de imágenes o video para su envío por Internet, o los factores que explican la inteligencia humana, utilizan esta herramienta introducida por Hotelling en 1933. Matemáticamente, se trata de buscar combinaciones lineales de un conjunto de variables, que contengan la máxima información, lo que se traduce en que tengan varianza máxima.

Goodman en 1985 relacionó los modelos log-lineales y el análisis de correspondencias, estableciendo una metodología unificada para el análisis de encuestas.

El modelo LISREL es otro desarrollo importante en el campo de la sociología, está técnica generaliza el modelo factorial clásico introducido por Spearman en Psicometría para analizar la inteligencia humana. Los modelos mencionados construyen un sistema de ecuaciones estructurales, similares a los modelos econométricos multiecuacionales, pero que en vez de relacionar variables observadas, relacionan variables no observadas o factores. Además, permite incorporar ecuaciones similares a un modelo factorial clásico para relacionar los factores con las variables observadas. Estos modelos se han convertido en una herramienta habitual en la sociología.

Otro aspecto que ha estimulado la investigación estadística es el análisis de datos faltantes. En alunas encuestas es frecuente que los entrevistados no respondan a parte de las preguntas y se debe enfrentar con el problema de cómo utilizar esta información incompleta. Este problema ha impulsado la creación de nuevos métodos de estimación, como los métodos de cadenas de Markov que permiten una utilización efectiva de toda la información disponible.

En resumen, se tiene que el papel de la estadística es un soporte para la adquisición de conocimiento científico en el mundo actual. En las ciencias sociales la Estadística,  es una herramienta que permite convertir los hechos observables en conocimiento e información, si bien es cierto su desarrollo cuantitativo es menor, así como en las humanidades, donde todavía se encuentra en sus inicios, es previsible que en este siglo se producirán avances importantes en la cuantificación de estas disciplinas.