Comentarios acerca de temas relacionados con los métodos y técnicas Estadísticas y de su aplicación en la Investigación Científica.
lunes, 8 de octubre de 2018
lunes, 1 de octubre de 2018
lunes, 24 de septiembre de 2018
Cultura Estadística
En las
últimas décadas, los métodos y aplicaciones de la Estadística han permeado la
mayoría de las áreas de la ciencia. La realidad es que se ha convertido en una
disciplina que evolucionó para quedarse e incorporarse a la cultura de la
sociedad moderna.
Actualmente la estadística está mucho más relacionada con
otras disciplinas que las matemáticas. Se ha usado como lenguaje y método de
investigación científica en áreas tan diferentes como la lingüística, geografía,
física, psicología, economía y en todas las demás.
Sin
embargo, en contextos más generales, es común encontrar información con errores
en la presentación y valoración de los datos. Del mismo modo, en documentos académicos
se pueden encontrar representaciones gráficas y tablas mal elaboradas.
Para
el ciudadano común el saber estadística se ha convertido en una necesidad y una
obligación de su educación integral porque implica más que una herramienta,
técnica o método.
En las
últimas décadas se ha venido forjando el término statistical literacy o cultura
estadística. En eventos académicos y en múltiples publicaciones especializadas,
es constante el uso de este término para referirse al hecho de que la
estadística forma parte de la herencia cultural necesaria para un ciudadano
educado.
.
Desde hace
buen tiempo la UNESCO ha venido implementando políticas de desarrollo económico
y cultural para todas las naciones, incluyendo la alfabetización numérica. En
esta última menciona que es importante difundir la estadística entre los
ciudadanos no solo como técnica para manipular datos cuantitativos sino también
como cultura, en términos de capacidad de comprensión lógica.
El término cultura estadística. se ha
empleado de varias maneras y lo definen como la habilidad para entender y evaluar
críticamente los resultados que impregnan la vida de los ciudadanos, a la par
de la habilidad para apreciar las aportaciones que el pensamiento estadístico
puede hacer en la toma de decisiones en el ámbito personal y profesional.
Garfield, lo describe como el entendimiento del lenguaje estadístico en función
de palabras, símbolos y términos, que permitirán a su vez interpretar gráficos
y tablas.
También implica la habilidad para
interpretar y evaluar críticamente información, argumentos, fenómenos
estocásticos, así como la habilidad para comunicar y comprender significados e
implicaciones en la toma de decisiones y la representatividad de las conclusiones
obtenidas.
La cultura estadística se refiere a la
habilidad de las personas para interpretar y evaluar críticamente información en
el campo de la estadística. Menciona que esta información puede encontrarse en
diversos contextos, como los medios de comunicación pero sin circunscribirse a
ellos.
En suma, el término cultura
estadística ha evolucionado en los últimos años. Cada vez es mayor la necesidad
de que los ciudadanos sean estadísticamente cultos. Por tanto, diversos organismos
promueven adecuaciones a los currículos escolares y universitarios, sugiriendo
que la enseñanza de la estadística asuma un papel acorde a las necesidades
actuales de la sociedad.
lunes, 17 de septiembre de 2018
Minería de Datos
El
concepto “Minería de Datos” es un término que engloba resultados de investigación,
técnicas y herramientas usadas para extraer información de grandes bases de
datos. La Minería de Datos es una parte del proceso completo de Knowledge
Discovery in Databases (KDD, en español Proceso no trivial de identificación en
los datos de patrones válidos), en mucha bibliografía los términos Minería de
Datos y KDD se identifican como si fueran lo mismo.
Concretamente, el término Minería
de Datos es usado comúnmente por los estadísticos, analistas de datos, y por la
comunidad de administradores de sistemas informáticos, mientras que el término
KDD es utilizado más por los especialistas en Inteligencia Artificial.
El análisis de la información es
habitual que sea un proceso manual, basado en técnicas estadísticas. Sin
embargo, cuando la cantidad de datos que disponemos, dificulta el tratamiento
manual, aquí entra en juego el conjunto de técnicas KDD de análisis automático
al que nos referimos al hablar de Minería de Datos.
Los mayores éxitos en Minería de Datos
se pueden atribuir directa o indirectamente a avances en bases de datos. No
obstante, muchos problemas de representación del conocimiento y de reducción de
la complejidad de la búsqueda necesaria (con conocimiento a priori) están aún
por resolver.
Otras definiciones de Minería de Datos:
- “La Minería de Datos es la extracción no trivial de información implícita, desconocida previamente, y potencialmente útil desde los datos”.
- “La Minería de Datos es el proceso de extracción y refinamiento de conocimiento útil desde grandes bases de datos”.
- “La Minería de Datos es el proceso de extracción de información previamente desconocida, válida y procesable desde grandes bases de datos para luego ser utilizada en la toma de decisiones”.
- "La Minería de Datos es la exploración y análisis, a través de medios automáticos y semiautomáticos, de grandes cantidades de datos con el fin de descubrir patrones y reglas significativos".
- "La Minería de Datos es el proceso de planteamiento de distintas consultas y extracción de información útil, patrones y tendencias previamente desconocidas desde grandes cantidades de datos posiblemente almacenados en bases de datos”.
- “La Minería de Datos es el proceso de descubrir modelos en los datos”.
lunes, 10 de septiembre de 2018
lunes, 3 de septiembre de 2018
lunes, 27 de agosto de 2018
lunes, 20 de agosto de 2018
¿Media aritmética o Mediana?
La media aritmética y la mediana son las medidas
de tendencia central más utilizadas que se conoce y que se obtienen de un
conjunto de datos numéricos.
La media aritmética, es fácil de
entender, de calcular y es muy utilizada. La mediana, es menos usada, pero
tiene propiedades de las que carece la media, por lo que es un buen complemento
para analizar los datos y en algunos casos puede ser más útil que la media. Estas
propiedades son:
- Es más robusta que la media aritmética frente a la presencia de anomalías, ya que no depende de los valores, sino de su posición, por tanto no interesa que existan valores extremos o anómalos.
- La mediana divide al conjunto de datos en 50% de las observaciones por encima y otro 50% por debajo y esto le da unas ventajas que la media no tiene.
Si la distribución de los datos es
simétrica, la media y la mediana coincidirán, entonces todo es ventaja.
Hoy en día se dispone de herramientas
que permiten el cálculo fácil de los estadígrafos, de un conjunto de datos, debemos
aprovechar esta ventaja y analizar las dos mediciones y tendremos un mejor
análisis de los datos.
Etiquetas:
análisis estadístico,
INEI,
investigacion,
metodologia estadistica,
SINEACE,
SPSS,
UMCH
lunes, 13 de agosto de 2018
Los Valores Atípicos
Cuando se obtienen datos, para un
estudio, sea de cualquier fuente, puede ocurrir que se tenga valores atípicos.
¿Qué hacer con estos valores atípicos? Podemos ignorarlos o eliminarlos
inmediatamente.
Es frecuente no prestarle atención de su existencia,
realizando directamente las pruebas
estadísticas correspondientes.
Esto implica correr riesgos, ya que trabajar
con
valores que podrían estar
errados (por cualquier razón), puede conducirnos
a resultados no válidos.
Pero,
puede darse el caso en que los valores sean correctos
pero
no
es conveniente considerarlos. ¿Qué hay que hacer
con estos valores?
Lo primero es preguntarse a qué corresponden,
cómo es que se han producido. En este caso, después de una simple reflexión y análisis, se llega a la conclusión
que lo más razonable es excluirlos del estudio.
En algunas situaciones, la
identificación y el análisis de las anomalías es la parte más interesante del
estudio y de la que más deducciones se pueden obtener. Ya que si los valores están
bien medidos, no encontramos la explicación de por qué sucede o son
completamente contradictorios los resultados obtenidos. ¿Qué hacer con estos
valores? ¿Eliminarlos y olvidarse de ellos?
Estos valores se deben analizar,
para no perder la oportunidad de incorporar información valiosa a nuestro
conocimiento del proceso. Lo más adecuado sería preguntarnos: ¿Por qué se han
dado estas situaciones?, ¿qué ha ocurrido para que se hayan producido esos
valores?, es posible que la respuesta a estas preguntas nos aporte información
que puede ser muy útil para nuestro mayor dominio y conocimiento del proceso.
Entonces, ¿qué hacer ante una anomalía? Debe servir
para averiguar el por qué se ha producido. Si la causa es un error, se elimina el valor y asunto resuelto. Si no es un error habrá que valorar la conveniencia de incluirla en el estudio,
según sea la razón por la que se ha producido, la frecuencia con que se esperan valores similares y otras razones.
En algunos casos uno no sabe si mantener
el valor atípico
o quitarlo. Cuando se da esta situación,
es necesario es hacer un
análisis con y sin la presunta anomalía,
y
si se
obtienen las
mismas conclusiones
la disyuntiva
deja de
tener importancia. En caso contrario quizá se puede salir de dudas recogiendo más datos, o también pueden
aplicarse técnicas específicas de análisis en presencia
de anomalías.
lunes, 6 de agosto de 2018
lunes, 30 de julio de 2018
Aprender y Enseñar Estadística
La enseñanza de la
Estadística en el mundo se desarrolla en un contexto de nuevos enfoques que
intentan aportar a las concepciones existentes y por el reconocimiento de las
limitaciones que presentan los alumnos y profesores antes, durante y al terminar
un curso de estadística.
Uno de los aspectos de la
enseñanza de la Estadística es precisamente su base Matemática y de cálculo. A
pesar del desarrollo tecnológico alcanzado en los últimos años, el enfoque que
se le da a la enseñanza de la Estadística ha evolucionado poco, manteniendo el
énfasis en muchos casos en los procedimientos utilizados cuando no existían las
computadoras personales e incluso antes de que existieran las calculadoras. Sin
embargo, la Estadística como ciencia, se aleja cada vez más de la Matemática
pura y se convierte en una "ciencia de los datos" (Batanero).
Autores, como Garfield, Godino
y Batanero, han coincidido en que los cursos de Estadística han sobrevalorado y
hasta abusado de los algoritmos de cálculos y expresiones matemáticas. Esto implica que se le ha dedicado la mayor parte
del tiempo y de los esfuerzos a los cálculos, dejando poco tiempo para el tratamiento
de los conceptos de manera empírica y teniendo en cuenta su comprensión,
significado y aplicación a situaciones prácticas concretas.
Admitimos la importancia
de los símbolos en el aprendizaje. El lenguaje matemático es un instrumento
indispensable, sin embargo, el uso apropiado de la notación Matemática reviste
especial dificultad constituyendo uno de los obstáculos importantes para el
razonamiento, y estas dificultades tienen repercusiones, tanto en el plano del
aprendizaje como en el afectivo.
Varios autores, como
Batanero, Garfield y Benzvi, señalan otras dificultades en relación al
tratamiento de los conceptos. Se ha reconocido que en algunas ocasiones los
conceptos son tratados de manera aislada sin tener en cuenta la relación que
debe establecerse entre ellos, ni la relación de los conceptos propios de la
Estadística y la investigación con los de las otras materias.
Por otro lado, es interesante
y necesario utilizar datos reales y casos prácticos para conseguir un
aprendizaje significativo de la Estadística, ya que esa estrategia favorece una
mayor implicación del estudiante en el proceso de enseñanza-aprendizaje. Asimismo,
es conveniente generar situaciones de aprendizaje referidas a temas de interés
al alumno y trabajar con datos elaborados previamente, para analizarlos
mediante las técnicas y procedimientos estudiados. El mundo se dirige
rápidamente hacia una sociedad cada vez más informatizada. Cada día es más
importante la comprensión de las técnicas básicas de análisis de datos y su
interpretación adecuada.
Un elemento a destacar en
la enseñanza actual de la Estadística consiste en atribuir importancia a las
ideas previas que poseen los alumnos acerca de aleatoriedad, variable
aleatoria, medidas de tendencia central, medidas de dispersión, estimación y
tamaño muestral, independencia y probabilidad condicional, relación,
asociación, la determinación de la veracidad de las hipótesis estadísticas y
causalidad, etc.
La Didáctica Estadística
tiende a ocuparse más de las ideas de los estudiantes que ignorar, subvalorar o
desaprobar sus ideas, ya que solo se consigue dejarlas esencialmente intactas. En
lugar de suplantar unas nociones por otras, se debe proceder a una búsqueda creativa
por parte de cada alumno, para que se instalen en su mentalidad.
Se puede deducir, según
estos planteamientos, la individualidad en la apropiación del conocimiento, no
da lugar a la existencia de una única dimensión óptima para el aprendizaje.
Sugerimos un modelo en el cual el profesor es un facilitador y el estudiante es
el protagonista, que puede elegir entre una gama amplia de oportunidades disponibles
de aprendizaje, de acuerdo con sus condiciones particulares. Existen una
variedad de actividades, asociados con los distintos estilos de aprendizaje:
lecturas, conferencias, ejercicios, resúmenes, videos, metáforas, experimentos,
proyectos, discusiones y otras.
Etiquetas:
Aprendizaje,
Asesor,
Asesoria estadística,
Datamining,
didáctica,
INEI,
metodologia estadistica,
simbologia estadística,
SPSS,
UNAC
lunes, 23 de julio de 2018
El Análisis Exploratorio de Datos (AED)
El Análisis Exploratorio
de Datos (AED) es un enfoque que prioriza el análisis de datos y sobre este
particular existen múltiples criterios.
Monterde y Perea, menciona
que el AED es, “por una parte, una perspectiva o actitud sobre el análisis de
datos, en la que se exhorta a que el investigador adopte una actitud activa en
y hacia el análisis de los mismos, como un medio para sugerir nuevas hipótesis
de trabajo. Por otra parte, se compone de un renovado utillaje conceptual e
instrumental respecto a lo que podríamos llamar Estadística Descriptiva
“clásica”, con el fin de optimizar la cantidad de información que los datos
recogidos puedan ofrecer al investigador, mediante representaciones gráficas, a
base de reducir la influencia de las puntuaciones extremas en los estadísticos
con el empleo de, los que por ello se ha convenido en llamar, “estadísticos
resistentes”.
Ante lo mencionado surge
una pregunta, ¿cómo se inserta lo que ya se conoce de estadística? La respuesta no puede darse en pocos párrafos,
se requiere la revisión y lectura, desde el desarrollo de la teoría y la
ejemplificación correspondiente para comprender la concepción de AED y sus
similitudes y diferencias con la estadística clásica.
Muchos coincidirán en que
no se exagera si se dice que el objeto de la Estadística es el estudio de
métodos científicos para organizar, presentar y analizar datos estadísticos, pero
el problema está en cómo empezar a organizar los datos, todos los que han pasado
por un curso básico de Estadística
recordará la prioridad que se da a las tablas de frecuencia, al estudio de la
distribución normal o la correlación lineal que describen de una manera simple
el comportamiento de los datos.
Estos temas, que la AED no
los desecha, representan estructuras a gran escala que resumen las relaciones
entre todos los datos y que liberan a los investigadores de la búsqueda
minuciosa de modelos, para el entendimiento de las estructuras que subyacen en
grandes conjuntos de datos; esta es una primera idea de la concepción del AED.
Desde su comienzo, el AED
ha tenido como finalidad la revisión de los datos previo a la aplicación de
cualquier técnica estadística para alcanzar primero un entendimiento básico de
los mismos y de las relaciones existentes entre las variables analizadas. Es
decir, cualquier cálculo, (promedios, desviaciones, correlaciones, etc.) debe
estar precedido por un análisis visual de los datos, dicho de otro modo,
mientras la Estadística Descriptiva clásica se ocupa de recoger, ordenar y
representar los datos en forma de tablas, agrupándolos por intervalo y
calculando estadísticos basados principalmente en la distancia y con datos
centrados en la media (promedio); el AED se preocupa primero por detectar
anomalías y errores en las distribuciones univariadas de los datos, intentando
descubrir en ellos patrones o modelos, pero empleando variadas técnicas gráficas
y buscando estimadores no paramétricos o estimadores libres de distribución o
simplemente estimadores robustos, según el término acuñado por Box, tratando de
llevar el estudio de la información que se tiene, hacia una modelización más
completa que la establecida por la Estadística Clásica, basados principalmente
en el orden y centrados en la mediana.
Los programas estadísticos
como el SPSS, Minitab, Statgraphs, Statsoft, SAS, IDAMS y otros, ofrecen muchas
posibilidades a partir de interaccione simples y amigables, con diálogos
dinámicos tanto de la Estadística Clásica como las de AED, debiendo tener en
cuenta que una buena gráfica
informa más que un conjunto de números disgregados.
En
resumen el AED,
permite que hablen los datos y a partir
de ellos encontrar los patrones y modelos indicados, con esto se logra
que en muchas situaciones, el AED puede preceder a una situación de inferencia formal,
mientras que en otras, puede sugerir preguntas y conclusiones que se podrían
confirmar con un estudio adicional, por esto el AED es una herramienta de
utilidad en la generación de hipótesis, conjeturas y preguntas de investigación
acerca de una realidad que los datos fueron obtenidos.
En la investigación de
diferentes áreas, donde intervienen numerosas variables y donde los datos no abundan,
el AED bien utilizado se convierten en instrumento que complementan los diseños
de investigación y dan validez, confiabilidad y rigor científico a los resultados.
lunes, 16 de julio de 2018
La Estadística y la Corrupción
Tenia pensado agregar un post referido a la Estadística y la Corrupción, pero me di cuenta que la corrupción esta en todo, desde lo más simple de las cosas que hacemos hasta lo más complejo. De repente no iba poder terminar el post por la cantidad de información o detalles que tendría que haber considerado. Por eso decidí mejor presentar el siguiente video.
lunes, 9 de julio de 2018
¿Quieres predecir el Futuro?
Etiquetas:
Asesoría,
datos,
estadística,
INEI,
investigación,
SPSS,
UAANC,
UNMSSM
viernes, 29 de junio de 2018
Capacidad Estadística de un País
El BID ha desarrollado el
Índice de Capacidad Estadística Nacional (ICEN), este índice permite medir de
forma cuantitativa la capacidad de los sistemas estadísticos de los países de América
Latina; la capacidad estadística es “la existencia de una estructura o sistema
permanente que disponga de los recursos necesarios para generar de manera
sostenida datos estadísticos relevantes y de calidad, y para difundirlos
adecuada y oportunamente”.
El ICEN, es una medición
compuesta de cuatro dimensiones principales: recursos, normas y prácticas
institucionales, metodologías y difusión.
La primera se refiere a
los recursos financieros (presupuesto),
humanos (empleados y salarios), tecnológicos (software) y físicos
(equipos, infraestructura) con los que cuenta una entidad de estadística para
producir la información. Estos son centrales, debido a que en cantidades
adecuadas otorgan capacidad operativa a las oficinas.
En segundo lugar, las normas y prácticas institucionales son
aquellas que regulan la existencia y organización de la entidad estadística y del sistema en su
conjunto, así como su rol de coordinador y articulador del mismo.
Las metodologías, que componen la tercera dimensión, hacen referencia a
las técnicas mediante las cuales se recoge y procesa la información siguiendo
estándares internacionales validados, controles de calidad, y métodos que
generen información coherente y comparable de forma longitudinal y transversal.
Finalmente, la dimensión
de difusión se refiere a las
metodologías usadas para hacer accesible la información a los diversos
usuarios, de forma transparente, oportuna y resguardando la confidencialidad de
los datos.
Para medir el ICEN se
aplicaron cuestionarios a diferentes actores en los 10 países. Un cuestionario
fue llenado exclusivamente por funcionarios de la entidad estadística, mientras que otros
fueron aplicados a funcionarios del Sistema de Estadística Nacional (SEN),
académicos, periodistas y usuarios del sector privado. La información provista
por estos dos tipos de actores, productores y usuarios permitió estimar de
forma más integral la capacidad de los sistemas estadísticos nacionales. El
puntaje resultante se encuentra en un rango de 1 a 10, donde 1 indica un bajo nivel
de capacidad y 10 uno muy alto.
La herramienta se ha
aplicado para medir la capacidad estadística de 10 países en el año 2015 y 2016,
sus componentes y su forma de aplicación. Asimismo, se ha presentado el ranking
de países. Se observa que, este ranking se encuentra asociado con
los niveles de capacidad generales de los Estados, pero al mismo tiempo se
confirma que en algunos casos los niveles de capacidad estadística son
superiores a lo que se esperaría por su entorno.
El informe completo puede
descargarse de este enlace:¿A quién le importa saber? .
Etiquetas:
datos,
estadística,
ICEN,
INEI,
investigación,
metodología estadística,
Políticas públicas,
UNAC,
UNMSM
lunes, 25 de junio de 2018
La Estadística y el Científico de Datos
Artículo de Enrique Saldivar, El Comercio 17/06/2018
La transformación digital exige una
profunda reflexión sobre la empresa, pero también plantea retos muy
importantes para poder llevar con éxito el proceso y la comprensión de la tecnología
que se requiere: Machine Learning, Internet of Things y Blockchain, teniendo
como base el uso, acceso y explotación de datos.
Según datos de Excelacom. firma de
consultoría y análisis tecnológico, cada 60 segundos se envían 150 millones de
correos electrónicos, se real izan 1.389 viajes en UBER, se efectúan 2.4
millones de búsquedas en Google, son publicadas 38.194 fotos en Instagram, se
crean más de 120 nuevos perfiles en Linkedln y son descargadas 51.000
aplicaciones en dispositivos inteligentes.
Tiene sentido entonces que, hoy por
hoy, el análisis del Big Data se haya vuelto el motor fundamental en la
economía de la información. Sin embargo, para que las empresas obtengan el
máximo valor de los datos, no solo se necesitan tener las herramientas
adecuadas, sino también se requiere contar con personal capacitado. Es por esta
razón que es de suma importancia potenciar el capital humano, preparando a
profesionales para transformarlos en lo que hoy se conoce como Científicos de
Datos.
Aunque esta profesión no tiene una
definición exacta, el Científico de Datos se centra en un profesional dedicado
a analizar e interpretar grandes volúmenes de información, con el fin de
diseñar una estrategia de inteligencia de negocios e identificar nuevas
oportunidades para las compañías. No es coincidencia entonces que, en el Perú,
las carreras relacionadas con Estadística, Informática y Ciencias Matemáticas
hayan mostrado un crecimiento sostenido en los últimos años.
Lo expuesto supone un gran reto para
las organizaciones, ya que deben identificar la necesidad de contar con
científicos de datos y reconocer el potencial del Big Data, y abre una
oportunidad para futuros profesionales que buscan nuevos campos laborales.
lunes, 18 de junio de 2018
Estadísticas y Futbol
Dicen
que en el futbol las estadísticas no juegan. Sin embargo, ayudan a describir y
establecer patrones de juego, incluso se puede llegar a ensayar su relación con
la economía de un país, revisar el reporte: The World cup and Economics 2018.
Incluso se puede realizar
análisis sociológico como es el caso del Libro “Ese gol existe” de Aldo
Panfichi.
Pero
hay que hacer una diferencia, una cosa son las “Estadísticas” y otra cosa es la
“Estadística”, incluso habría que previamente hacer otra diferencia, el que se
ocupa de la (ciencia) Estadística se le conoce como Estadístico (sea licenciado
o Ingeniero) y no “Estadista” como erróneamente se le suele llamar.
Las
estadísticas permiten ordenar, clasificar y describir detalles a través del
conteo que se hace de la ocurrencia de hechos de una variable, en el fútbol
puede ser partidos ganados, perdidos o empatados; goles que hace un equipo o un
jugador, en un partido o en varios en un campeonato o torneo.
A
partir de los datos que generan las estadísticas, se puede establecer ratios,
tasas, proporciones o porcentajes e incluso medidas de tendencia central o de
variabilidad y tal vez algunos estadígrafos de correlación o relación de interés
que indiquen el comportamiento de un jugador o un equipo.
Más
complicado es utilizar estas estadísticas para establecer inferencias o modelos
más complejos, ya que cada partido e incluso cada jugador tienen una
performance diferente al tener un oponente diferente y cada ambiente o
condiciones de cada partido no es igual a otro, por tanto los resultados o estadísticas
van a ser diferentes.
Esta frecuencia
de las estadísticas nos permiten construir distribuciones de probabilidades, ya
que son hechos aleatorios que son singulares en cada partido, y estas
probabilidades son tendencias que se pueden o no cumplir aún si es cercano al 0.99
(que implica probabilidad de un suceso seguro de ocurrir).
Todos
los deportes usan estadística, las cuales les permitirá en el futuro medir las
tendencias o patrones de los jugadores de los equipos de un país o de un club;
pero, estos deben ser tomados con cuidado ya que son productos del azar. Como
todo en la vida (y el futbol) muchas de las cosas que suceden están
determinados por la aleatoriedad de las cosas que lo rodean.
lunes, 11 de junio de 2018
¿Aprendizaje Imposible?
Etiquetas:
Asesoria estadística,
estadística,
INEI,
investigación,
matemáticas,
tesis
lunes, 4 de junio de 2018
Los Pronósticos Cualitativos
Los diversos métodos estadísticos para realizar
pronósticos están en su mayor parte
dirigidos hacia los pronósticos económicos, de mercadotecnia, financieros y
otras formas de predicción empresarial. Estos métodos se centran fundamentalmente en el corto y mediano
plazos.
En el campo de los
pronósticos tecnológicos y ambientales existen varias formas de predicción, que se enfocan al largo plazo. Dichos métodos
cubren la predicción poblacional o demográfica, disponibilidad y costo de materias primas, evaluación del riesgo político, pronósticos gubernamentales y
legislativos, predicción competitiva y, la predicción
tecnológica.
La predicción tecnológica y ambiental no siempre proporciona
un procedimiento detallado, ni presenta
sus pronósticos como una respuesta numérica sencilla. El uso de tales métodos requiere de un
entendimiento de los factores implicados en cada
situación y una necesidad para adaptar el método a esa situación. Con dichos métodos es el experto quien es el procesador de hechos, conocimiento e información, más que algún
conjunto de reglas matemáticas, como
sería el caso con los métodos cuantitativos.
Los métodos de predicción tecnológica y ambiental se utilizan en tres tipos de situaciones:
La primera es la predicción cuando un nuevo proceso o
producto dado llegará a ser ampliamente adoptado. Por ejemplo, una organización
puede estar consciente de un cierto número de descubrimientos científicos que
todavía no han sido aplicados y puede pretender pronosticar el momento en el
cual su aplicación se hará más amplia. O una empresa puede interesarse en el
horizonte temporal para la adopción de un nuevo proceso. Como un ejemplo, se
puede considerar el desarrollo de la robótica y el problema de pronosticar el
punto en que dicha tecnología tendrá amplio reconocimiento en las aplicaciones
industriales. Esta información sería de interés para las empresas que
manufacturan o venden robots y para quienes pueden explotar las oportunidades
disponibles a través del uso de la robótica para mejorar su producción y
reducir sus costos.
La segunda es predecir qué nuevos avances y
descubrimientos se harán en un área específica. Por
ejemplo, ciertas organizaciones podrían interesarse
en lo que sucedería con los nuevos descubrimientos y avances médicos. Las
corporaciones podrían desear pronosticar nuevos procesos y tecnologías que serán desarrolladas en su industria
durante los próximos años, para ayudar en la
planificación de los programas de ampliación de planta física, el desarrollo del mercado de largo plazo y
las inversiones en investigación y desarrollo a largo plazo. También es
importante ser capaz de pronosticar el costo de la energía y otras materias
primas, porque los aumentos de tales
costos podrían tener graves consecuencias en algunos países o empresas.
La tercera es la predicción de los tipos de cambios y
patrones que podrían surgir de un
área que está sufriendo o está a punto de sufrir un cambio
primordial. Un objetivo principal es romper paradigmas e identificar la gama de posibilidades futuras.
Aislar patrones y relaciones emergentes
en tal situación es también deseable ya que los cambios tecnológicos afectarán
inevitablemente las actitudes sociales, las que a su vez afectarán la demanda de productos y servicios y las innovaciones
tecnológicas.
Etiquetas:
Asesoría,
futuro,
INEI,
Instrumentos,
metodología estadística,
predicción,
Pronósticos,
proyección,
UMCH
lunes, 28 de mayo de 2018
Estadística y Ciencias Sociales
El estudio
de la realidad social y política se realiza cada vez con mayor frecuencia
mediante análisis de encuestas y exploraciones de campo. En una investigación la
Estadística se utiliza para: a) Diseñar el tamaño de la muestra; b) Decidir el
tipo de muestreo en función de la población a investigar y c) Analizar los
datos obtenidos. Además, nuevas preguntas, resultado del análisis de encuestas,
ha llevado a nuevos desarrollos de modelos estadísticos.
Durante
la mayor parte del siglo XX los investigadores, entre ellos los estadísticos
trabajando en estas investigaciones, se concentraron en el análisis de datos de
tablas de contingencia, que ha sido la forma más habitual para presentar los
resultados de una encuesta.
A
mediados del siglo XX, se desarrollaron técnicas de medición de la asociación
entre variables categóricas que a través del coeficiente de correlación miden la
dependencia en contextos más amplios. Los avances en el tratamiento estadístico
de las variables cualitativas se han venido impulsado por las necesidades propias
del análisis.
Un
avance importante en este campo fue encontrar la relación entre el análisis de
correspondencias, herramienta introducida por Benzecri para representar datos
multivariantes de frecuencias. El Análisis de Correspondencias puede verse como
una generalización para variables cualitativas de una técnica estadística
clásica para reducir la dimensión de variables continuas, como la técnica de Componentes
Principales, esta técnica tiene muchas aplicaciones en diferentes campos de la
ciencia. Por ejemplo, los índices de desarrollo humano de la ONU, muchos
sistemas de compresión de imágenes o video para su envío por Internet, o los
factores que explican la inteligencia humana, utilizan esta herramienta
introducida por Hotelling en 1933. Matemáticamente, se trata de buscar
combinaciones lineales de un conjunto de variables, que contengan la máxima
información, lo que se traduce en que tengan varianza máxima.
Goodman
en 1985 relacionó los modelos log-lineales y el análisis de correspondencias,
estableciendo una metodología unificada para el análisis de encuestas.
El
modelo LISREL es otro desarrollo importante en el campo de la sociología, está técnica
generaliza el modelo factorial clásico introducido por Spearman en Psicometría
para analizar la inteligencia humana. Los modelos mencionados construyen un
sistema de ecuaciones estructurales, similares a los modelos econométricos
multiecuacionales, pero que en vez de relacionar variables observadas,
relacionan variables no observadas o factores. Además, permite incorporar
ecuaciones similares a un modelo factorial clásico para relacionar los factores
con las variables observadas. Estos modelos se han convertido en una
herramienta habitual en la sociología.
Otro aspecto
que ha estimulado la investigación estadística es el análisis de datos
faltantes. En alunas encuestas es frecuente que los entrevistados no respondan
a parte de las preguntas y se debe enfrentar con el problema de cómo utilizar
esta información incompleta. Este problema ha impulsado la creación de nuevos
métodos de estimación, como los métodos de cadenas de Markov que permiten una
utilización efectiva de toda la información disponible.
En resumen, se tiene que el papel de la estadística es un soporte
para la adquisición de conocimiento científico en el mundo actual. En las
ciencias sociales la Estadística, es una
herramienta que permite convertir los hechos observables en conocimiento e
información, si bien es cierto su desarrollo cuantitativo es menor, así como en
las humanidades, donde todavía se encuentra en sus inicios, es previsible que
en este siglo se producirán avances importantes en la cuantificación de estas
disciplinas.
Suscribirse a:
Comentarios (Atom)










