Mostrando entradas con la etiqueta matemática 5. Mostrar todas las entradas
Mostrando entradas con la etiqueta matemática 5. Mostrar todas las entradas

martes, 14 de abril de 2020

¿QUÉ ES LA PROBABILIDAD Y LA ESTADÍSTICA?


HISTORIA

¿QUÉ ES LA PROBABILIDAD Y LA ESTADÍSTICA?

La Probabilidad y la Estadística se encargan del estudio del azar desde el punto de vista de las matemáticas:
  • La Probabilidad propone modelos para los fenómenos aleatorios, es decir, los que se pueden predecir con certeza, y estudia sus consecuencias lógicas.
  • La Estadística ofrece métodos y técnicas que permiten entender los datos a partir de modelos.
De esta manera, el Cálculo de las Probabilidades es una teoría matemática y la Estadística es una ciencia aplicada donde hay que dar un contenido concreto a la noción de probabilidad.

PROBABILIDAD

En este sentido, el cálculo científico de probabilidades puede ayudarnos a comprender lo que en ocasiones la intuición nos indica de manera errónea. Un ejemplo típico es la denominada "paradoja de los cumpleaños". Supongamos que estamos en un grupo de 23 personas. Los cálculos nos dicen que la probabilidad de que dos personas celebren el mismo día su cumpleaños es del 50%, algo que a simple vista parece increíble (Paradoja del Cumpleaños »). No es de extrañar por tanto que la Teoría de Probabilidad se utilice en campos tan diversos como la demografía, la medicina, las comunicaciones, la informática, la economía y las finanzas.

ESTADÍSTICA

Cuando hablamos de estadística, se suele pensar en un conjunto de datos numéricos presentada de forma ordenada y sistemática. Esta idea es debida a la influencia de nuestro entorno, ya que hoy día es casi imposible que cualquier medio de communicación, periódico, radio, televisión, etc, no nos aborde diariamente con cualquier tipo de información estadística.
Sólo cuando nos adentramos en un mundo más específico como es el campo de la investigación de las Ciencias Sociales: Medicina, Biología, Psicología, ... empezamos a percibir que la Estadística no sólo es algo más, sino que se convierte en la única herramienta que, hoy por hoy, permite dar luz y obtener resultados, y por tanto beneficios, en cualquier tipo de estudio, cuyos movimientos y relaciones, por su variabilidad intrínseca, no puedan ser abordadas desde la perspectiva de las leyes determistas.
La Estadística se ocupa de los métodos y procedimientos para recoger, clasificar, resumir, hallar regularidades y analizar los datos (Estadística Descriptiva), siempre y cuando la variabilidad e incertidumbre sea una causa intrínseca de los mismos; así como de realizar inferencias a partir de ellos, con la finalidad de ayudar a la toma de decisiones y en su caso formular predicciones ( Estadística Inferencial).

Historia de la Probabilidad

En cuanto al concepto en sí, la probabilidad y el azar siempre ha estado en la mente del ser humano. Por ejemplo:
  • Sumerios y Asirios utilizaban un hueso extraído del talón de animales como ovejas, ciervos o caballos, denominado astrágalo o talus, que tallaban para que pudieran caer en cuatro posiciones distintas, por lo que son considerados como los precursores de los dados.
  • En el caso de la civilización egipcia, algunas pinturas encontradas en las tumbas de los faraones muestran tanto astrágalos como tableros para el registro de los resultados.
  • Por su parte, los juegos con dados se practicaron ininterrumpidamente desde los tiempos del Imperio Romano hasta el Renacimiento, aunque no se conoce apenas las reglas con las que jugaban. Uno de estos juegos, denominado "hazard", palabra que en inglés y francés significa riesgo o peligro, fue introducido en Europa con la Tercera Cruzada. Las raíces etimológicas del término provienen de la palabra árabe "al-azar", que significa "dado". Posteriormente, en el "Purgatorio" de Dante el término aparece ya como "azar".
  • En la actualidad, ruletas, máquinas tragaperras, loterías, quinielas,..., nos indican que dicha fascinación del hombre por el juego, continúa.
La historia de la probabilidad comienza en el siglo XVII cuando Pierre Fermat » Blaise Pascal » tratan de resolver algunos problemas relacionados con los juegos de azar. Aunque algunos marcan sus inicios cuando Cardano (jugador donde los haya) escribió sobre 1520 El Libro de los Juegos de Azar (aunque no fué publicado hasta más de un siglo después, sobre 1660) no es hasta dicha fecha que comienza a elaborarse una teoría aceptable sobre los juegos.
Christian Huygens conoció la correspondencia entre Blaise Pascal y Pierre Fermat suscitada por el caballero De Méré, se planteó el debate de determinar la probabilidad de ganar una partida, y publicó (en 1657) el primer libro sobre probabilidad: De Ratiociniis in Ludo Aleae, (Calculating in Games of Chance), un tratado sobre juegos de azar.Se aceptaba como intuitivo el concepto de equiprobabilidad, se admitía que la probabilidad de conseguir un acontecimiento fuese igual al cociente entre
Durante el siglo XVIII, debido muy particularmente a la popularidad de los juegos de azar, el cálculo de probabilidades tuvo un notable desarrollo sobre la base de la anterior definición de probabilidad. Destacan en 1713 el teorema de Bernoulli y la distribución binomial, y en 1738 el primer caso particular estudiado por De Moivre » , del teorema central del límite. En 1809 Gauss » inició el estudio de la teoría de errores y en 1810 Laplace, que había considerado anteriormente el tema, completó el desarrollo de esta teoría. En 1812 Pierre Laplace » publicó Théorie analytique des probabilités en el que expone un análisis matemático sobre los juegos de azar.
A mediados del siglo  XIX, un fraile agustino austríaco, Gregor Mendel, inició el estudio de la herencia, la genética, con sus interesantes experimentos sobre el cruce de plantas de diferentes características. Su obra, La matemática de la Herencia, fue una de las primeras aplicaciones importantes de la teoría de probabilidad a las ciencias naturales
Desde los orígenes la principal dificultad para poder considerar la probabilidad como una rama de la matemática fue la elaboración de una teoría suficientemente precisa como para que fuese aceptada como una forma de matemática. A principios del siglo XX el matemático ruso Andrei Kolmogorov » la definió de forma axiomática y estableció las bases para la moderna teoría de la probabilidad que en la actualidad es parte de una teoría más amplia como es la teoría de la medida.


Historia de la Estadística

La palabra Estadística procede del vocablo “Estado”, pues era función principal de los Gobiernos de los Estados establecer registros de población, nacimientos, defunciones, impuestos, cosechas... La necesidad de poseer datos cifrados sobre la población y sus condiciones materiales de existencia han debido hacerse sentir desde que se establecieron sociedades humanas organizadas.
Es difícil conocer los orígenes de la Estadística. Desde los comienzos de la civilización han existido formas sencillas de estadística, pues ya se utilizaban representaciones gráficas y otros símbolos en pieles, rocas, palos de madera y paredes de cuevas para contar el número de personas, animales o ciertas cosas.
  • Su origen empieza posiblemente en la isla de Cerdeña, donde existen monumentos prehistóricos pertenecientes a los Nuragas, las primeros habitantes de la isla; estos monumentos constan de bloques de basalto superpuestos sin mortero y en cuyas paredes de encontraban grabados toscos signos que han sido interpretados con mucha verosimilidad como muescas que servían para llevar la cuenta del ganado y la caza.
  • Hacia el año 3.000 a.C. los babilonios usaban ya pequeñas tablillas de arcilla para recopilar datos en tablas sobre la producción agrícola y los géneros vendidos o cambiados mediante trueque.
  • Los egipcios ya analizaban los datos de la población y la renta del país mucho antes de construir la pirámides.En los antiguos monumentos egipcios se encontraron interesantes documentos en que demuestran la sabia organización y administración de este pueblo; ellos llevaban cuenta de los movimientos poblacionales y continuamente hacían censos. Tal era su dedicación por llevar simpre una relación de todo que hasta tenían a la diosa Safnkit, diosa de los libros y las cuentas. Todo esto era hecho bajo la dirección del Faraón y fue a partir del año 3050 a.C.
  • En la Biblia observamos en uno de los libros del Pentateuco, bajo el nombre de Números, el censo que realizó Moisés después de la salida de Egipto. Textualmente dice: "Censo de las tribus: El día primero del segundo año después de la salida de Egipto, habló Yavpe a Moisés en el desierto de Sinaí en el tabernáculo de la reunión, diciendo: "Haz un censo general de toda la asamblea de los hijos de Israel, por familias y por linajes, describiendo por cabezas los nombres de todos los varones aptos para el servicio de armas en Israel. En el llibro bíblico Crónicas describe el bienestar material de las diversas tribus judías.
  • En China existían los censos chinos ordenados por el emperador Tao hacia el año 2.200 a.C.
  • Posteriormente, hacia el año 500 a.C., se realizaron censos en Roma para conocer la población existente en aquel momento. Se erigió la figura del censor, cuya misión consistía en controlar el número de habitantes y su distribución por los distintos territorios.
  • En la Edad Media, en el año 762, Carlomagno ordenó la creación de un registro de todas sus propiedades, así como de los bienes de la iglesia.
  • Después de la conquista normanda de Inglaterra en 1.066, el rey Guillermo I, el Conquistador, elaboró un catastro que puede considerarse el primero de Europa.
  • Los Reyes Católicos ordenaron a Alonso de Quintanilla en 1.482 el recuento de fuegos (hogares) de las provincias de Castilla.
En 1.662 un mercader de lencería londinense, John Graunt, publicó un tratado con las observaciones políticas y naturales, donde Graunt pone de manifiesto las cifras brutas de nacimientos y defunciones ocurridas en Londres durante el periodo 1.604-1.661, así como las influencias que ejercían las causas naturales, sociales y políticas de dichos acontecimientos. Puede considerarse el primer trabajo estadístico serio sobre la población.
Curiosamente, Graunt no conocía los trabajos de B. Pascal » (1.623-1.662) ni de C. Huygens (1.629-1.695) sobre estos mismos temas. Un poco más tarde, el astrónomo Edmund Halley (1.656- 1.742) presenta la primera tabla de mortalidad que se puede considerar como base de los estudios contemporáneos. En dicho trabajo se intenta establecer el precio de las anualidades a satisfacer a las compañías de seguros. Es decir, en Londres y en París se estaban construyendo, casi de manera simultánea, las dos disciplinas que actualmente llamamos estadística y probabilidad.
En el siglo XIX, la estadística entra en una nueva fase de su desarrollo con la generalización del método para estudiar fenómenos de las ciencias naturales y sociales. Galton » (1.822-1.911) y Pearson (1.857-1936) se pueden considerar como los padres de la estadística moderna, pues a ellos se debe el paso de la estadística deductiva a la estadística inductiva.
Los fundamentos de la estadística actual y muchos de los métodos de inferencia son debidos a R. A. Fisher. Se intereso primeramente por la eugenesia, lo que le conduce, siguiendo los pasos de Galton a la investigación estadística, sus trabajos culminan con la publicación de la obra Métodos estadísticos para investigaciones. En el aparece la metodología estadística tal y como hoy la conocemos.
A partir de mediados del siglo XX comienza lo que podemos denominar la estadística moderna, uno de los factores determinantes es la aparición y popularización de los computadores. El centro de gravedad de la metodología estadística se empieza a desplazar técnicas de computación intensiva aplicadas a grandes masas de datos, y se empieza a considerar el método estadístico como un proceso iterativo de búsqueda del modelo ideal
Las aplicaciones en este periodo de la Estadística a la Economía conducen a una disciplina con contenido propio: la Econometría. La investigación estadística en problemas militares durante la segunda guerra mundial y los nuevos métodos de programación matemática, dan lugar a la Investigación Operativa


Historia de la Combinatoria

El nacimiento y desarrollo de la combinatoria ha sido paralelo al desarrollo de otras ramas de las Matemáticas, tales como el álgebra, teoría de números, y probabilidad.
Desde tiempos muy remotos ha habido problemas de combinatoria que han llamado la atención de los matemáticos:
  • El problema de los cuadrados mágicos, que son matrices de números con la propiedad de que la suma de los elementos de cualquier columna, fila o diagonal es el mismo número, aparece en un viejo libro chino fechado 2200 a. C. Los cuadrados mágicos de orden 3 fueron estudiados con fines místicos.
  • Los coeficientes binominales, que son los coeficientes enteros del desarrollo de (a+b) fueron conocidos en el siglo XII.
  • El triángulo de Pascal » que es una disposición triangular de los coeficientes binominales fue desarrollado en el siglo XIII.
Se puede considerar que en Occidente la combinatoria surge en el siglo XVII con los trabajos de Blaise Pascal » y de Pierre Fermat sobre la teoría de juegos de azar. Estos trabajos, que formaron los fundamentos de la teoría de la probabilidad, contenían asimismo los principios para determinar el número de combinaciones de elementos de un conjunto finito, y así se estableció la tradicional conexión entre combinatoria y probabilidad.
El término “combinatoria” tal y como lo usamos actualmente fue introducido por Wihem Leibniz en su Dissertartio de Arte Combinatoria. De gran importancia para la consolidación de la combinatoria fue el artículo de Ars Conjectandi (el arte de conjeturar) de J.Bernouilli » ; este trabajo estaba dedicado a establecer las nociones básica de probabilidad. Para esto fue necesario introducir también un buen número de nociones básicas de combinatoria pues se usaron fuertemente como aplicaciones al cálculo de probabilidades. Se puede decir que con los trabajos de Leibniz y Bernoulli se inicia el establecimiento de la combinatoria como una nueva e independiente rama de las matemáticas.
El matemático suizo Leonard Euler fue quien desarrolló a principios del siglo XVIII una auténtica escuela de matemática combinatoria. En sus artículos sobre la partición y descomposición de enteros positivos en sumandos, estableció las bases de uno de los métodos fundamentales para el cálculo de configuraciones combinatorias, que es el método de las funciones generadoras. También se le considera el padre de la teoría de grafos por el planteamiento y solución de los problemas de los “Puentes de Konigsberg” usando por primera vez conceptos y métodos de teoría de grafos. Los primeros problemas de teoría de grafos surgieron de la búsqueda de solución a algunos problemas cotidianos y también en el planteamiento de algunos acertijos matemáticos tales como el problema de los Puentes de Konigsberg, la colocación de reinas en un tablero de ajedrez con alguna restricción, problemas de transporte, el problema del viajero, etc....
En Inglaterra a finales del siglo XIX Arthur Cayley (motivado por le problema de calcular el número de isómetros de hidrocarburos saturados) hizo importantes contribuciones a la teoría de enumeración de grafos. Por este tiempo el matemático George Boole usó métodos de combinatoria en conexión con el desarrollo de la lógica simbólica y con las ideas y métodos que Henri Poincaré desarrolló en relación con problemas de topología.
Uno de los factores más importantes que han contribuido al gran desarrollo que ha tenido la combinatoria desde 1920 es la teoría de grafos, la importancia de esta disciplina estriba en el hecho de que los grafos pueden servir como modelos abstractos parar modelar una gran variedad de relaciones entre objetos de un conjunto.

martes, 31 de marzo de 2020

Calculo de cuartiles.

Cuartiles y percentiles

1. Agrupamos las muestras de menor a mayor valor.


 2. Calculamos la posición que ocupa el percentil buscado aplicando la siguiente fórmula:

 siendo N el número total de muestras analizadas y la letra "i" el cuartil buscado

3. Si el resultado anterior (x) no tiene decimales, el cuartil se obtiene seleccionando el valor de la muestra que ocupa la posición x.

4. Si el resultado (x) tiene decimales, el cuartil se obtiene haciendo la media de las muestras en posición x y x+1

Veamos algunos ejemplos prácticos Ejemplo 1:

Calcular el cuartil 1 (Q1) de las siguientes muestras de notas en matemáticas de un aula (notas de 0 a 20): 16, 10, 12, 8, 9, 15, 18, 20, 9, 11, 1, 13, 17, 9, 10, 14

Ordenamos de menor a mayor: 1, 8, 9, 9, 9, 10, 10, 11, 12, 13, 14, 15, 16, 17, 18, 20

N = número de muestras = 16 muestras x = (N · i) / 4 = (16 · 1) / 4 = 4 Como x = 4 es un número sin decimales, entonces el cuartil 1 es el valor de la muestra que ocupa la posición 4 Q1 (cuartil 1) = 9

Ejemplo 2: 

En un examen muy difícil de universidad, se obliga al profesor a aprobar al menos al 25%.
Calcular la nota a partir de la cual está obligado a aprobar siendo las notas (notas de 0 a 20):

0, 4, 1, 0, 0, 7, 2, 1, 4, 0, 3, 9, 2, 0, 0, 4, 8, 1, 0, 9, 4 Necesitamos calcular el cuartil 3 (Q3)
ya que nos interesa calcular el valor a partir del cual solo hay un 25% con mejores notas

 Ordenamos de menor a mayor: 0, 0, 0, 0, 0, 0, 0, 1, 1, 1, 2, 2, 3, 4, 4, 4, 4, 7, 8, 9, 9

N = número de muestras = 21 muestras x = (N · i) / 4 = (21· 3) / 4 = 15,75 Como x = 15,75
es un número con decimales, entonces el cuartil 3 es la media de los valores que ocupan la posición 15 y 16 Q3 (cuartil 3) = (4 + 4) / 2 = 4.



jueves, 26 de marzo de 2020

Calcular cuartiles, deciles y percentiles




Definición de Medidas de Posición

En el ámbito de la Estadística Descriptiva, se conoce como Medidas de Posición a aquellas entidades numéricas utilizadas para señalar la posición que ocupa un dato determinado, en relación con el resto de datos numéricos, permitiendo así conocer otros puntos propios de la distribución de datos, que no son inherentes a los valores centrales.
Entre las Medidas de Posición más comunes en el campo de la Estadística se encuentran los Cuartiles, Dentiles y Percentiles. Resulta pertinente entonces hacer una breve descripción de cada una de estas medidas, así como de las formas de calcularlos. A continuación, los Cuartiles, Deciles y Percentiles:

Cuartiles

Los cuartiles corresponden a los valores que tiene una variable y que cumplen con la función de dividir los datos ordenados en cuartos o cuatro partes con igual valor porcentual. Se distinguen en principio tres cuartiles, que se denotan regularmente con la letra Q: Q1, Q2 y Q3. Sin embargo hay que prestar atención también a las definiciones que la teoría estadística da a cada uno de estos cuartiles. En este sentido se tiene lo siguiente:
Q1: también llamado primer cuartil, representa un valor por debajo del cual quedan un cuarto o 25% de los valores de sucesión, previamente ordenados
Q2: llamado segundo cuartil y considerado la mediana.
Q3: finalmente, el tercer cuartil representa a su vez el valor por debajo del que queda el 75% de todos los datos.

Cómo calcular Cuartiles

No obstante, existe un método matemático para calcular los cuartiles, tanto cuando se trata de cuartiles no agrupados como de cuartiles agrupados. Cabe entonces explicar cada uno de los procedimientos:
Cuartiles para datos no agrupadosEl procedimiento para calculas cuartiles correspondientes a datos no agrupados resulta bastante sencillo, pues sólo toma cuatro pasos, los cuales serán explicados a continuación:
1.- Se deben ordenar los datos de forma sucesiva, y de mayor a menor.
2.- Se deberá calcular el cuartil usando la fórmula siguiente:
En donde n corresponde al tamaño total de la muestra, y k a la medida de posición que se está calculando.
3.-  Obtenido el resultado se debe determinar la naturaleza del valor, si corresponde a un número entero, se le debe sumar el valor de 0.5, si por el contrario el cálculo arrojó un número no entero se tomará con el valor del siguiente número entero de mayor tamaño.
4.- Una vez obtenida la medida de posición debe ubicarse en los datos que han sido ordenados.
Ejemplo
A continuación, se ofrece un ejemplo de cómo calcular el primer y tercer cuartil (Q1 y Q3) en base a la cantidad de alumnos que han asistido a clases a un colegio privado durante la primera quincena de clases (15 días) entre lunes y viernes.
En primer lugar se ofrecerán los datos estadísticos correspondientes a la asistencia, según sucedió esta:
30 28 27 30 25
30 29 29 27 29
28 30 30 30 29
De esta forma, a fin de calcular el Q1 y el Q3, lo primero que debe hacerse es ordenar de menor a mayor los datos:
25 27 27 28 28
29 29 29 29 30
30 30 30 30 30
Hecho esto se procede entonces a calcular el primer cuartil Q1. Para esto, se designa a cada variable un valor, procedimiento que generaría entonces que n= 15, k= 25 (porque esa es la medida de posición que busca el primer percentil.  Entonces se aplica la ecuación:
La cuenta ha dado 3,75 número éste que señala que el Q1 se encuentra entonces entre el tercer y cuarto dato, se regresa a los datos, y se busca cuáles son los valores del tercer y cuarto dato. En este ejemplo, el tercer dato correspondería a “27” y el cuarto dato a “28”. Obtenidos, se procede entonces a sumarlos y dividirlos entre dos:
Es decir, que durante 15 días, el Q1 correspondiente a los alumnos que asistieron a clases fue de 27,5. A fines de calcular el Q3, se realiza el mismo procedimiento, solo que el valor de la k será 75.
Cuartiles para datos agrupadosSin embargo, puede ocurrir que los datos se encuentren dentro de una tabla de distribución de frecuencia. En cuyo caso se debe tener en cuenta que el primer cuartil será el valor que divide el 25% de los elementos correspondientes al 75% de aquellos valores restantes.
De esta forma para calcular el primer cuartil o el Q1, debe aplicarse la siguiente formula:
En la cual cada uno de los elementos corresponde a variables determinadas:
Q1: Primer cuartil
Lri: correponde al límite inferior de la clase que contiene Q1
N: tamaño de la muestra
Fa: es el número acumulado de observaciones precedentes a la clase de Q1
F: frecuencia de la clase.
AC: amplitud de la clase.
Por su parte el cálculo del tercer cuartil para los datos agrupados se calculará en base a la fórmula que se expresa seguidamente:
Finalmente la amplitud cuartilica se calculará restando el total de Q3 menos el total de Q1

Deciles
Por su parte los Deciles constituyen otro tipo de Medidas de Posición, conformados por ciertos valores que dividen la sucesión de datos que han sido ordenadas en diez partes, que son equitativas porcentualmente hablando. Ellos se denotan de la siguiente forma: D1, D2, D3….D9, aun cuando se leen “primer decil”, “cuarto decil”, etc. De acuerdo a las fuentes estadísticas son utilizados sobre todo para calcular el aprovechamiento académico.

Cómo calcular Deciles

Al igual que con los Cuartiles, los Deciles pueden ser calculados en base a si los datos se encuentran no agrupados, o por el contrario sí lo están. De esta forma, se tendrían dos formas de calcularlos:
Cálculo de Deciles de Datos no AgrupadosSi se tiene una serie de números o datos, correspondientes a distintos valores X1, X2… Xn, se deberán usar las siguientes fórmulas, según si el valor es un número par o impar. A continuación cada una de las ecuaciones a emplear de acuerdo al caso: 
Si n (número que corresponde al número de datos) y es par se deberá emplear la siguiente fórmula:
Si por el contrario n es impar, entonces se deberá aplicar la fórmula que se expresa a continuación:
Es importante señalar que en todos los casos A corresponderá al Decil que se desea calcular.
Cálculo de Datos AgrupadosSi por el contrario se trata de Datos Agrupados, la fórmula para calcular los Deciles corresponderá a la siguiente:
En donde cada una de las variables corresponden a los siguientes valores:
Lk: límite real inferior a la clase correspondiente al decil k
n:  será el número de datos
Fk: es equivalente a la frecuencia acumulada correspondiente a la clase que antecede a la que corresponde al decil k
fk: por su parte esta variable corresponde a la frecuencia de la clase del decil k
c: longitud del intervalo correspondiente a la clase del decil k

Percentiles

Finalmente los percentiles, también conocidos como centiles son otras de las Medidas de Posición más comunes y empleadas, utilizadas sobre todo para clasificación de datos correspondientes a las medidas de las personas, como la estatura, el peso, el diámetro craneal, etc. Igualmente, técnicamente, son definidos como ciertos valores que dividen en cien partes idénticas porcentualmente hablando los datos que han sido ordenados de forma sucesiva de menor a mayor.  En cuanto a su denotación, ésta corresponde a la forma P1, P2…. Pn, no obstante son leídas como Percentil 10, Percentil 90, etc.

Cómo calcular Percentiles

Tal como con las otras Medidas de Posición, los percentiles pueden ser medidos en cuanto a si corresponden a Datos no Agrupados o Agrupados, en cuyo caso se usarán procedimientos matemáticos distintos. A continuación una descripción de cada uno de ellos:
Percentiles de Datos no agrupadosSi se trata del cálculo de percentiles de datos no ordenados, se deberá tomar calcular en base a la siguiente fórmula:
En donde x es el número del percentil, n es equivalente al número total de datos y k el percentil.

Percentiles de Datos AgrupadosPor otro lado, si se desea calcular el percentil en base a datos que se encuentran agrupados, se deberá entonces emplear la siguiente fórmula:

lunes, 23 de marzo de 2020

Representación gráfica de una función.

Para realizar las gráficas de las funciones del enunciado, usaremos la calculadora gráfica Geogebra.

De esta forma diremos que:

a) f:x ➙ f(X) = - 2
Como la función no tiene una X que determine el valor de f(x), la gráfica correspondiente será la adjuntada en la primera foto.

b) f:x ➙ f(X) = - 2X + 5
En este caso, nos encontramos frente a una función lineal, cuyos valores de f(x) dependerán del valor que le demos a X

Para fines prácticos usaremos 1, 2 y 3 como valores para X, realizaremos los cálculos y graficaremos
X = 1     f(X) = - 2(1) + 5     f(X) = 3
X = 2     f(X) = - 2(2) + 5     f(X) = 1
X = 3     f(X) = - 2(3) + 5     f(X) = - 1

De esta forma, la gráfica será la de la segunda imagen.

c) f:x ➙ f(X) = X₂ - 2X -3En este caso, nos encontramos frente a una función cuadrática, cuyos valores de f(x) dependerán del valor que le demos a X

Para fines prácticos usaremos 1, 2 y 3 como valores para X, realizaremos los cálculos y graficaremos
X = 1     f(X) = (1)² - 2(1) + 5     f(X) = 4
X = 2     f(X) = (2)² - 2(2) + 5     f(X) = 5
X = 3     f(X) = (3)² - 2(3) + 5     f(X) = 8

Y de esta manera, la gráfica será la de la tercera imagen.






La representación gráfica se puede ver adjunto.

Para gráfica siempre es importante reconocer el tipo de función con la que nos encontramos, entonces tenemos que:

1- f:x➙f(X)=-2
Esta es una función constante y es paralela al eje Y.

2-  f:x➙f(X)=-2x+5
Esta es una función lineal la cual es decreciente por tener pendiente negativa.

3-  f:x➙f(X)=x²-2x-3
Esta es una función parabólica, la cual abre hacia arriba pues el signo del termino cuadrático es positivo.

Mira otras gráficas en este enlace brainly.lat/tarea/7918811.



miércoles, 18 de marzo de 2020

Las medidas de dispersión en estadística.

Las medidas de dispersión son importantes porque nos hablan de la variabilidad que encontramos en una determinada muestra o población. Cuando hablamos de muestra, esta dispersión es importante porque condiciona el error que vamos a tener a la hora de hacer inferencias para medidas de tendencia central, como la media.
En una distribución de datos, las medidas de dispersión tienen un papel muy importante. Estas medidas complementan a las de posición central, caracterizando la variabilidad de los datos.
Así, las medidas de tendencia central indican valores con respecto a los que los datos parecen agruparse. Son recomendadas para inferir el comportamiento de variables en poblaciones y muestras. Algunos ejemplos de ellas son la media aritmética, la moda o la mediana (1).
Las medidas de dispersión complementan a estas medidas de tendencia central. Además, son esenciales en una distribución de datos. Esto es porque caracterizan la variabilidad de los datos. Su relevancia en la formación estadística ha sido señalada por Wild y Pfannkuch (1999).
En estas medidas, la percepción de la variabilidad de los datos es uno de los componentes básicos en el pensamiento estadístico. La percepción de la variabilidad de los datos nos da información sobre la dispersión de los datos con respecto a un promedio o media.
La media aritmética es muy usada en la práctica, pero muchas veces puede interpretarse mal. Esto pasará cuando los valores de la variable estén muy dispersos. En estas ocasiones es cuando hace falta acompañar la media de las medidas de dispersión (2).
En las medidas de dispersión, hay tres componentes importantes relacionados con la variabilidad aleatoria (2):
  • La percepción de su ubicuidad en el mundo que nos rodea.
  • La competencia para su explicación.
  • La habilidad de cuentificarla (que implica comprender y saber aplicar el concepto de dispersión).
hombre ante gráficos representando el pensamiento estratégico, medidas de dispersión

¿Para qué sirven las medidas de dispersión?

En un estudio estadístico, a la hora de generalizar los datos de una muestra de una población las medidas de dispersión son muy importantes ya que condicionan de manera directa el error con el que trabajemos. Así, cuanta más dispersión recojamos en una muestra, más tamaño necesitaremos para trabajar con el mismo error.
Por otro lado, estas medidas nos ayudan a determinar si nuestros datos se alejan mucho del valor central. Con ello, nos dan información de si este valor central es adecuado para representar la población de estudio. Esto es muy útil para comparar distribuciones y comprender los riesgos en la toma de decisiones (1).
Estas medidas son muy útiles para comparar distribuciones y comprender los riesgos en la toma de decisionesA mayor dispersión, menos representativo es el valor central. Estas son las más utilizadas:
  • Recorrido o rango.
  • La desviación media.
  • Varianza.
  • La desviación típica o estándar.
  • El coeficiente de variación.

Funciones de cada una de las medidas de dispersión

Rango

En primer lugar, el rango está recomendado para una comparación primaria. De esta manera, considera solo las dos observaciones extremas. Por eso se recomienda solo para muestras pequeñas (1). Se define como la diferencia entre el último valor de la variable y el primero (3).

Desviación estadística

Por su parte, la desviación media indica dónde estarían concentrados los datos si todos estuvieran a la misma distancia de la media aritmética (1). Consideramos la desviación de un valor de la variable como la diferencia en valor absoluto entre ese valor de la variable y la media aritmética de la serie. Así pues, se considera como la media aritmética de las desviaciones (3).

Varianza

La varianza es una función algebraica de todos los valores, apropiada para tareas de estadística inferencial (1). Se puede definir como las desviaciones al cuadrado (3).

Desviación estándar o típica

Para muestras extraídas de la misma población, la desviación estándar es de las más utilizadas (1). Se trata de la raíz cuadrada de la varianza (3).

Coeficiente de variación

Se trata de una medida utilizada principalmente para comparar la variación entre dos conjuntos de datos medidos en diferentes unidades. Por ejemplo, estatura y peso corporal de los alumnos de una muestra. Así, se utiliza para determinar en qué distribución están más agrupados los datos y la media es más representativa (1).
Hombre leyendo sobre estadística descriptiva en la tablet
El coeficiente de variación es una medida de dispersión más representativa que las anteriores, porque es un número abstracto. Es decir, es independiente de las unidades en que figuren los valores de la variable. En general, este coeficiente de variación suele expresarse en tanto por ciento (3).
Así pues, estas medidas de dispersión indicarán por un lado el grado de variabilidad que hay en la muestra. Por el otro lado, indicarán la representatividad del valor central, ya que si se obtiene un valor pequeño, significará que los valores se concentran en torno a ese centro.
Esto significaría que hay poca variabilidad en los datos y el centro representa bien a todos. En cambio, si se obtiene un valor grande, significará que los valores no están concentrados, sino dispersos. Esto significará que hay mucha variabilidad y el centro no será muy representativo. Por otro lado, a la hora de hacer inferencias necesitaremos un tamaño de muestra más grande si queremos reducir el error, aumentado precisamente por el incremento de la variabilidad.

La forma más fácil de empezar a explotar la minería

La forma más fácil de empezar a explotar la minería : Esta empresa le ofrece participar en el proceso de extracción de la más popular y prom...