Este documento presenta una introducción a la teoría de la probabilidad. Explica que la probabilidad surge del estudio de fenómenos inciertos y aleatorios. Luego resume los orígenes y desarrollo histórico de la teoría de la probabilidad desde la Edad Media hasta el siglo XX, incluyendo las contribuciones de figuras como Cardano, Galileo, Kolmogorov y otros. Finalmente, define conceptos clave como probabilidad condicional, subjetiva y lógica.
2. Introducción
En muchos campos de la actividad humana se trabajan fenómenos que
poseen algún grado de incertidumbre y en un importante número de
situaciones se llega a decisiones soportadas en el estudio de tales hechos.
Así, el economista estudia la oferta y la demanda de un producto y
establece alguna relación funcional sin llegar a determinar exactamente la
interacción entre las dos; igualmente el médico evalúa al paciente y en
ocasiones no puede precisar cuál es la enfermedad que le aqueja; el ingeniero
tiene problemas de lograr exactitud en la resistencia de materiales, de
confiabilidad de sus sistemas, de medición de precipitaciones atmosféricas, de
la caracterización de un suelo, el mismo flujo del tráfico en una ciudad o una
carretera; al sociólogo le interesa conocer el comportamiento de un cierto grupo
de indígenas ante la civilización, sus aptitudes y actitudes con base en algunas
de las personas que lo conforman; por igual diferentes profesionales buscan
medir el riesgo que está involucrado en las decisiones que deben tomar.
La incertidumbre se presenta debido a la aleatoriedad del fenómeno que
se observa, pero además por el desconocimiento del verdadero estado del
sistema lo cual equivale a ignorar los parámetros que determinan ese estado
de la naturaleza.
Existe incertidumbre, por ejemplo cuando: El agricultor se interesa sobre
cuantas semillas serán vanas. El jefe de producción debe detener o no el
proceso de producción. Al sociólogo le interesa de un conglomerado sus
ingresos, estado civil, edad, etc. El ingeniero electrónico debe identificar la
confiabilidad de un sistema.
Se requiere por lo tanto de un procedimiento estructurado,
sistematizado, formalizado, es decir, científico, para manejar la incertidumbre y
que además permita cuantificar los diversos niveles de ésta.
El ser humano ha tratado de medir su nivel de incertidumbre, tal medida
se conoce como probabilidad.
Filosóficamente no se está desarrollando o descubriendo la probabilidad,
ella es inherente al ser humano, sino que se está cuantificando.
3. Probabilidad
En la antigüedad se asocia con el concepto de incertidumbre, en el
sentido de falta de certeza. En el siglo XVII se encuentra un antecedente del
término (“aprobable”) para referirse a acciones o decisiones que las personas
sensatas harían. En el siglo XVIII ya se utiliza para referirse a la toma de
decisiones bajo condiciones de incerteza. También aparece la noción lógica de
probabilidad vinculada a la descripción de inferencias a partir de datos
incompletos.
Teoría de la probabilidad
La teoría de la probabilidad es una teoría matemática axiomatizada,
sobre la cual existe un amplio consenso. La formulación usual de la teoría de la
probabilidad se hace en el lenguaje de la teoría de conjuntos.
El dominio de la teoría es un conjunto no vacío de elementos
cualesquiera, habitualmente simbolizado como Ω. La probabilidad es una
función que asigna números reales a los subconjuntos de Ω.
La probabilidad es un método por el cual se obtiene la frecuencia de un
acontecimiento determinado mediante la realización de un experimento
aleatorio, del que se conocen todos los resultados posibles, bajo condiciones
suficientemente estables.
La teoría de la probabilidad se usa extensamente en áreas como la
estadística, la física, la matemática, las ciencias y la filosofía para sacar
conclusiones sobre la probabilidad discreta de sucesos potenciales y la
mecánica subyacente discreta de sistemas complejos, por lo tanto es la rama
de las matemáticas que estudia, mide o determina a los experimentos o
fenómenos aleatorios.
Precursores de la teoría de la probabilidad
Richard de Fournival (1200-1250)
Uno de los primeros problemas dedicados a contabilizar el número de
posibles resultados al lanzar un dado varias veces podemos encontrarlo aún en
la Edad Media, en el poema De Vetula de Richard de Fournival (1200-1250)
4. donde afirma correctamente que si se lanzan tres dados hay 216
combinaciones posibles y calcula acertadamente los diferentes valores para la
suma de los tres dados. Aunque ahora puede parecer una cuestión trivial, en
aquella época no lo era, y otros autores se equivocaron al intentar resolverla,
generalmente porque no tenían en cuenta las posibles permutaciones de una
misma combinación.
Luca Pacioli (1445-1517)
Quien en 1487 propuso estos dos problemas particulares: un juego en el
que el premio es de 22 ducados que consiste en alcanzar 60 puntos se
interrumpe cuando un equipo lleva 50 puntos y el otro 30; y tres arqueros que
compiten por un premio de 6 ducados lanzan flechas hasta que uno de ellos
haga 6 dianas, siendo interrumpidos cuando el primero de ellos lleva 4 dianas,
el segundo 3 y el tercero 2.
¿Cómo deben repartirse los premios entre los contendientes? Pacioli
propuso que el premio debería ser repartido en función de las victorias
obtenidas anteriormente: así, el premio del primer problema se dividía en
60×5/8 ducados para el primer equipo y en 360×3/8 para el segundo; para el
problema de los arqueros, el premio se dividía en la proporción 4/9, 3/9 y 2/9.
Como más tarde se pondría de manifiesto, esta solución obtenida por Pacioli es
incorrecta.
Girolamo Cardano (1501-1576)
Quien escribió la primera obra importante relacionada con el cálculo de
probabilidades en los juegos de azar. Fue en 1565 y se llamaba Libro de los
juegos de azar. Además Cardano se había ocupado anteriormente del
problema del reparto de apuestas y en 1539 llegó a la conclusión de que la
solución de Pacioli era incorrecta porque al considerar tan sólo el número de
juegos ganados por cada equipo, no contaba cuántos juegos debían ganar
para hacerse con el premio.
Cardano propuso como solución del problema que si n es el número de
juegos totales y a y b los juegos ganados por cada equipo, el premio debía
repartirse de la siguiente manera: [1+2+…+(n-b)]: [1+2… (n-a)].
Esta solución es, en general, incorrecta y sólo da resultados válidos en
casos particulares.
5. Niccolo Tartaglia (1499-1557)
También intentó resolver este problema y en 1556 publicó un libro en el
que descartaba la solución dada por Pacioli y daba su propia solución: si un
equipo ha ganado a puntos y el otro b, se juega a n puntos y el premio total es
P, las ganancias deberían repartirse de la forma:
(P/2)±P[(a-b)/n] siendo la cantidad mayor para el equipo que tenga más
victorias. Sin embargo, Tartaglia fue consciente de que su solución no era la
correcta y en su libro dejaba claro que era buena para impartir justicia y
equilibrio a un reparto, pero no era exacta desde el punto de vista matemático.
Galileo Galilei (1564-1642)
Durante su vida también resolvió problemas sobre dados, hasta tal punto
que escribió un libro llamado Sobre la puntuación en tiradas de dados. Sin
embargo, la mayor aportación de Galileo a los inicios de la probabilidad fue la
invención de su teoría de la medida de errores. Clasificó los errores en dos
tipos: “sistemáticos” y “aleatorios”, clasificación que se mantiene aún en la
actualidad y estableció cuidadosamente las propiedades de los errores
aleatorios. Con esto contribuyó sin saberlo a la creación de ramas
fundamentales de la estadística y la probabilidad posterior.
Los axiomas de Kolmogorov (1903-1987)
Dado un conjunto de sucesos elementales, Ω, sobre el que se ha
definido un ∆ de subconjuntos de Ω y una función P que asigna valores
reales a los miembros de ∆, a los que denominamos "sucesos", se dice
que P es una probabilidad sobre (Ω,∆) si se cumplen los siguientes tres
axiomas.
Primer axioma
La probabilidad de un suceso es un número real mayor o igual que 0.
P (A) ≥ 0
Segundo axioma
La probabilidad del total, es igual a 1.
P (Ω) = 1
Tercer axioma
Si dos sucesos A y B, son mutuamente excluyentes o independientes,
entonces:
P (A o B) = P (A) + P (B)
6. Objeto de la teoría de probabilidad
El objeto de la teoría de probabilidades es proporcionar un modelo
matemático adecuado, aplicable a la descripción e interpretación de los
fenómenos aleatorios.
Problemas de la interpretación clásica.
El término “igualmente posible” debe ser definido de manera tal que no
suponga el término probabilidad.
Si aplicamos esta interpretación para situaciones donde el número de
casos posibles es infinito, entonces la probabilidad de cada evento o
conjunto de eventos finitos es siempre 0.
Probabilidad condicional
Se denomina así a la probabilidad de que ocurra el evento A dado que ha
ocurrido el evento B.
Pr (A|B) = Pr (A ∩ B)
Pr (A)
Cuando dos sucesos A y B son independientes se cumple que Pr (A|B)= P (A)
Ejemplo:
Pr (mejora) = 800 / 1590 = 0,503
Pr (Mejora | fármaco) = 500 / 860 = 0,581
7. Probabilidad subjetiva
Asignamos probabilidad a eventos tales como:
Que X persona se enferme.
Que durante Enero haya muchas lluvias.
Que un automóvil sufra desperfectos.
Que Z se destaque en su profesión.
Que un atleta gane una medalla de oro.
o La probabilidad de estos eventos no depende del tratamiento
matemático ni de la noción de experimentos repetibles.
Ejemplo:
Caso 1:
El apostador es indiferente ante las tres apuestas
Pr (1) = Pr (2) = Pr (3)
Caso 2:
El apostador es indiferente ante las tres apuestas
Pr (1) > Pr (2) > Pr (3)
8. Probabilidad lógica
Los sistemas lógicos consideran a la probabilidad como una única
relación lógica entre proposiciones o sentencias. Bajo tales aspectos: “la
probabilidad mide como un conjunto de proposiciones, fuera de la lógica
necesidad y aparte de la opinión humana, confirma la verdad de otro”.
Entre los cultivadores de este concepto destacan Jeffreys, Keynes,
Carnap (que la denomina “grado de confirmación”), Tintner
(“credibilidad”) y Le Blanc (“probabilidad inductiva”).
Dados p y q, hay sólo un valor q/p.
Los posibles valores de q/p son todos los números reales en el intervalo
(0,1).
Si p implica q, entonces q/p = 1.
Si p no implica q, entonces q/p = 0.
La probabilidad de q y r dado p es la probabilidad de q dado p
multiplicada por la probabilidad de r dado p (axioma conjuntivo).
La probabilidad de q o r dado p es la probabilidad de q dado p más la
probabilidad de r dado p menos la probabilidad de q y r dado p (axioma
disyuntivo).
Aportes a la probabilidad Lógica
John Maynard Keynes. (1883-1946)
A Treatise on Probability. (1921)
Harold Jeffreys. (1891-1989)
Theory of Probability (1939)
Rudolph Carnap. (1891-1970)
Logical foundations of Probability (1952)
9. La teoría de la probabilidad moderna
La teoría de la probabilidad en el siglo XIX:
A partir, fundamentalmente, de Laplace las dos disciplinas más
importantes dentro de la teoría de la probabilidad, que eran el cálculo de
probabilidades y la estadística se fusionaron de manera que el cálculo de
probabilidades se convirtió en el andamiaje matemático de la estadística. Toda
la base matemática que permitió desarrollar la teoría de probabilidades está
extraída del análisis combinatorio, una disciplina iniciada por Leibniz y Jacob
Bernoulli. Posteriormente con el paso del tiempo fue introduciendo la teoría de
límites disminuyendo el peso que tenía el análisis combinatorio.
Esta fue sólo la primera de las modernizaciones que sufriría la
probabilidad el siglo XIX. Otra de las más importantes fue la que llevó a cabo el
matemático alemán Karl Friedrich Gauss (1777-1855), que desarrolló la teoría
de errores conjuntamente con Bessel y Laplace, llegando a establecer el
método de mínimos cuadrados como el procedimiento más elemental para
resolver los problemas de la teoría de errores. Gauss y Laplace,
independientemente aplicaron conceptos probabilísticos al análisis de los
errores de medida de las observaciones físicas y astronómicas. De hecho,
científicos consagrados de la época como Maxwell, Boltzmann y Gibbs
aplicaron la probabilidad en su obra "Mecánica Estadística". La teoría de los
errores constituye la primera rama de la estadística que puede constituirse
como una estructuración teórico-matemática.
Resaltemos ahora uno de los resultados importantes en teoría de errores
de Gauss (también hallado de manera independiente por A. Legendre(1752-
1833)) que demostraba que, bajo ciertas condiciones generales, la función de
densidad de los errores de medida tiene la forma:
Otras contribuciones importantes a la teoría de errores fueron las de
Simeon Denis Poisson (1781-1840) que descubrió que la media aritmética no
es siempre mejor que una única observación, A.Cauchy(1789-1857) y más
tarde de matemáticos rusos como P.Chebyshev(1821-1894). Al margen de la
teoría, el francés Poisson aportó otras cosas destacadas a la teoría de la
probabilidad, como la distribución que lleva su nombre y que es aplicable a
fenómenos poco comunes y extraños. En 1837 publica su trabajo En 1837
publica su trabajo en Recherches sur la Probabilité des Jugements. Poisson
10. originalmente estudió Medicina, en 1789 se dedicó al campo matemático en la
Escuela Politécnica.
Fue muy amigo de Laplace y de Lagrange. Publicó alrededor de 400
artículos en matemática y estadística. Pese al éxito de las aplicaciones se
oyeron voces de inconformidad a la definición clásica de probabilidades, que
exigía "a priori" saber que todos los eventos eran igualmente posibles. Además,
en ciertos casos era imposible aplicar la definición clásica de la probabilidad.
Pese a los avances de Poisson, esto no se resolvería hasta el siglo XX.
Sin embargo lo que sí hizo Poisson, fue introducir de alguna manera el
concepto de variable aleatoria, no como lo entendemos actualmente, sino
esbozando sus primeros pasos como un conjunto de cada uno con su
probabilidad. Posteriormente, Chebyshev asumió que esos conjuntos de los
que hablaba Poisson eran independientes e introdujo el término” variable
aleatoria” que aún tiene validez en la actualidad y fue A.Liapunov (1857-1918)
quien especificó que estas variables no serían siempre independientes y que
esa dependencia estaba sujeta a ciertas condiciones. Además Liapunov dio
una definición de distribución casi exacta a la actual:
.
11. Conclusión
La probabilidad constituye un importante parámetro en la determinación
de las diversas casualidades obtenidas tras una serie de eventos esperados
dentro de un rango estadístico.
Existen diversas formas como método abstracto, como la teoría
Dempster Shafer y la teoría de la relatividad numérica, esta última con un alto
grado de aceptación si se toma en cuenta que disminuye considerablemente
las posibilidades hasta un nivel mínimo ya que somete a todas las antiguas
reglas a una simple ley de relatividad.
La probabilidad de un evento se denota con la letra p y se expresa en
términos de una fracción y no en porcentajes, por lo que el valor de p cae entre
0 y 1. Por otra parte, la probabilidad de que un evento "no ocurra" equivale a 1
menos el valor de p y se denota con la letra q.
12. Bibliografía
-http://www-groups.dcs.st-and.ac.uk/-history/
(Mc Tutor history of mathematics).
http://www.arrakis.es/~mcj/prb019.htm
(Solución del problema del c.de Meré).
http://www.sectormatematica.cl/biografias.htm
(Breves apuntes biográficos).
http://kogi.udea.edu.co/revista/16/16-11.pdf#search=%22historia
%20de%20la%20probabilidad%22
(Ponencia breve acerca de la probabilidad).
http://www.monografias.com/trabajos/renacim/renacim.shtml
(Texto sobre el renacimiento, usado para conocer la época y contexto
histórico).