Introducci´ on o n a la
TEOR´IA DEL RIESGO Luis Rinc´ on on Departamento de Matem´ aticas aticas Facultad de Ciencias UNAM Circuito Exterior de CU 04510 045 10 M´ exico exi co DF
Versi´ on: on: Enero 2011
Una versi´ on actualizada del presente texto se encuentra disponible en formato on electr´onico onico en la direcci´ on on
http://www.matematicas.unam.mx/lars
Pr´ ologo ologo El presente texto contiene los temas del curso semestral de Teor´ Teor´ıa ıa del Rie Riesgo sgo que el autor ha impartido a estudiantes de ´ultimo ultimo semestre de la carrera de actuar´ actuar´ıa en la Facultad de Ciencias de la UNAM. Contiene el material b´asico asico para un curso introducto introductorio rio a ciertos ciertos temas temas de la teor´ teor´ıa del riesgo aplicada a seguros, seguros, e incluye incluye una colecci´on on de ejercicios. ejercicios. La may mayor or parte del material material que se presenta presenta aqu´ aqu´ı fue compilado de las fuentes que aparecen al final del texto. Espero que este material sea de alguna ayuda para los numerosos alumnos de las distintas escuelas de actuar´ actuar´ıa y de matem´aticas aticas aplicadas de pa´ pa´ıses de habla hispana, y contribuya tambi´en en a apoya apoyarr el trabajo trabajo docent docentee de sus profesore profesores. s. El texto texto fue escrito escrito en el sistema sistema LATEX, las ilustraciones fueron elaboradas usando el paquete pstricks, y las fotos fueron tomadas del archivo MacTutor (http://www-history.mcs.st-and.ac.uk/) de la universidad de St. Andrews en Escocia. La ´ultima ultima versi´on on disponible de este texto en su formato digital puede encontrarse en la secci´on “libros” de la p´agina agina web http://www.matematicas.unam.mx/lars Agradezco sinceramente los comentarios, correcciones y sugerencias que he recibido por parte de alumnos alumnos y profesores profesores para mejorar mejorar este material. material. Toda comunicaci´ comunicaci´on on puede enviarse a la cuenta de correo que aparece abajo.
Luis Rinc´ on on Enero 2011 Ciudad Universitaria UNAM
[email protected]
Contenido
1. Mo delo individual vs mo delo 1.1. Introducci Introducci´´on . . . . . . . . . 1.2. Modelo individual . . . . . 1.3. 1.3. F´ ormula de De Pril . . . . . 1.4. Modelo colectivo . . . . . . 1.5. .5. Mode odelo colectivo Poiss isson . .
colectivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
5 . 5 . 7 . 11 . 15 . 22
2. F´ ormula ormula de Panjer y m´ etodos etodos de aproximaci´ on 2.1. 2.1. F´ ormula de Panjer . . . . . . . . . . . . . . . . . 2.2. Aproximac Aproximaci´ i´ on normal . . . . . . . . . . . . . . . 2.3. Aproximac Aproximaci´ i´ on gamma trasladada . . . . . . . . . 2.4. Aproximac Aproximaci´ i´ on de Edgeworth . . . . . . . . . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
33 33 40 41 42
3. Princi Principios pios para para el c´ alculo de primas 3.1. Principios generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49 49 54 55
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
4. Reaseguro 59 4.1. Reaseguro proporcional . . . . . . . . . . . . . . . . . . . . . . . . . 60 4.2. .2. Reaseguro no propo roporc rcio ion nal . . . . . . . . . . . . . . . . . . . . . . . . 61 4.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65 5. Teor´ıa de la credibilidad 69 5.1. .1. Credibilid lidad america icana . . . . . . . . . . . . . . . . . . . . . . . . . . 69 5.2. Credibilidad Bayesiana . . . . . . . . . . . . . . . . . . . . . . . . . . 73 5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3
4
Contenido
6. Procesos estoc´ asticos 6.1. Filtraciones y tiempos de paro . . . . . . . . . . . . . . . . . . . . . 6.2. Proceso de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3. Martingalas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
81 82 82 83
7. Teor´ıa de la ruina 7.1. Modelo cl´ a sico de Cram´e r-Lundberg . . . . . . . . . . . . . . . . . . 7.2. Probabilidad de ruina . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
87 87 89 104
A. Ap´ endice
105
Parte 1
Modelo individual vs modelo colectivo
En este cap´ıtulo se presenta una introducci´on al esquema del seguro y al concepto general de riesgo. Se presenta adem´ as la perspectiva individual y la colectiva para modelar el riesgo correspondiente al conjunto de reclamaciones que afronta una compa˜ n´ıa aseguradora. Se estudian tambi´en algunas propiedades y relaciones entre estas dos perspectivas. En el resto del curso se adopta el modelo colectivo como modelo fundamental.
1.1.
Introducci´ on
El objetivo del presente texto es ofrecer una introducci´on a algunos modelos matem´ aticos para representar ciertos tipos de riesgos, como por ejemplo, aquellos a los que sistem´aticamente tiene que hacer frente una compa˜n´ıa aseguradora. El t´ermino riesgo tiene muchas acepciones dependiendo del ´area de estudio que se trate, y en t´erminos imprecisos puede definirse como la posibilidad de experimentar ciertos eventos de inter´es y las consecuencias derivadas de dichos eventos. En general, los riesgos pueden tener un sentido positivo o negativo, y por lo tanto no se trata necesariamente de evitarlos o de protegerse contra ellos. Se trata, en t´ erminos generales, de la identificaci´on de los riesgos, de ponderarlos con sus consecuencias, de decidir la aceptaci´ on o no de los mismos, y de tomar provecho de su existencia. El quehacer cotidiano del hombre, ya sea en el ´ambito personal o profesional, 5
6
´n 1.1. Introduccio
implica necesariamente y a cada momento hacer frente a ciertos riesgos, y ello puede tener consecuencias no deseadas pero tambi´en abrir oportunidades. Por ejemplo, el comprar un boleto de loter´ıa conlleva el riesgo de perder el importe pagado por el boleto, y al mismo la posibilidad de ganar una gran cantidad de dinero. Otro ejemplo en donde es evidente la evaluaci´on (a veces inconsciente) de los riesgos es cuando uno decide viajar en avi´on, en este caso se considera primordial la rapidez y comodidad del viaje, y se desde˜na convenientemente cualquier posibilidad de accidente. Como hemos mencionado, el t´ermino riesgo se define de manera distinta dependiendo de la disciplina de estudio. En ingenier´ıa, por ejemplo, puede definirse el riesgo como el producto de la probabilidad de que un evento (generalmente no deseable) ocurra y el da˜no esperado debido a la ocurrencia del evento, es decir, Riesgo=(Probabilidad de un accidente) (Da˜ nos como consecuencia del accidente). En finanzas, puede definirse el riesgo en t´erminos de la variaci´on o volatilidad de una inversi´on; en general, se considera que una inversi´on en la bolsa de valores (tasa de inter´es variable) es m´as riesgosa comparada con una inversi´on en un banco (tasa de inter´es fija). Finalmente, en seguros, el riesgo puede definirse como el monto de las reclamaciones totales de los asegurados, veremos a continuaci´on con m´as detalle este caso pues es al que est´an dirigidos principalmente los modelos matem´aticos que estudiaremos.
×
A grandes rasgos, la forma en la opera un seguro es la siguiente: un grupo de personas reconocen que est´an expuestas a sufrir alg´un tipo de siniestro en sus bienes o en sus personas, y que dichos siniestros pueden causarles consecuencias irreparables como la p´erdida de sus vidas, o bien p´erdidas econ´omicas considerables. Al contratar un seguro (es decir, firmar una p´ oliza de seguro), cada una de estas personas paga por adelantado una cantidad de dinero (generalmente peque˜na) llamada n´ıa aseguradora, quien se compromete a resarcir monetariaprima a una compa˜ mente a todas aquellas personas aseguradas que sufrieron alg´un siniestro durante el tiempo de vigencia del seguro y seg´un lo pactado en la p´oliza del seguro. De esta manera, aunque no se conozca de manera individual exactamente a las personas que sufrir´an un siniestro, el capital obtenido de manera colectiva debe ser suficiente para solventar los gastos de los siniestros que se presentan. Es claro que bajo este mecanismo las p´erdidas econ´omicas del colectivo se distribuyen en todos y cada uno de los individuos logrando as´ı garantizar la sobrevivencia financiera de cada uno de ellos, en otras palabras, mediante el contrato de un seguro se logra disminuir los da˜ nos econ´omicos de aquellas personas que tuvieron la mala fortuna de sufrir un siniestro. Naturalmente para que tal mecanismo de asistencia colectiva
Parte 1.
Modelo individual vs modelo colectivo
7
sea factible es necesario que el n´umero de asegurados cumpla un valor m´ınimo, y que se establezcan con precisi´on las caracter´ısticas de los siniestros a considerar. Es claro tambi´en que, bajo este esquema general, tanto el n´umero de siniestros como el monto de las reclamaciones efectuadas son variables desconocidas, y que los modelos de la teor´ıa de la probabilidad podr´ıan ser de ayuda a este respecto. En efecto, en las siguientes p´aginas estudiaremos algunos modelos matem´aticos que han ayudado a representar el aspecto azaroso de ciertas variables relevantes en los seguros.
1.2.
Modelo individual
Suponga que se tiene un portafolio de n p´olizas individuales de seguros v´alidas por un a˜ no como se muestra en la Figura 1.1.
P´ oliza 1
P´ oliza 2
....... ....... ....... .......
....... ....... ....... .......
P´ oliza n
······
....... ....... ....... .......
Figura 1.1: Sea pj la probabilidad de que el j-´esimo asegurado no efect´ue ninguna reclamaci´on durante el tiempo de vigencia del seguro, y sea qj la probabilidad de que se observe exactamente una reclamaci´on. Suponga que la igualdad pj + qj = 1 se cumple, ello significa que no puede haber m´as de una reclamaci´on por cada asegurado. Tal situaci´ on corresponde, por ejemplo, a los seguros de vida. Defina la variable aleatoria 1 si hay reclamaci´on en la p´oliza j, Dj = 0 si no hay reclamaci´ on en la p´oliza j.
Claramente Dj tiene distribuci´on Bernoulli con par´ametro qj . El uso de la letra D viene del t´ermino en ingl´es death . Observe que el n´ umero total de reclamaciones est´ a dado por la variable aleatoria N = D1 + +Dn . Ahora suponga artificialmente que cada p´oliza efect´ ua una reclamaci´on, y sea la variable aleatoria C j > 0 el monto de la reclamaci´on efectuada por la p´oliza j. Debido a que los siniestros pueden presentarse con caracter´ısticas distintas y ello puede derivar en distintos montos de reclamaci´ on, consideraremos de manera general a C j no como una constante sino
···
8
1.2. Modelo individual
como una variable aleatoria. La letra C proviene del t´ermino en ingl´es claim , que se traduce en espa˜nol como reclamaci´ on . La verdadera reclamaci´on de la p´oliza j est´ a dada por el producto Dj C j =
C j 0
si Dj = 1, si Dj = 0.
Observe que esta variable aleatoria puede ser mixta. De esta forma se considera como datos en este modelo la colecci´on de vectores aleatorios (D1 , C 1 ), . . . , (Dn , C n ), que supondremos independientes. Consideraremos adem´as que las variables Dj y C j tambi´en son independientes entre s´ı. Definici´ on. El monto de reclamaciones agregadas , o tambi´en llamado agregado de reclamaciones , en el modelo individual, es la variable aleatoria n
S =
Dj C j .
(1.1)
j=1
Esta variable es el monto que afronta una compa˜n´ıa aseguradora por concepto de reclamaciones durante el periodo completo del seguro. La ecuaci´on (1.1) representa el modelo individual para una p´oliza de seguros de las caracter´ısticas se˜naladas. El modelo tiene este nombre pues supone conocer las probabilidades de reclamaci´on y posible monto de reclamaci´on de todos y cada uno de los asegurados de manera individual. Una posible desventaja de este modelo es que presupone que el n´umero de asegurados en la cartera se mantiene constante durante todo el tiempo de vigencia del seguro. Desde el punto de vista matem´atico, y tambi´ en desde la perspectiva del negocio del seguro, nuestro objetivo es conocer las caracter´ısticas de la variable S , a quien llamaremos riesgo. Si F j (x) denota la funci´on de distribuci´on del producto Dj C j , entonces la funci´on de distribuci´on F (x) del riesgo S adquiere la siguiente expresi´on en t´erminos de convoluciones: F (x) = (F 1 F n )(x). Esta expresi´on general y compacta es, sin embargo, un tanto dif´ıcil de calcular. Como primeros resultados generales se presentan a continuaci´on algunas caracter´ısticas de S . Denotaremos por Gj (x) la funci´on de distribuci´on de C j , y como es costumbre, cuando exista, M X (t) denota la funci´on generadora de momentos de una variable X cualquiera.
∗···∗
Parte 1.
Modelo individual vs modelo colectivo
9
Proposici´ on. Bajo la notaci´on e hip´otesis del modelo individual se tienen los siguientes resultados. 1. F j (x) = 1 + qj (Gj (x)
− 1),
2. M Dj C j (t) = 1 + qj (M C j (t)
para x
≥ 0.
− 1).
n
3. M S (t) =
[ 1 + qj (M Cj (t)
j=1
− 1)].
n
4. E (S ) =
qj E (C j ).
j=1
n
5. Var(S ) =
[ qj Var(C j ) + qj pj E 2 (C j ) ].
j=1
Demostraci´ on.
≥ 0, P (Dj C j ≤ x) P (Dj C j ≤ x | Dj = 0) P (Dj = 0) + P (Dj C j ≤ x | Dj = 1) P (Dj = 1) P (0 ≤ x | Dj = 0) pj + P (C j ≤ x | Dj = 1) qj
1. Para cualquier n´ umero real x F j (x) = =
= = pj + qj Gj (x) = 1 + qj (Gj (x)
− 1).
2. Tenemos que M Dj C j (t) =
E (etDj C j )
= E (etDj C j Dj = 0)P (Dj = 0) + E (etDj C j Dj = 1)P (Dj = 1) = pj + qj M C j (t) = 1 + qj (M Cj (t) 1).
|
|
−
3. Esta igualdad se sigue directamente de la anterior usando la hip´otesis de independencia.
10
1.2. Modelo individual
4. Nuevamente por independencia, E (S ) =
n
n
n
E (Dj C j ) =
j=1
E (Dj )E (C j ) =
j=1
qj E (C j ).
j=1
5. Primeramente se tiene que E (Dj C j ) = qj E (C j ), y E (Dj2 C j2 ) = qj E (C j2 ). Entonces Var(Dj C j ) =
qj E (C j2 )
− qj2E 2(C j )
= qj [Var(C j ) + E 2 (C j )]
− qj2 E 2(C j )
= qj Var(C j ) + qj pj E 2 (C j ). Por lo tanto Var(S ) =
n
n
Var(Dj C j ) =
j=1
[ qj Var(C j ) + qj pj E 2 (C j ) ].
j=1
Aproximaci´ on normal. Cuando n es grande y el portafolio de asegurados es homog´eneo en el sentido de que las variables Dj C j son id´enticamente distribuidas, puede usarse el teorema central del l´ımite para aproximar la distribuci´o n de S mediante la distribuci´on normal, es decir, P (S
E (S ) x − E (S ) x − E (S ) ≤ x) = P ( S −Var(S ≤ ) ≈ Φ( ). ) Var(S ) Var(S )
Esta aproximaci´on puede ser adecuada para ciertos riesgos pero tiene la desventaja de que asigna una probabilidad positiva al intervalo ( , 0), lo cual no es consistente con el hecho de que S 0. Sin embargo, dado que la distribuci´on N(µ, σ 2 ) se concentra principalmente en el intervalo (µ 4σ, µ + 4σ), cuando la esperanza y la varianza de S son tales que E (S ) 4 Var(S ) 0, la probabilidad asignada a la parte negativa del eje es realmente peque˜na, ello alivia un poco el hecho de que esta distribuci´on no tenga soporte en el intervalo [0 , ). Tal vez la situaci´on m´as comprometedora sea que la funci´on de densidad normal decae muy r´apidamente pues existen riesgos cuyas funciones de densidad no cumplen con tal caracter´ıstica.
≥
−∞
− −
≥
∞
Parte 1.
1.3.
11
Modelo individual vs modelo colectivo
F´ ormula de De Pril
Presentaremos a continuaci´on la f´ormula de De Pril [5]. Este resultado fue demostrado por Nelson De Pril en 1986 y proporciona una expresi´on exacta, aunque recursiva, de la distribuci´on de probabilidad de un riesgo en el modelo individual. La f´ ormula es bastante general aunque presupone que las reclamaciones toman los valores en el conjunto 1, 2, . . . . Este supuesto no es realmente una restricci´on fuerte pues en la pr´actica el pago de siniestros se realiza siempre usando alguna unidad monetaria. Para establecer la f´ormula de De Pril es necesario dividir el portafolio de n asegurados de acuerdo a la tasa de mortalidad y la suma asegurada. Denotaremos por nij al n´ umero de asegurados que tienen probabilidad de reclamaci´ on qj y monto de reclamaci´on i, en donde i toma valores en 1, 2, . . . , I , y j en 1, 2, . . . , J . De esta forma se tiene la tabla de la Figura 1.2 en donde la suma de las entradas es n, es decir,
{
{
}
{
}
I
n=
J
nij .
i=1 j=1
Probabilidades de reclamaci´on
Monto de la reclamaci´on
· ·· · ·· 1 · ·· 2 · ·· · · · · ·· · ·· · · · · ·· · ·· i · ·· · · · · ·· · ·· q1 n11 n21
q2 n12 n22
Figura 1.2:
qj
·· · ·· · ·· · nij ·· ·
··· ··· ··· ··· ··· ···
}
12
´ rmula de De Pril 1.3. Fo
Teorema (F´ o rmula de De Pril). Sea nij el n´ u mero de p´ olizas cuyos asegurados tienen tasa de mortalidad qj y suma asegurada i. Suponga que j = 1, 2, . . . , J , e i = 1, 2, . . . , I . Entonces las probabilidades g(r) = P (S = r), est´an dadas por r∧I ⌊r/i⌋
1 r
−
g(r) =
g(r
i=1 k=1
I
g(0) =
− ik) h(i, k), para r ≥ 1
J
(1
qj )nij ,
i=1 j=1
en donde
J
−
k−1
h(i, k) = i( 1)
nij (
j=1
qj
1
− qj )
k
on generadora de probabilidad del monto reclamado Y ij Demostraci´ on. La funci´ por un asegurado con probabilidad de reclamaci´on qj , y monto reclamado i, es E (tY ij ) = (1
− qj ) + qj ti .
Por lo tanto, usando la hip´otesis de independencia, la funci´on generadora de probabilidad de la cartera completa es ∞ S
G(t) = E (t ) =
I r
t g(r) =
r=0
J
i=1 j=1
(1
− qj + qj ti)n
Tomando logaritmo y despu´es derivando, I
ln G(t) =
J
nij ln(1
i=1 j=1
d G′ (t) ln G(t) = = dt G(t)
I
− qj + qj ti ).
J
i=1 j=1
nij
iqj ti−1 . 1 qj + qj ti
−
ij
.
Parte 1.
13
Modelo individual vs modelo colectivo
Por lo tanto I
′
tG (t) =
G(t)
J
nij
I
= G(t)
J
nij i
i=1 j=1 I
−
1
i=1 j=1
iqj ti qj + qj ti
qj ti qj ti −1 (1 + ) 1 qj 1 qj
−
−
J
qj ti = G(t) nij i 1 qj i=1 j=1
−
∞
−
( 1)k−1 (
k=1
qj ti k−1 ) , 1 qj
−
∞
en donde hemos usado la expansi´on (1 x)−1 = k=0 xk , v´ alida para x < 1. Por lo tanto, para valores suficientemente peque˜nos de t,
−
I
′
tG (t) = G(t)
||
∞
J
−
( 1)k−1 (
nij i
i=1 j=1
k=1
qj 1
− qj
)k tik .
Defina ahora la funci´on J
h(i, k) = i( 1)k−1
−
nij (
j=1
qj 1
− qj
)k .
La doble suma respecto de los ´ındices j y k es absolutamente convergente en cualquiera de los dos ´ordenes que se efect´uen estas sumas y el resultado es el mismo. Por lo tanto es v´alido el intercambiando en el orden de estas sumas y la expresi´on anterior puede escribirse como sigue I
′
tG (t) = G(t)
∞
tik h(i, k).
i=1 k=1
Substituyendo las expresiones para G′ (t) y G(t) en sus correspondientes series de potencia se obtiene ∞
r=1
∞ r
rt g(r) =
I
∞
r
t g(r)
r=0
tik h(i, k).
i=1 k=1
Para r 1, el coeficiente de tr en el lado izquierdo es rg(r), mientras que en el lado derecho es la suma de los t´erminos g(r ik)h(i, k), para aquellos valores de i
≥
−
14
´ rmula de De Pril 1.3. Fo
y k tales que 1
≤ ik ≤ r. Igualando estos coeficientes se tiene que r∧I ⌊r/i⌋
rg(r) =
− ik)h(i, k),
g(r
i=1 k=1
⌊ ⌋
en donde r/i es la parte entera del cociente r/i. De esta forma se llega a la siguiente expresi´on, para r 1,
≥
1 g(r) = r
r∧I ⌊r/i⌋
g(r
i=1 k=1
− ik)h(i, k).
Por otro lado, como S = 0 s´olo cuando ning´ un asegurado efect´ua ninguna reclamaci´ on, para r = 0 se tiene que I
g(0) =
J
i=1 j=1
(1
− qj )n
ij
,
Los primeros t´erminos de la f´ormula recursiva de DePril aparecen a continuaci´on: I
g(0) =
J
i=1 j=1
g(1) = g(2) = g(3) =
(1
− qj )n
ij
g(0) h(1, 1) 1 g(0)[h(1, 2) + h(2, 1)] + g(1)h(1, 1) 2 1 g(0)[h(1, 3) + h(3, 1)] + g(1)[h(1, 2) + h(2, 1)] + g(2)h(1, 1) 3
{ {
}
}
.. . Por ejemplo, para los datos que se muestran en la tabla de la Figura 1.3 en donde se tienen 48 p´olizas de seguros con las probabilidades de reclamaci´ on y los montos de reclamaciones indicados, la correspondiente funci´on de densidad para este riesgo es la que se muestra en la Figura 1.4. En el ap´endice A se encuentra el c´odigo en R de una implementaci´on de la f´ormula de De Pril.
Parte 1.
15
Modelo individual vs modelo colectivo
Probabilidades de reclamaci´ on i\q 1 2 3 4 5
Monto de la reclamaci´on
0,03 1 3 5 2 2
0,04 3 5 3 2 3
0,05 1 4 4 6 4
Figura 1.3: Cartera de 48 p´olizas individuales. g(r)
0.1
r 2
4
6
8
10
12
14
16
18
20
Figura 1.4:
1.4.
Modelo colectivo
Considere un conjunto de un n´umero no determinado de contratos de seguros con vigencia en un periodo de tiempo [0, T ]. Este periodo puede corresponder a un a˜no por ejemplo. Sea N la variable aleatoria que denota el n´umero de reclamaciones ocurridas en este intervalo, y sean las variables positivas Y 1 , . . . , YN los montos de estas reclamaciones. Gr´aficamente una posible realizaci´on de tal esquema se muestra en la Figura 1.5. Consideraremos que el n´umero de reclamaciones y los montos de ´estas son variables
16
1.4. Modelo colectivo
$ Y 2 $ Y 3
$ Y 5
$ Y 1 $ Y 4
0
T
Figura 1.5: aleatorias independientes. M´ as a´ un, supondremos que las reclamaciones mismas son independientes entre s´ı, y que comparten la misma distribuci´on de probabilidad. Definici´ on. El monto agregado o monto acumulado de todas las reclamaciones efectuadas es la variable aleatoria S , llamada riesgo, y definida como sigue N
S =
Y j .
(1.2)
j=1
Observe que cada sumando es una variable aleatoria y que el n´umero de sumandos es tambi´en aleatorio. La suma (1.2) se define como cero cuando N = 0. Observe adem´ as que S puede ser una variable aleatoria mixta, es decir, no ser discreta ni continua, pues cuando los montos de las reclamaciones Y son variables continuas con valores en (0, ), la variable S puede tomar el valor 0 con probabilidad P (S = 0) = P (N = 0) > 0, y puede adem´as tomar cualquier valor en el intervalo (0, ). La ecuaci´on (1.2) representa el modelo colectivo para un contrato de seguros, cuyas posibles realizaciones como funci´ on del tiempo tienen la forma de la gr´afica de la Figura 1.6.
∞
∞
A la funci´ on de distribuci´on de cada reclamaci´on Y la denotaremos por la letra G. Se asume naturalmente que G(0) = 0, ello equivale a decir que la variable Y es positiva. Adicionalmente usaremos la notaci´on µn = E (Y n ), en particular se escribe µ en lugar de µ1 = E (Y ). Nuevamente el problema central es encontrar la distribuci´on de probabilidad de S , la cual depende de la distribuci´o n de Y y de N . Un primer resultado general al
Parte 1.
Modelo individual vs modelo colectivo
17
S (t)
$ Y 3
$ Y 2
$ Y 1
t
Figura 1.6: respecto es el que aparece a continuaci´on. Antes de enunciarlo recordemos que la 0-convoluci´ on de una funci´on de distribuci´ on G es ∗0
G (x) =
1 si x 0, 0 si x < 0.
≥
Proposici´ on. La funci´on de distribuci´on del riesgo S en el modelo colectivo es ∞
F (x) =
G∗n (x) P (N = n).
n=0
Demostraci´ on. ∞
F (x) =
P (S
n=0
≤ x | N = n) P (N = n) ∞
= P (S
≤ x | N = 0) P (N = 0) + ∞
∗0
= G (x) P (N = 0) +
n=1
∞
=
n=0
G∗n (x) P (N = n).
P (Y 1 +
n=1
G∗n (x) P (N = n)
· ·· + Y n ≤ x) P (N = n)
18
1.4. Modelo colectivo
Algunas caracter´ısticas num´ericas de la variable S se muestran a continuaci´on. Proposici´ on. El riesgo S en el modelo colectivo cumple las siguientes propiedades. 1. E (S ) = E (N )E (Y ). 2. E (S 2 ) = E (N )E (Y 2 ) + E (N (N
− 1))E 2(Y ).
3. Var(S ) = Var(N )E 2 (Y ) + Var(Y )E (N ). 4. M S (t) = M N (ln(M Y (t))).
Demostraci´ on.
1. Condicionaremos sobre el valor de N , y despu´ es usaremos la hip´otesis de independencia. El resultado del c´alculo es el mismo cuando la variable N inicia en el valor 0 o en valor 1. ∞
E (S ) =
N
E (
n=0 ∞
=
E (
n=0 ∞
=
Y j N = n) P (N = n)
|
j=1 n
|
Y j N = n) P (N = n)
j=1
nE (Y ) P (N = n)
n=0
= E (N ) E (Y ).
Parte 1.
Modelo individual vs modelo colectivo
2. Nuevamente condicionando sobre el valor de N , ∞ 2
E (S ) =
N
E ((
n=0 ∞
=
E ((
Y j )2 N = n) P (N = n)
|
j=1 n
E ((
n=0 ∞
=
|
j=1 n
n=0 ∞
=
Y j )2 N = n) P (N = n)
Y j )2 ) P (N = n)
j=1
n
n
E (Y j2 ) +
[
n=0 j=1
E (Y j Y k ) ] P (N = n)
j,k=1
j =k
∞
=
∞
2
nE (Y ) P (N = n) +
n=0
(n(n
n=2
2
= E (N ) E (Y ) + E (N (N
− 1)) E 2(Y ) P (N = n)
− 1)) E 2(Y ).
3. Por las f´ormulas anteriores, Var(S ) = = = =
E (S 2 ) E 2 (S ) E (N ) E (Y 2 ) + E (N (N 1)) E 2 (Y ) E 2 (N ) E 2 (Y ) E (N ) [ E (Y 2 ) E 2 (Y ) ] + [ E (N 2 ) E 2 (N ) ] E 2 (Y ) E (N ) Var(Y ) + Var (N ) E 2 (Y ).
−
−
−
− −
4. De manera an´aloga a los dos primeros incisos, ∞
M S (t) =
E (er(Y 1 +···+Y N ) N = n) P (N = n)
|
n=0 ∞
=
E (er(Y 1 +···+Y n ) ) P (N = n)
n=0 ∞
=
(M Y (t))n P (N = n)
n=0
= E ((M Y (t))N ) = E (eN ln(M Y (t)) ) = M N (ln(M Y (t))).
19
20
1.4. Modelo colectivo
Consideraremos a continuaci´on algunos casos particulares del modelo colectivo. Modelo binomial compuesto. Cuando el n´ umero de reclamaciones N tiene una distribuci´ on bin(n, p) se dice que el riesgo S tiene una distribuci´ on binomial comon de distribuci´on puesta , y se escribe S bin comp(n,p,G), en donde G es la funci´ de cada sumando en la definici´on de S . Bajo esta hip´otesis se tienen los siguientes resultados.
∼
Proposici´ on. Si N tiene una distribuci´on bin(n, p), entonces a) E (S ) = npµ. b) Var(S ) = np(µ2
− pµ2).
− E (S ))3 ] = n( pµ3 − 3 p2µ2µ + 2 p3µ3). d) M S (t) = (1 − p + pM Y (t))n . c) E [(S
Estas expresiones se siguen f´acilmente de las f´ormulas generales demostradas antes, basta recordar que si N tiene distribuci´on bin(n, p), entonces E (N ) = np, Var(N ) = np(1 p), y M N (t) = (1 p + pet )n . Observe que en este modelo se tiene una cota superior para el n´umero de reclamaciones que pueden efectuarse.
−
−
Modelo binomial negativo compuesto. Cuando el n´ umero de reclamaciones N tiene una distribuci´on binomial negativa se dice que el riesgo S tiene una distribuci´ on binomial negativa compuesta . Esto es, si N bin neg(r, p), entonces S bin neg comp(r,p,G), donde nuevamente G hace referencia a la funci´o n de distribuci´ on de cada sumando de S . En este caso se cumple lo siguiente.
∼
∼
Proposici´ on. Si N tiene una distribuci´on bin neg(r, p), entonces
− 1)µ. b) Var(S ) = r(1/p − 1)(1/p)µ2 + r(1/p − 1)(µ2 − µ2 ). c) E [(S − E (S ))3 ] = r(1/p − 1)µ3 + 3r(1/p − 1)2 µ2 µ + 2r(1/p − 1)3 µ3 . a) E (S ) = r(1/p
d) M S (t) = (
1
p )r . (1 p)M Y (t)
− −
Parte 1.
Modelo individual vs modelo colectivo
21
Para encontrar estas f´ormulas es suficiente recordar que si N tiene distribuci´on bin neg(r, p), entonces E (N ) = r(1 p)/p, Var(N ) = r(1 p)/p2 , y M N (t) = [ p/(1 (1 p)et)]r . En el caso particular cuando r = 1, la distribuci´ on de N se reduce a la distribuci´on geom´etrica de par´ametro p, y se dice que S tiene distribuci´ on geom´etrica compuesta .
−
− −
−
Modelo Poisson compuesto. Cuando el n´umero de reclamaciones N tiene una distribuci´ on Poisson se dice que el riesgo S tiene una distribuci´on Poisson comPoisson comp(λ, G), en donde λ es el par´ametro de la puesta , y se escribe S distribuci´ on Poisson y G es la funci´on de distribuci´on de cada sumando de S . Para este modelo se tienen los siguientes resultados.
∼
Proposici´ on. Si N tiene una distribuci´on Poisson(λ), entonces a) E (S ) = λµ. b) E (S 2 ) = λµ2 + λ2 µ2 . c) E (S 3 ) = λµ3 + 3λ2 µ2 µ + λ3 µ3 . d) Var(S ) = λµ2 .
− E (S ))3 ] = λµ3. E [(S − E (S ))3 ] α3 = =
e) E [(S f)
[Var(S )]3/2
g) M S (t) = exp[ λ(M Y (t)
µ3 > 0. λµ32
− 1)].
Nuevamente estas expresiones son consecuencia de las f´ormulas generales demostradas antes, y del hecho de que si N tiene distribuci´on Poisson(λ), entonces E (N ) = λ, Var(N ) = λ, y M N (t) = exp(λ(et 1)). Observe que el par´ametro λ y la distribuci´ on de la variable Y determinan por completo al modelo Poisson compuesto. Estudiaremos con m´as detalle este modelo en la seguiente secci´on.
−
22
1.5.
1.5. Modelo colectivo Poisson
Modelo colectivo Poisson
En esta secci´on retomamos el caso cuando el n´umero de reclamaciones en el modelo colectivo sigue una distribuci´on Poisson. Primeramente explicaremos la forma en la que se puede obtener un modelo colectivo Poisson a partir del modelo individual. Despu´es mostraremos c´omo este modelo Poisson compuesto aproxima al modelo individual. Finalmente estudiaremos algunas propiedades interesantes y ´utiles del modelo Poisson compuesto Modelo Poisson compuesto asociado al modelo individual. Considere el n modelo individual de riesgo S i = j=1 Dj C j , junto con la notaci´o n e hip´otesis correspondientes. El super´ındice i indica que se trata de un modelo individual. A partir de este modelo se construye a continuaci´on un modelo colectivo con distribuci´ on Poisson compuesta. Para ello recuerde que ´unicamente se necesita establecer el valor del par´ametro λ de la distribuci´on Poisson y la funci´on de distribuci´ on G(x) del monto de las reclamaciones. Sean entonces
n
λ =
j=1 n
y
G(x) =
j=1
qj ,
(1.3)
qj Gj (x), λ
(1.4)
en donde Gj (x) es la funci´on de distribuci´on de la variable C j . Mediante la primera igualdad se establece que el n´umero esperado de reclamaciones en ambos modelos sea el mismo. En la segunda ecuaci´o n se define a la funci´on de distribuci´o n de una reclamaci´on en el modelo colectivo como la suma ponderada de las funciones de distribuci´on del monto de las reclamaciones en el modelo individual. De esta forma se construye el modelo colectivo S c = N j=1 Y j , a quien llamaremos modelo colectivo Poisson compuesto asociado al modelo individual . El super´ındice c indica que se trata de un modelo colectivo. Este modelo tiene las siguientes propiedades.
Parte 1.
Modelo individual vs modelo colectivo
23
Proposici´ on. Sea S c el modelo colectivo Poisson compuesto asociado al modelo individual S i . Entonces n c
1. E (S ) =
qj E (C j ).
j=1
n
c
2. Var(S ) =
qj [Var(C j ) + E 2 (C j )].
j=1
n
k
3. E (Y ) =
j=1 n
4. M Y (t) =
j=1
qj E (C jk ). λ
qj M C j (t). λ
Estas expresiones se siguen directamente de resultados previos acerca del modelo Poisson compuesto y de las igualdades (1.3) y (1.4). Por ejemplo, el k-´esimo momento de una reclamaci´on del modelo S c es, usando integrales de Riemann-Stieltjes (v´ease uno de los ap´endices), k
E (Y ) =
∞
n
k
y dG(y) =
0
qj λ
∞
j=1
n k
y dGj (y) =
0
j=1
qj E (C jk ). λ
A modo de comparaci´ on se tiene entonces que E (S i ) = E (S c ), mientras que Var(S i ) Var(S c ).
≤
El modelo Poisson compuesto asociado como l´ımite del modelo individual. Sea S i el riesgo en un modelo individual y sea S c el riesgo del modelo colectivo Poisson compuesto asociado. En esta secci´on se demuestra que este modelo colectivo puede ser obtenido como un proceso l´ımite en el modelo individual. Consideremos entonces el modelo individual junto con la notaci´on e hip´otesis usuales. Por resultados previos sabemos que n
M S i (t) =
j=1
[1 + qj (M Cj (t)
− 1)].
Se construye un modelo individual adicional de la siguiente forma: cada p´oliza j se reemplaza por k subp´ olizas id´enticas en cada una de las cuales la probabilidad
24
1.5. Modelo colectivo Poisson
de reclamaci´on se define como qj /k, y la funci´on de distribuci´on del monto de una reclamaci´ on es la misma Gj (y). V´ease la Figura 1.7. En consecuencia, el portafolio consiste ahora de kn p´olizas. Subp´ oliza 1
..........
P´ oliza
....... ....... ....... ....... Subp´ oliza k
..........
Figura 1.7: Por lo tanto, si S ki denota el riesgo asociado a tal portafolio, entonces se tiene que n
M Ski (t) =
[1 +
j=1
qj (M Cj (t) k
− 1)]k .
Se hace ahora tender k a infinito y usando el resultado l´ım (1 + x/k)k = ex se k→∞
obtiene n
l´ım M Ski (t) =
k→∞
exp[ qj (M Cj (t)
j=1
= exp [
− 1) ]
n
qj M Cj (t)
j=1
= exp [ λ(M Y (t) = M S c (t).
− λ]
− 1) ]
Puesto que la convergencia de funciones generadoras de momentos es equivalente a la convergencia en distribuci´on de las correspondientes variables aleatorias, se obtiene entonces que el modelo colectivo Poisson compuesto asociado es el l´ımite en distribuci´ on del modelo individual cuando el n´umero de p´olizas crece y las probabilidades de reclamaci´ o n se hacen cada vez m´as peque˜ nas. El argumento presentado en esta secci´on justifica el uso del modelo Poisson compuesto bajo las condiciones mencionadas. En este sentido, el siguiente argumento intuitivo tambi´en favorece al modelo Poisson compuesto como una generalizaci´on del modelo individual. Recordemos nuevamente
Parte 1.
Modelo individual vs modelo colectivo
25
que la funci´on generadora de momentos del riesgo S i en el modelo individual es n
M S i (t) =
[1 + qj (M Cj (t)
j=1
−
− 1)].
El t´ermino qj (M Cj (t) 1) es peque˜no para valores peque˜nos de t. Usando la f´ormula ln(1 + x) = x x2 /2 + x3 /3 + , se puede escribir la aproximaci´o n ln(1 + x) x. De modo que
−
···
≈
n
ln(M S i (t)) =
ln[1 + qj (M Cj (t)
j=1 n
≈
qj (M Cj (t)
j=1
n
= λ[
j=1 n
= λ[
j=1
en donde λ = q1 +
− 1)]
− 1)
qj (M C j (t) λ
− 1) ]
qj M Cj (t) λ
− 1 ],
qj M C j (t) λ
− 1 ] ).
· ·· + qn. Por lo tanto n
M S i (t)
≈ exp( λ [
j=1
Esta es nuevamente la funci´on generadora de momentos del riesgo con distribuci´on Poisson compuesta en donde los montos de las reclamaciones tienen funci´on generadora de momentos nj=1 qλj M C j (t).
Modelo Poisson compuesto con varios tipos de riesgos. Se demuestra ahora que la suma de riesgos independientes que siguen el modelo Poisson compuesto tambi´ en es Poisson compuesto. Esta es una propiedad interesante y ´util.
26
1.5. Modelo colectivo Poisson
Proposici´ on. Sean S 1 y S 2 dos riesgos independientes con distribuci´on Poisson compuesta con par´ametros λ1 y λ2 , y reclamaciones Y (1) y Y (2) con funci´on de distribuci´on G1 (x) y G2 (x) respectivamente. Entonces el riesgo S = S 1 + S 2 tambi´en sigue una distribuci´on Poisson compuesta con par´ametro λ = λ1 + λ2 , y las reclamaciones tienen funci´on de distribuci´on G(x) =
λ1 λ2 G1 (x) + G2 (x). λ λ
Demostraci´ on. Por independencia tenemos que
M S1 +S2 (t) = M S1 (t)M S2 (t) = exp[λ1 (M Y (1) (t) 1)] exp[λ2 (M Y (2) (t) λ1 λ2 = exp[λ( M Y (1) (t) + M Y 2 (t) 1)], λ λ
−
− 1)]
−
en donde λλ1 M Y (1) (t) + λλ2 M Y (2) (t) es la funci´on generadora de momentos de la funci´ on de distribuci´on G(x) = λλ1 G1 (x) + λλ2 G2 (x). El resultado anterior puede extenderse f´acilmente al caso S = S 1 +
· ·· + S n.
Modelo Poisson compuesto con reclamaciones clasificadas. Sea S un riesgo con distribuci´on Poisson compuesta de par´ametro λ. Suponga que los montos de las reclamaciones pueden ser clasificadas en m categor´ıas excluyentes y exhaustivas denotadas por A1 , . . . , A m . T´ıpicamente estas categor´ıas pueden ser intervalos de valores para las reclamaciones. Sea pk = P (Y Ak ) > 0 tal que p1 + + pm = 1. Sea N k el n´ umero de reclamaciones del tipo k. Entonces N = N 1 + +N m y debido a la independencia de los montos en las reclamaciones, el vector (N 1 , , N m ) tiene una distribuci´ on condicional multinomial( p1 , . . . , pm ; n) cuando N = n, es decir, para enteros no negativos n1 , . . . , nm tales que n1 + + nm = n, se tiene que
∈
· ·· ··· ·· ·
·· ·
|
P (N 1 = n1 , . . . , Nm = nm N = n) =
n1
n
· ·· nm
pn1 1
· · · pnn
m
.
La distribuci´on no condicional del vector (N 1 , . . . , Nm ) es el contenido del siguiente resultado.
Parte 1.
Modelo individual vs modelo colectivo
27
Proposici´ on. Las variables aleatorias N 1 , . . . , Nm son independientes y cada variable N k tiene distribuci´on Poisson(λpk ). Demostraci´ on. Sean n1 , . . . , nm enteros no negativos cualesquiera, y sea n la suma
de todos estos n´umeros, es decir, n1 +
· ·· + nm = n. Entonces
P (N 1 = n1 , . . . , Nm = nm ) = P (N 1 = n1 , . . . , N m = nm , N = n) = P (N 1 = n1 , . . . , N m = nm N = n)P (N = n) n! λn −λ = pn1 1 pnmm e n1 ! nm ! n!
|
n
=
···
k=1
·· ·
(λpk )nk −λpk e . nk !
Se desprende de esta igualdad que la variable N k tiene distribuci´ on marginal Poisson(λpk ). De esta identidad se verifica tambi´ en la independencia. Observe que condicionadas al evento (N = n), las variables N 1 , . . . , Nm no son independientes, mientras que sin tal condici´on, lo son. Por otro lado, como los montos de las reclamaciones son independientes de N , el riesgo de tipo k est´ a dado por la variable N
S k =
Y j 1{Y j ∈Ak } ,
j=1
y tiene distribuci´on Poisson compuesta con par´ametro λpk . La distribuci´on condicional del monto de las reclamaciones de este riesgo es j ≤ x, Y j ∈ Ak ) ≤ x | Y j ∈ Ak ) = P (Y P (Y . j ∈ Ak ) En particular, cuando Ak = (xk−1 , xk ] con 0 < x0 < x1 < · · · < xm , para x ∈ (xk−1 , xk ], G(x) − G(xk−1 ) Gk (x) = . G(xk ) − G(xk−1 )
Gk (x) = P (Y j
Modelo Poisson compuesto mixto. Cuando el n´umero de reclamaciones N tiene una distribuci´ on Poisson(λ) y el par´ametro λ es a su vez una variable aleatoria, se dice que el riesgo S tiene una distribuci´on Poisson compuesta mixta . Algunas caracter´ısticas de esta distribuci´on se muestran a continuaci´on.
28
1.5. Modelo colectivo Poisson
Proposici´ on. Si N tiene una distribuci´on Poisson(λ) en donde λ es una variable aleatoria con funci´on de distribuci´on H , entonces ∞
a) P (N = n) =
0
e−x
xn dH (x). n!
b) E (S ) = E (λ)µ. c) E (S 2 ) = E (λ)µ2 + E (λ2 )µ2 . d) E (S 3 ) = E (λ)µ3 + 3E (λ2 )µ2 µ + E (λ3 )µ3 . e) Var(S ) = Var(λ)µ2 + E (λ)µ2 .
− E (S ))3 ] = E [(λ − E (λ))3 ]µ3 + 3Var(λ)µ2µ + E (λ)µ3 . g) M S (t) = M λ (M Y (t) − 1). f) E [(S
Para obtener todas las identidades que aparecen en esta proposici´on es suficiente condicionar sobre el valor de λ.
Modelo individual 1. Considere el modelo individual para un portafolio de n p´olizas de seguros. Bajo la notaci´on e hip´otesis usuales, demuestre que el n´umero esperado de reclamaciones es q1 + + qn .
···
2. Para un modelo individual de riesgo, encuentre la distribuci´ on de probabilidad del n´ umero total de reclamaciones en una cartera de n asegurados cuando Dj tiene distribuci´on Ber(q), es decir, qj = q > 0 es constante. 3. Considere el modelo individual de riesgo en donde Dj tiene distribuci´ on Ber(q), es decir, qj = q > 0 es constante. Suponga adem´as que cada reclamaci´ on C j es constante c > 0, es decir, se trata de una misma suma asegurada para todos. Encuentre una expresi´on para la esperanza y la varianza de S . 4. Considere el modelo individual para un portafolio de n p´ olizas de seguros de vida. Suponga que el j-´esimo asegurado tiene una suma asegurada constante cj . Demuestre que
Parte 1.
Modelo individual vs modelo colectivo
29
n
a) E (S ) =
qj cj .
j=1 n
b) Var(S ) =
qj pj c2j .
j=1
5. Demuestre que si f 1 (x), . . . , fn (x) son funciones diferenciables que no se anulan, entonces n n n f j (x) d f j (x) = f j (x) . dx j=1 f (x) j=1 j=1 j ′
Use esta f´ormula y la expresi´on encontrada para M S (t) en el modelo individual de riesgo para encontrar nuevamente E (S ) y Var(S ). 6. Encuentre una expresi´ on para E (S 2 ) y E (S 3 ) cuando S sigue un modelo individual de riesgo. 7. Suponga que D y C son dos variables aleatorias independientes tales que D tiene distribuci´on Ber(q) y C se distribuye exp(λ). Calcule y grafique la funci´ on de distribuci´on de la variable aleatoria mixta DC . 8. Para el modelo individual, suponga que Dj tiene distribuci´on Ber(q), es decir, qj = q > 0 es constante. Encuentre la distribuci´on del riesgo S cuando n = 3 y C j tiene la siguiente distribuci´on de probabilidad P (C j = 1) = 0.6, P (C j = 2) = 0.3, P (C j = 3) = 0.1. 9. Considere un portafolio de 21 p´olizas individuales de seguros de vida v´alidas por un a˜ no como se indica en la tabla que aparece abajo. Usando el modelo individual calcule E (S ) y Var(S ). Tasa de mortalidad qj 0.04 0.05 0.06
Suma asegurada $2 $3 $4 $5 1 1 2 1 0 2 3 3 1 1 2 4
10. Sean qj,0 , qj,1 y qj,2 las probabilidades de que el j-´esimo asegurado presente 0, 1 y 2 reclamaciones respectivamente durante el tiempo de vigencia del
30
1.5. Modelo colectivo Poisson
seguro. Suponga que cada una de las posibles reclamaciones de la p´oliza j es constante zj y que qj,0 + qj,1 + qj,2 = 1. Encuentre f´ormulas para E (S ) y Var(S ) en el modelo individual. 11. Una compa˜ n´ıa aseguradora tiene una cartera con p´olizas de seguros de vida y diferentes sumas aseguradas como se muestra en la tabla que aparece abajo. Calcule E (S ) y Var(S ) usando el modelo individual. Suma asegurada $10,000 $20,000 $30,000
N´ u mero de p´ o lizas 50 75 100
Probabilidad de reclamaci´ on 0.0040 0.0035 0.0030
12. Considere el modelo individual de riesgo para una cartera de n = 56 asegurados divididos en cinco subgrupos de la siguiente forma: 11 asegurados con probabilidad de reclamaci´on q = 0.01, 7 asegurados con q = 0.015, 20 asegurados con q = 0.02, 10 asegurados con q = 0.025 y 8 asegurados con q = 0.03. Todos ellos con suma asegurada $100. Calcule el valor esperado del agregado de reclamaciones del riesgo correspondiente a esta cartera de asegurados. 13. Para el modelo individual, suponga que Dj tiene distribuci´on Ber(q), es decir, qj = q > 0 es constante, y que cada reclamaci´on C j tiene distribuci´ on exp(λ). Encuentre la distribuci´on de probabilidad del riesgo S .
Modelo colectivo 14. A partir de la f´ ormula encontrada para M S (t) en el modelo colectivo de riesgo, encuentre nuevamente las expresiones para E (S ), E (S 2 ) y Var(S ).
N
15. Considere el modelo colectivo de riesgo S = j=1 Y j , en donde N tiene distribuci´ on Poisson(λ) y Y sigue una distribuci´ on log normal(m, σ 2 ). Demuestre que a) E (Y ) = exp(σ2 /2 + m). b) µn = exp(nm + n2 σ2 /2). 2
c) Var(Y ) = (eσ 1)exp(σ2 + 2m). d) E (S ) = λ exp(σ 2 /2 + m). e) Var(S ) = λ exp(2σ2 + 2m).
−
Parte 1.
Modelo individual vs modelo colectivo
31
E [(S E (S ))3 ] 1 f) α3 = = exp(3σ 2 /2). 3/2 [Var(S )] λ
−
√
Modelo binomial compuesto 16. Demuestre las f´ormulas para el modelo binomial compuesto de la p´agina 20. 17. Sean S 1 y S 2 dos riesgos independientes con distribuci´on binomial compuesta con par´ametros (n1 , p) y (n2 , p) respectivamente. Suponga que los montos de las reclamaciones de cada uno de estos riesgos son Y (1) y Y (2) con id´entica distribuci´ on G(x). Demuestre que el riesgo S = S 1 + S 2 tambi´en sigue una distribuci´ on binomial compuesta con par´ametros (n1 +n2 , p) y la distribuci´on del monto de las reclamaciones para S es nuevamente G(x).
Modelo binomial negativo compuesto 18. Demuestre las f´ormulas para el modelo binomial negativo compuesto de la p´ agina 20.
Modelo Poisson compuesto 19. Demuestre las f´ormulas para el modelo Poisson compuesto de la p´agina 21. 20. Demuestre las f´ormulas para el modelo Poisson compuesto asociado de la p´ agina 23. 21. Sean F 1 (x) y F 2 (x) dos funciones de distribuci´on con funciones generadoras de momentos M 1 (t) y M 2 (t) respectivamente. Demuestre que para cualquier α [0, 1], la funci´ on αF 1 (x)+(1 α)F 2 (x) es una funci´on de distribuci´on cuya funci´ on generadora de momentos asociada es αM 1 (t) + (1 α)M 2 (t). Este resultado fue utilizado en el an´alisis de la suma de dos riesgos con distribuci´on Poisson compuesta.
∈
−
−
22. Sean S 1 , . . . , Sn riesgos independientes con distribuci´on Poisson compuesta con par´ametros λ1 , . . . , λn , respectivamente. Suponga que los montos de las reclamaciones de estos riesgos son Y (1) , . . . , Y (n) , con funci´on de distribuci´on G1 (x), . . . , Gn (x), respectivamente. Demuestre que el riesgo S = S 1 + +
···
32
1.5. Modelo colectivo Poisson
S n tambi´en sigue una distribuci´on Poisson compuesta con par´ametro λ = λ1 + + λn , y la funci´ on de distribuci´on de las reclamaciones es G(x)= λ1 λn G (x)+ + G (x). 1 n λ λ
·· ·
···
23. Sea X 1 , X 2 , . . . una sucesi´on de variables aleatorias independientes cada una de ellas con distribuci´on Ber(q), y sea X 0 = 0. Sea N otra variable aleatoria con distribuci´on Poisson(λ) independiente de las anteriores. Demuestre que la variable X = N on Poisson(λq). Esta variable tiene i=0 X i tiene distribuci´ la siguiente interpretaci´on: si N representa el total de siniestros ocurridos y cada siniestro es reportado con probabilidad q, entonces X representa el total de siniestros ocurridos reportados.
24. Sea Y una variable aleatoria con funci´ on de distribuci´on F (y), y sean a < b dos n´ umeros tales que F (a) < F (b). Demuestre que la funci´on de distribuci´on condicional de Y dado el evento (Y (a, b]) es
∈
| ∈ (a, b]) =
F (y Y
0 F (y) F (b) 1
si y < a,
− F (a) − F (a)
si a
≤ y ≤ b,
si y > b.
Aplique este resultado al caso cuando Y tiene distribuci´on exp(α). Encuentre y grafique ambas funciones de distribuci´ on: la original y la condicional.
Esperanza condicional 25. Sea (X, Y ) un vector aleatorio discreto con la funci´on de probabilidad que aparece abajo. Encuentre la distribuci´on de la variable aleatoria E (X Y ) y compruebe que E (E (X Y )) = E (X ) = 78/36.
|
|
f X,Y (x, y) =
(x + y)/36 0
si x, y = 1, 2, 3, en otro caso.
Parte 2
F´ ormula de Panjer y algunos m´ etodos de aproximaci´ on
En este cap´ıtulo se presenta la famosa f´ormula de Panjer. Este resultado proporciona una expresi´on exacta, aunque recursiva, de la distribuci´on de probabilidad de un riesgo en el modelo colectivo, y es v´alida cuando la distribuci´on del n´ umero de reclamaciones y los montos cumplen ciertas condiciones. Se presentan adem´as algunos m´etodos de aproximaci´on generales para estimar la distribuci´on de un riesgo.
2.1.
F´ ormula de Panjer
Primeramente se enuncia la condici´on que debe satisfacer el n´umero de reclamaciones N para obtener la f´ormula de Panjer.
33
34
´ rmula de Panjer 2.1. Fo
{
}
Proposici´ on. Sea N una variable aleatoria discreta con valores en 0, 1, . . . y sea pk = P (N = k) para k = 0, 1, . . . Sean a y b dos constante. Entonces la igualdad b pk = (a + ) pk−1 (2.1) k se cumple cuando
−
−
−
1. N es bin(n, p), con a = p/(1 p) y b = (n + 1) p/(1 p). 2. N es Poisson(λ), con a = 0 y b = λ. 3. N es bin neg(α, p), con a = 1
− p y b = (α − 1)(1 − p).
La demostraci´on de este resultado es inmediata despu´es de algunos c´alculos aritm´eticos sencillos, y se dejan como ejercicio al lector. La identidad (2.1) puede usarse para generar la distribuci´on de probabilidad de estas variables aleatorias discretas de una forma recursiva. Supondremos entonces que la distribuci´on del n´umero de reclamaciones N cumple con la condici´on (2.1) y la proposici´on establece que tal condici´ on es v´alida para las tres distribuciones se˜naladas. Recordando la notaci´on e hip´otesis del modelo colectivo de riesgo S = N j=1 Y j , definido en el cap´ıtulo anterior, tenemos las siguientes hip´otesis y notaci´on adicionales. Supondremos que las reclamaciones Y j son tales que P (Y j N) = 1, lo cual no es ning´ un problema pues puede considerarse que las reclamaciones se efect´uan en unidades monetarias, cualesquiera que ´estas sean. En los c´alculos siguientes usaremos los siguientes s´ımbolos.
∈
Notaci´ on: pk = P (N = k) f r = P (Y = r) f r∗k = P (Y 1 + + Y k = r) gr = P (S = r)
k = 0, 1, . . . r = 1, 2, . . . r = 1, 2, . . . r = 0, 1, . . .
· ··
En particular, r−1
f r∗(k+1)
∗k
= (f
∗ f )r =
i=1
f i∗k f r−i .
´ rmula de Panjer y m´ ´n Parte 2. Fo etodos de aproximacio
Adem´ as g0 = P (S = 0) = P (N = 0) = p0 , y para r gr
35
≥ 1,
= P (S = r) ∞
=
|
P (S = r N = k)P (N = k)
k=1 ∞
=
f r∗k pk .
k=1
Proposici´ on. Bajo la notaci´on e hip´otesis anteriores, se cumplen las siguientes propiedades: k
1. E ( Y 1
|
Y j = r ) =
j=1
r−1
2.
pk f r∗k
= pk−1
(a +
i=1
r , para k k
≥ 1.
bi ∗(k−1) ) f f i , para k r r−i
≥ 2.
Demostraci´ on. Para el primer inciso, k
E ( Y 1
|
Y j = r ) =
j=1
1 k
k
k
| | E ( Y i
i=1
=
1 E ( k
=
r . k
Y j = r )
j=1
k
k
Y i
i=1
j=1
Y j = r )
36
´ rmula de Panjer 2.1. Fo
Para el segundo inciso desarrollamos el lado derecho, r−1
r
bi ∗(k−1) pk−1 (a + )f r−i f i r i=1
= pk−1
(a +
bi )P (Y 2 + r
(a +
bi )P (Y 1 = i, Y 2 + r
(a +
bi )P (Y 1 = i, Y j = r) r j=1
i=1 r
= pk−1
i=1 r
= pk−1
i=1
· · · + Y k = r − i)P (Y 1 = i) k
r
bi = pk−1 (a + )P (Y 1 = i r i=1 bY 1 = pk−1 E (a + r b = pk−1 (a + )f r∗k k = pk f r∗k
· ·· + Y k = r − i)
k
|
| k
Y j = r)f r∗k
j=1
Y j = r)f r∗k
j=1
Ahora estamos listos para enunciar y demostrar la f´ormula de Harry Panjer [14], publicada en 1981. Teorema (F´ ormula de Panjer). Para el modelo colectivo de riesgo, y bajo las hip´ otesis y notaci´on arriba enunciados, la probabilidad gr = P (S = r) est´a dada por r
gr
=
i=1
g0
= p0 .
(a +
bi ) f i gr−i , r
para r
≥ 1.
´ rmula de Panjer y m´ ´n Parte 2. Fo etodos de aproximacio
Demostraci´ on. Para r
37
≥ 1, ∞
gr
=
P (S = r N = k)P (N = k)
|
k=1 ∞
=
pk f r∗k
k=1
= p1 f r +
∞
pk f r∗k
k=2
= (a + b) p0 f r +
∞ r−1
bi ∗(k−1) ) pk−1 f r−i f i r
(a +
k=2 i=1 r−1
bi = (a + b) p0 f r + (a + )f i r i=1 r−1
= (a + b) p0 f r +
(a +
i=1
r
=
(a +
i=1
∞
∗(k−1)
pk−1 f r−i
k=2
bi )f i gr −i r
bi )f igr−i . r
A continuaci´on escribimos expl´ıcitamente los primeros t´erminos de la f´ormula recursiva de Panjer: g0 g1 g2 g3
= p0 = P (N = 0) b = (a + )f 1 g0 1 b = (a + )f 1 g1 + (a + 2 b = (a + )f 1 g2 + (a + 3 .. .
2b )f 2 g0 2 2b 3b )f 2 g1 + (a + )f 3 g0 3 3
Como un ejemplo consideremos el caso cuando N sigue una distribuci´on Poisson
38
´ rmula de Panjer 2.1. Fo
de par´ametro λ = 3,5, y el monto de las reclamaciones tiene la siguiente funci´on de densidad r f r
1 0.1
2 0.1
3 0.2
4 0.3
5 0.3
Entonces la f´ormula de Panjer produce la funci´on de densidad para S que se muestra en la Figura 2.1. El c´odigo en R correspondiente se encuentra en el Ap´endice B.
gr
0.03
r 2
4
6
8
10
12
Figura 2.1:
14
16
18
20
´ rmula de Panjer y m´ ´n Parte 2. Fo etodos de aproximacio
39
Harry Panjer
Aproximaci´ on en el caso de montos de reclamaciones continuas. Cuando los montos de las reclamaciones toman valores continuos, pueden usarse las siguientes discretizaciones de estos montos y aplicar la f´ormula de Panjer. a) Se toma cualquier ρ > 0, y se definen las reclamaciones enteras
{ ∈ N : Y j ≤ nρ}, y { ∈ N : Y j ≥ nρ}, en donde ´ınf ∅ = 0. Entonces ρY j ≤ Y j ≤ ρY j . Por ejemplo, para la situaci´on que se muestra en la Figura 2.2 se tiene que Y j = 4 y Y j = 3, y efectivamente 3ρ ≤ Y j ≤ 4ρ. Y j Y j
= ´ınf n = sup n
Y j
× 0
ρ
2ρ
3ρ
4ρ
5ρ
···
nρ
Figura 2.2: Se definen entonces los riesgos cuyas reclamaciones ahora son enteras: S = N N S ρS . Por lo tanto j=1 Y j , y S = j=1 Y j . Observe que ρS
≤ ≤ P (S ≤ x/ρ) ≤ P (S ≤ x) ≤ P (S ≤ x/ρ).
40
´ n normal 2.2. Aproximacio
b) Alternativamente, si G(x) denota la funci´on de distribuci´on de una reclamaci´ on Y cualquiera, entonces para r 1,
≥
f r = P (Y = r) = G(r)
− G(r − 1).
De esta forma cualquier valor continuo de Y en el intervalo (r considera como si fuera de magnitud r.
− 1, r] se
En las siguientes secciones estudiaremos algunos m´etodos generales para aproximar la distribuci´ on de probabilidad de un riesgo en el modelo colectivo.
2.2.
Aproximaci´ on normal
Si el n´ umero de reclamaciones N es grande, entonces el teorema central del l´ımite sugiere aproximar la distribuci´on del riesgo S mediante la distribuci´on normal. Es decir, para x > 0, P (S
E (S ) x − E (S ) x − E (S ) ≤ x) = P ( S −Var(S ≤ ) ≈ Φ( ). ) Var(S ) Var(S )
Substituyendo las expresiones generales para la esperanza y varianza del modelo colectivo para S se tiene el siguiente resultado. Proposici´ on. (Aproximaci´ on normal). Para cualquier x > 0, P (S
≤ x) ≈ Φ(
−
x E (N )µ ). Var(N )µ2 + E (N )Var(Y )
(2.2)
Esta aproximaci´on hace uso ´unicamente de la media y la varianza de del riesgo, y en general no es una buena aproximaci´on a menos que la densidad del riesgo presente la forma de campana o bien el n´umero de reclamaciones sea grande. Se puede particularizar esta aproximaci´on cuando la distribuci´on de N es conocida, por ejemplo, cuando el n´ umero de reclamaciones N sigue una distribuci´on Poisson con par´ametro λ, la aproximaci´on (2.2) adquiere la expresi´on simple P (S
≤ x) ≈ Φ( x√−λµλµ ). 2
´ rmula de Panjer y m´ ´n Parte 2. Fo etodos de aproximacio
41
Otro caso particular se obtiene cuando N es bin(n, p), entonces la expresi´on (2.2) se reduce a la f´ormula siguiente P (S
≤ x) ≈ Φ(
− −
x npµ ). np(µ2 µ2 p)
En el caso cuando N es bin neg(r, p) se tiene que (2.2) es P (S
2.3.
≤ x) ≈ Φ(
r(1
−
x r(1 p)µ/p ). p)[µ2 /p + (1 p)µ2 /p2]
−
−
−
Aproximaci´ on gamma trasladada
Puesto que la funci´on de densidad o de probabilidad de algunos riesgos pueden presentar un aspecto semejante a la forma de la distribuci´on gamma, se propone substituir la distribuci´on del riesgo S por la distribuci´on de la variable aleatoria k + Z , en donde k es una constante y Z es una variable aleatoria con distribuci´ on gamma(γ, α). Para ello se deben escoger adecuadamente valores para los tres par´ametros k, γ y α que determinan la distribuci´on de k+Z . Supongamos conocidas o estimadas las siguientes cantidades a) E (S ) = m. b) Var(S ) = σ2 . c)
E [(S E (S ))3 ] = α3 . [Var(S )]3/2
−
La correspondiente media, varianza y coeficiente de asimetr´ıa (de Fisher) de la variable k + Z son a) E (k + Z ) = k + γ/α. b) Var(k + Z ) = γ/α 2 . c)
E [(k + Z E (k + Z ))3 ] = 2/ γ . [Var(k + Z )]3/2
−
√
42
´ n de Edgeworth 2.4. Aproximacio
La idea es hacer que las distribuciones de S y k + Z coincidan en el sentido de que las tres cantidades mencionadas sean las mismas para las dos distribuciones. Haciendo coincidir estas tres cantidades para ambas variables aleatorias se obtiene el sistema de ecuaciones k+
γ = m, α
γ = σ2 , 2 α
√2γ = α3,
cuya soluci´on es k=m
− 2σ , α3
γ =
4 , α23
α=
2 . σα3
De esta forma se tiene la siguiente aproximaci´on. Proposici´ on. (Aproximaci´ on gamma trasladada). El riesgo S en el modelo colectivo tiene distribuci´on aproximada la de la variable aleatoria m en donde Z
− 2σ + Z, α3
∼ gamma( α42 , σα2 3 ). 3
2.4.
Aproximaci´ on de Edgeworth
Considere un cierto riesgo S modelado mediante una variable aleatoria con esperanza m y varianza finita σ 2 . Defina la variable Z = (S m)/σ, y suponga que la funci´on generadora de momentos de Z existe y es M Z (r). En particular, la esperanza de Z es cero y su varianza es uno. La serie de Taylor de la funci´on ln M Z (r) alrededor de cero es
−
ln M Z (r) = a0 + a1 r +
a2 2 a3 3 a4 4 r + r + r + 2! 3! 4!
···
´ rmula de Panjer y m´ ´n Parte 2. Fo etodos de aproximacio
43
dk dr k
en donde los coeficientes son ak = ln M Z (r) . Calculando las derivadas y r=0 evaluando en cero se encuentra que los primeros cinco coeficientes son a0 a1 a2 a3 a4
= = = = = .. .
0, E (Z ) = 0, E (Z 2 ) = 1, E (Z 3 ), E (Z 4 ) 3,
−
La aproximaci´on de Edgeworth consiste en truncar la serie de Taylor de la funci´on ln M Z (r) hasta alg´ un t´ermino adecuado. Por ejemplo, la aproximaci´on hasta la cuarta potencia de r es 2
ln M Z (r)
≈ r2! + a3!3 r3 + a4!4 r4 .
Entonces M Z (r)
r2 a3 a4 + r3 + r4 ) 2! 3! 4! a3 3 a4 4 r2 /2 = e exp( r + r ). 6 24
≈
exp(
Ahora se usa la serie ex = 1 + x + x2 /2! + x3 /3! + obtiene M Z (r)
···
en el segundo factor y se
a3 3 a4 4 a23 6 r + r + r ) 6 24 72 2 2 2 2 a3 a4 a3 = er /2 + r3 er /2 + r4 er /2 + 3 r6 er /2 . 6 24 72
≈
er
2
/2
(1 +
(2.3)
El siguiente paso es invertir cada t´ermino de esta ecuaci´on encontrando una distribuci´ on aproximada para Z . El resultado es el siguiente. Proposici´ on. Si φ(x) es la funci´on de densidad de la distribuci´on normal est´andar, entonces para cualquier entero n 0,
≥ ∞ erx (−1)n φ(n) (x) dx = rn er /2 .
−∞
2
44
´ n de Edgeworth 2.4. Aproximacio
Demostraci´ on. Primeramente tenemos que para n = 0, ∞
erx φ(x) dx = er
2
/2
,
−∞
2
es decir, er /2 es la funci´on generadora de momentos de la distribuci´on normal est´ andar. Multiplicando por r tenemos que re
∞
r2 /2
=
−
rerx φ(x) dx
−∞ ∞
=
(
d rx e )φ(x) dx dx
−∞ ∞
=
erx φ′ (x) dx.
−∞
2
Lo anterior demuestra que rer /2 es la transformada de Laplace de φ′ (x). En este caso usamos el t´ermino transformada de Laplace y no funci´on generadora de momentos pues la funci´on φ′ (x) no es una funci´on de densidad. Procediendo de manera an´aloga, multiplicando sucesivamente por r, se llega a la f´ormula anunciada, 2 es decir, la funci´on rn er /2 es la transformada de Laplace de ( 1)n φ(n) (x).
−
−
−
Por lo tanto, invirtiendo t´ermino a t´ermino la igualdad (2.3), se obtiene 2
a4 (4) a ≈ φ(z) − a63 φ(3) (z) + 24 φ (z) + 3 φ(6) (z). (2.4) 72 Recordemos que hemos definido Z = (S − m)/σ. Entonces la funci´on de densidad f Z (z)
de S = m + σZ est´ a dada por
f S (x) =
−
1 x m f Z ( ), σ σ
y por lo tanto se tiene el siguiente resultado. Proposici´ on. (Aproximaci´ on de Edgeworth). La funci´ on de densidad del 2 riesgo S con media m y varianza σ es 2
f S (x)
a4 (4) x − m a x−m ≈ σ1 [ φ( x −σ m ) − a63 φ(3)( x −σ m ) + 24 φ ( ) + 3 φ(6) ( ) ]. σ 72 σ
´ rmula de Panjer y m´ ´n Parte 2. Fo etodos de aproximacio
45
Derivando directamente la funci´on de densidad φ(x) de la distribuci´on normal est´ andar puede demostrarse que φ(3) (x) = (3x x3 ) φ(x), φ(4) (x) = (3 6x2 + x4 ) φ(x), φ(6) (x) =
− − (−15 + 45x2 − 15x4 + x6 ) φ(x).
Estas expresiones pueden substituirse en la aproximaci´on de Edgeworth para obtener una expresi´on en t´erminos de ´unicamente la funci´on φ(x). Observe que el primer sumando en la aproximaci´on de Edgeworth corresponde a la funci´on de densidad normal con media m y varianza σ2 . No es dif´ıcil verificar adem´ as que cuando el riesgo S sigue una distribuci´on normal, la aproximaci´on de Edgeworth es exacta pues produce como resultado la misma distribuci´ on con los mismos par´ametros.
Francis Ysidro Edgeworth (Irlanda 1845–1926)
La aproximaci´on de Edgeworth puede expresarse tambi´en en t´erminos de la funci´on de distribuci´on de la siguiente forma. Integrando (2.4) se obtiene 2
a4 (4) a ≈ Φ(z) − a63 Φ(3)(z) + 24 Φ (z) + 3 Φ(6) (z). 72 Considerando la identidad F S (x) = F Z ((x − m)/σ), se tiene que la aproximaci´on F Z (z)
de Edgeworth para un riesgo S en t´erminos de la funci´on de distribuci´on es 2
F S (x)
a4 (4) x − m a x−m ≈ Φ( x −σ m ) − a63 Φ(3) ( x −σ m ) + 24 Φ ( ) + 3 Φ(6) ( ), σ 72 σ
46
´ n de Edgeworth 2.4. Aproximacio
en donde derivando directamente la funci´on Φ(z) puede demostrarse que Φ(3) (z) = (z 2 1) φ(z), Φ(4) (z) = ( z 3 + 3z) φ(z), Φ(6) (z) = ( z 5 + 10z 3 15z) φ(z).
− −
−
−
Aproximaci´ on normal 26. Suponga que un cierto riesgo S tiene una distribuci´on Poisson compuesta con par´ametro λ = 30, en donde los montos de las reclamaciones siguen una distribuci´ on uniforme(0, 10). Use la aproximaci´on normal para encontrar el valor de la prima p tal que
≤ 0.05. b ) P (S > p) ≤ 0.01.
a ) P (S > p)
27. Suponga que un riesgo S sigue una distribuci´ on Poisson compuesta con par´ametro λ = 20, y los montos de las reclamaciones tienen distribuci´on exp(α) con α = 10. Use la aproximaci´on normal para estimar la probabilidad P (S > E (S )). 28. Suponga que un riesgo S sigue una distribuci´ on Poisson compuesta con par´ametro λ = 20, y los montos de las reclamaciones tienen distribuci´on Pareto(4, 3). Use la aproximaci´on normal para comprobar que el valor de la prima p que cumple la condici´on P (S > p) 0,01 es p = 38,0194.
≤
Aproximaci´ on gamma trasladada 29. Durante la derivaci´ on de la aproximaci´on gamma trasladada se usa el hecho de que la variable aleatoria k + Z , en donde Z tiene una distribuci´on gamma(γ, α), tiene media, varianza y coeficiente de asimetr´ıa k + γ/α, γ/α 2 y 2/ γ respectivamente. Demuestre estas f´ormulas.
√
30. Durante la derivaci´ on de la aproximaci´on gamma trasladada se llega al sistema de ecuaciones k + γ/α = m, γ/α 2 = σ2 y 2/ γ = α3 , en donde k, γ y α son las inc´ognitas. Demuestre que la soluci´on a este sistema es efectivamente k = m 2σ/α3 , γ = 4/α23 y α = 2/σα3 .
√
−
´ rmula de Panjer y m´ ´n Parte 2. Fo etodos de aproximacio
47
31. Encuentre una expresi´on para la aproximaci´on gamma trasladada cuando el riesgo sigue una distribuci´ on a) Poisson compuesta. b) binomial compuesta. c) binomial negativa compuesta. 32. Suponga que Z tiene una distribuci´on gamma(γ, α). Demuestre que si 2γ es un n´ umero entero natural, entonces 2αZ tiene una distribuci´on χ2 (2γ ).
Aproximaci´ on de Edgeworth 33. Demuestre que la aproximaci´on de Edgeworth para un riesgo con distribuci´on normal con media m y varianza σ2 produce esta misma distribuci´o n con los mismos par´ametros. Recuerde que si Z tiene una distribuci´ on normal est´ andar, entonces los momentos impares de esta variable aleatoria se anulan, y para cualquier n´umero natural n, E (Z 2n ) =
(2n)! . 2n n!
34. Suponga que S tiene una distribuci´on Poisson compuesta de par´ametro λ > 0, y que se desea usar la aproximaci´on de Edgeworth para S . Demuestre que dk ak = k ln M Z (r) dr
En consecuencia P (S
≤ x) ≈
= λµk (λµ2 )−k/2 , para k r=0
≥ 2.
−3/2 √−λµλµ ) − λµ3(λµ62 ) Φ(3)( x√−λµλµ ) 2 2 −2 λµ4 (λµ2 ) x − λµ + Φ(4) ( √ )
Φ(
x
24
+
λ2 µ23 (λµ2 )−3 72
λµ2 x λµ Φ(6) ( ). λµ2
√−
35. Suponga que S tiene una distribuci´on Poisson compuesta de par´ametro λ > 0, y que se desea usar la aproximaci´on de Edgeworth para S . Suponga adicionalmente que el monto de las reclamaciones siguen una distribuci´on Pareto(4, 3).
48
´ n de Edgeworth 2.4. Aproximacio
Demuestre que µ4 = puede aplicarse.
∞, y por lo tanto la f´ormula del ejercicio anterior no
Parte 3
Principios para el c´ alculo de primas
Hemos mencionado antes que una prima es un pago por adelantado que un asegurado realiza a una compa˜n´ıa aseguradora para obtener una cobertura parcial o completa contra un riesgo determinado en los t´erminos y condiciones que establece la p´oliza del seguro. En este cap´ıtulo vamos a estudiar algunas reglas generales para calcular el valor de una prima tomando en consideraci´on u ´ nicamente los aspectos matem´aticos del riesgo, es decir, no consideraremos cuestiones administrativas o mercadol´ ogicas del negocio del seguro, las cuales en situaciones pr´acticas son indispensables de considerar. Denotaremos por p, o pS , la prima para cubrir un riesgo S . De esta manera, a la f´ormula para calcular una prima se le puede considerar como una funci´on num´erica de la variable aleatoria S o de su distribuci´on.
3.1.
Principios generales
La prima pura de riesgo est´ a dada por p = E (S ). Aunque esta f´ormula para calcular una prima podr´ıa parecer justa para el asegurado, no lo es as´ı para el asegurador, quien debe solventar los diversos gastos de administraci´on del seguro, y quien por otro lado no tendr´ıa ning´un margen de ganancia promedio por operar el negocio del seguro. Veremos a continuaci´on la posible situaci´on catastr´ofica que puede presentarse cuando se toma p = E (S ). Considere un portafolio homog´eneo de n p´ olizas de seguro de un mismo riesgo y v´alidas por un tiempo determinado. Suponga que se cobra una misma prima p por cada p´oliza, y que S j representa el monto de las reclamaciones efectuadas por la p´oliza j, las cuales se presuponen independientes 49
50
3.1. Principios generales
y con id´entica distribuci´on. Si u es el capital inicial de la aseguradora, entonces el capital de la misma al t´ermino de la vigencia de las p´olizas es n
X n = u + np
−
S j .
j=1
Tomando esperanza en la ecuaci´on anterior, y suponiendo p = E (S ) se obtiene E (X n ) = u + n ( p
− E (S )) = u.
Es decir, en promedio la compa˜n´ıa aseguradora permanece con su capital inicial, sin embargo puede demostrarse que cuando n ,
→∞
l´ım sup X n = n→∞
− l´ınm→∞ inf X n = ∞.
Esto quiere decir que el capital X n puede oscilar y tomar valores grandes, tanto negativa como positivamente. Cuando p = E (S ) la variable X n tiene el siguiente comportamiento l´ımite:
l´ım X n =
n→∞
+
∞ −∞
si p > E (S ), si p < E (S ).
En vista de estos resultados, es natural y deseable suponer p > E (S ). Esta condici´ on se conoce con el nombre de condici´ on de ganancia neta (net profit condition), y debe prevalecer en cualquier m´etodo para calcular p. Veremos a continuaci´on algunos m´etodos generales para calcular el valor de p considerando u ´ nicamente las caracter´ısticas estoc´asticas del riesgo a cubrir S . En general no existe un mecanismo de c´alculo que sea el mejor pues existen varias condiciones que afectan la forma de calcular primas, entre ellas, las restricciones legales y financieras, las condiciones del asegurado, las condiciones de la propia aseguradora y de las otras aseguradoras como competidoras y las condiciones del mercado del seguro. Todos estos son factores que determinan, directa o indirectamente, el valor de una prima para cubrir un riesgo particular en una situaci´on real. Principio del valor esperado. Este principio es uno de los m´as sencillos y establece que la prima puede calcularse de la siguiente forma p = (1 + θ)E (S ), en donde θ > 0 es una constante llamada factor de recargo (safety loading). Es decir, se trata de la reclamaci´on promedio mas un porcentaje de ´esta. Una
´ lculo de primas Parte 3. Principios para el ca
51
desventaja de esta f´ormula es que asigna la misma prima a dos riesgos con distinta distribuci´ on pero con media com´un, y no toma en cuenta otro aspectos. Por ejemplo, si las varianzas de los riesgos fueran distintas, entonces las primas tal vez deber´ıan ser distintas. Principio de la varianza. Este principio hace uso de la esperanza y varianza del riesgo. En este caso el factor de recargo θ > 0 se aplica sobre el valor de la varianza, es decir, p = E (S ) + θ Var(S ). Principio de la desviaci´ on est´ andar. Sea nuevamente θ > 0 una constante. En este principio el factor de recargo se aplica sobre la desviaci´on est´andar del riesgo, es decir, p = E (S ) + θ Var(S ).
Principio de utilidad cero. Este principio hace uso de una funci´ on de utilidad , esto es, una funci´on v(x) que cumple las siguientes propiedades: v(x)
a) v(0) = 0. b) v(x) es estrictamente creciente. c) v(x) es estrictamente c´oncava.
x Funci´ on c´ oncava
El principio de utilidad cero establece que la prima es aquel n´umero p que satisface la ecuaci´on v(u) = E [v(u + p S )], (3.1)
−
en donde u es el capital inicial de la aseguradora. Es decir, la utilidad que representa para la aseguradora el capital inicial u debe ser id´entica a la utilidad esperada al cubrir el riesgo. Se puede demostrar que si existe una soluci´on a (3.1), ´esta es ´unica y que si S no es constante, es decir P (S = E (S )) < 1, entonces p > E (S ). Por ejemplo, considere la funci´ on de utilidad u(x) = 1 e−αx, con α > 0. La prima se calcula como aquel valor de p que es soluci´on de la ecuaci´on
−
1
− e−αu = E [1 − e−α(u+ p−S)].
52
3.1. Principios generales
En este caso la soluci´on se puede encontrar con facilidad, despu´es de algunos c´alculos, de la identidad anterior se obtiene la expresi´on p =
1 ln M S (α). α
(3.2)
Principio del valor medio. Este principio hace uso de una funci´ on de valor , esto es, una funci´on v(x) que cumple las siguientes propiedades: v(x)
a) v(0) = 0. b) v(x) es estrictamente creciente. c) v(x) es estrictamente convexa.
x Funci´ on convexa
El principio del valor medio establece que la prima p debe calcularse a partir de la igualdad v( p) = E [v(S )]. (3.3) Usando la desigualdad de Jensen puede demostrarse que si P (S = E (S )) < 1, entonces p > E (S ). Por ejemplo, considere la funci´on de valor v(x) = eαx 1 con α > 0. Bajo este principio, la igualdad (3.3) se escribe
−
eαp
− 1 = E (eαS − 1),
lo que lleva a la siguiente soluci´on, que es id´entica a (3.2), p =
1 ln M S (α). α
(3.4)
Principio exponencial. Este es el principio de utilidad cero aplicado a la funci´on de utilidad u(x) = 1 e−αx, con α > 0. Y coincide tambi´ en con el principio del αx valor medio aplicado a la funci´on de valor v(x) = e 1, con α > 0. Hemos visto que la prima que se encuentra bajo estos principios es
−
−
p =
1 ln M S (α). α
Observe que en este caso la prima no depende del capital inicial u. Usando la desigualdad de Jensen puede demostrarse directamente que esta forma de calcular
´ lculo de primas Parte 3. Principios para el ca
53
primas cumple la condici´on de ganancia neta cuando el riesgo en cuesti´on no es constante. Principio del porcentaje. Sea ǫ > 0 una constante. El principio del porcentaje sugiere que la prima p debe calcularse como aparece abajo. Esta f´ormula postula que la probabilidad de que una reclamaci´on exceda el monto de la prima debe ser peque˜no. A este principio tambi´en se le conoce tambi´en como principio de p´erdida m´ axima.
{
p = ´ınf x > 0 : P (S > x)
≤ ǫ }.
Por ejemplo, si S sigue una distribuci´on exponencial de par´ametro λ, entonces P (S > x) = e−λx. Y por lo tanto p es aquel valor num´erico tal que e−λp = ǫ, es decir, p = λ1 ln ǫ.
−
Principio de Esscher. Antes de establecer este principio es necesario primero definir la transformada de Esscher de una distribuci´on. Sea S un riesgo con funci´ on de densidad f (x), funci´ on de distribuci´on F (x), y para la cual existe la funci´on generadora de momentos M S (h), para algunos valores de h > 0. La transformada ametro h de la funci´on de densidad f (x) es de Esscher con par´ g(x) =
1 ehx f (x). M S (h)
(3.5)
Es inmediato comprobar que ´esta es efectivamente una funci´on de densidad. El principio de Esscher establece que la prima para cubrir el riesgo S es la esperanza de esta nueva funci´on de densidad, es decir, p = =
∞ 1 x ehxf (x) dx M S (h) 0 1 E (Se hS ). M S (h)
Habiendo definido la forma de calcular primas bajo este principio, vamos a hacer ahora algunas observaciones acerca de la nueva funci´on de densidad (3.5), la cual es la funci´on de densidad original ponderada por la funci´on x ehx /M S (h). Para valores de x menores a E (S ) esta ponderaci´on es menor a uno pues
→
ehx ehE(S) < M S (h) M S (h)
≤ 1,
en donde la segunda desigualdad se obtiene de la desigualdad de Jensen. Ello tiene como consecuencia que la esperanza de (3.5) sea mayor a la esperanza de S , cumpliendose as´ı la condici´ on de ganancia neta. Observe adem´as que la correspondiente
54
3.2. Propiedades
funci´ on de distribuci´on de (3.5) es 1 G(x) = M S (h)
x
ehy f (y) dy.
0
A esta funci´on tambi´ en se le llama la transformada de Esscher de la funci´o n de ˜ una variable aleatoria asociada a esta funci´on de distribudistribuci´ on F (x). Sea S ci´ on. Algunos c´alculos sencillos muestran que la funci´on generadora de momentos de esta nueva variable aleatoria est´a dada por M S˜ (t) =
M S (t + h) . M S (h)
Principio del riesgo ajustado. Este principio, as´ı como el de Esscher, est´ a basado en una transformaci´on de la distribuci´on del riesgo. Para un riesgo S con funci´on de distribuci´on F (x) se define una nueva funci´on de distribuci´on de la siguiente forma G(x) = 1 (1 F (x))1/ρ ,
− −
≥
en donde ρ 1 es un par´ametro conocido como el ´ındice del riesgo . La esperanza de esta nueva distribuci´on es la prima del principio del riesgo ajustado para el riesgo S , es decir, ∞
p =
0
∞
(1
− G(x)) dx =
(1
0
− F (x))1/ρ dx.
Cuando ρ > 1 y S no es constante se verifica la condici´on de ganancia neta pues ∞
p =
0
3.2.
1/ρ
(1 − F (x))
∞
dx >
0
(1
− F (x)) dx = E (S ).
Propiedades
En esta secci´on se enuncian algunas propiedades generales que son deseables que posea cualquier m´etodo para calcular primas. Simplicidad. El c´ alculo de la prima debe ser f´acil de calcular, por ejemplo, los principios del valor esperado, el de la varianza y el de la desviaci´on est´andar cumplen plenamente esta primera propiedad. La simplicidad en el c´alculo de la prima es deseable que se cumpla por varias razones, entre ellas est´a el aspecto pr´actico del
55
´ lculo de primas Parte 3. Principios para el ca
c´ alculo mismo, as´ı como el de lograr una cabal comprensi´on del c´alculo de la prima por parte del asegurado y del resto de las personas involucradas en los procesos administrativos y legales del seguro. Cota inferior. Por lo explicado antes, la prima debe tener siempre como cota inferior estricta la prima de riesgo, es decir, p > E (S ), en otras palabras, las primas deben tener siempre un recargo positivo. Consistencia. Si un riesgo se incrementa en una constante, entonces la prima debe reflejar ese cambio increment´andose en la misma cantidad, es decir, si c > 0 es una constante, entonces p(S + c) = p(S ) + c. Los principios de varianza, de la desviaci´ on est´andar, de utilidad cero, el principio exponencial y el principio del porcentaje cumplen con esta propiedad. Aditividad. La prima de un portafolio consistente en dos riesgos independientes debe ser la suma de las primas individuales, es decir, p(S 1 + S 2 ) = p(S 1 ) + p(S 2 ), cuando S 1 y S 2 son dos riesgos independientes. Es claro que cuando se cumple esta propiedad, el intentar combinar o separar los riesgos no resulta en ninguna ventaja o provecho alguno ni para el asegurado ni para el asegurador. Los principios de valor esperado, el de la varianza y el principio exponencial cumplen esta propiedad. Invarianza de escala. Si a > 0 es una constante, entonces p(aS ) = aP (S ) , es decir, si la cuantificaci´on del riesgo S cambia de escala y se considera ahora el riesgo aS , la prima para este nuevo riesgo debe ser ap(S ), esto es, la prima original modificada con la misma escala. Cota superior. Si un riesgo est´a acotado superiormente, entonces la prima para cubrir este riesgo tambi´ en debe tener la misma cota superior, es decir, si S M para alguna constante M > 0, entonces p(S ) M .
≤
≤
3.3.
Ejercicios
Funciones de utilidad y el principio de utilidad cero 36. Sean a > 0 y α > 0 constantes. Demuestre que la funci´on v(x) = a(1 e−αx) definida para x 0, es una funci´on de utilidad y que usada bajo el principio de utilidad cero determina que la prima para cubrir un riesgo S debe ser
≥
−
56
3.3. Ejercicios
p =
1 α
ln M S (α).
Funciones de valor y el principio del valor medio 37. Suponga que un riesgo S tiene distribuci´on exp(λ). Use el principio del valor medio para calcular la prima para cubrir este riesgo usando la funci´o n de valor v(x) = x2 . Principio exponencial 38. Use la desigualdad estricta de Jensen para demostrar directamente que el principio exponencial cumple la condici´on de ganancia neta cuando el riesgo en cuesti´on no es constante. Principio del porcentaje 39. Usando el principio del porcentaje con ǫ un riesgo S con distribuci´on exp(λ).
∈ (0, 1), calcule la prima para cubrir
Transformada de Esscher 40. Calcule la transformada de Esscher de par´ametro h > 0 de la distribuci´on a ) unif(a, b). b ) Poisson(λ). c ) N(µ, σ 2 ).
41. Sea S un riesgo con funci´on de densidad f (x). Demuestre que la doble transformada de Esscher de f (x) con par´ametros h1 y h2 , respectivamente, es h(x) =
1 M S (h1 + h2 )
e(h1 +h2 )x f (x),
y que la funci´on generadora de momentos de esta nueva densidad es M (t) =
M S (t + h1 + h2 ) . M S (h1 + h2 )
´ lculo de primas Parte 3. Principios para el ca
57
Principio de Esscher 42. Calcule la transformada de Esscher de par´ametro h de la distribuci´on gamma(γ, α), y encuentre la prima mediante el principio de Esscher para cubrir un riesgo con esta distribuci´on. ¿Se verifica la condici´on de ganancia neta? 43. Demuestre que la transformada de Esscher de par´ametro h de un riesgo S con distribuci´on exp(λ) es nuevamente la distribuci´on exp(λ h) para h < λ. Grafique ambas funciones de densidad para efectos de comparaci´on. Determine la prima por el principio de Esscher para cubrir el riesgo S . ¿Se verifica la condici´ on de ganancia neta?
−
Principio del riesgo ajustado 44. Demuestre que la transformada del principio del riesgo ajustado de par´ametro ρ de un riesgo S con distribuci´on exp(λ) es nuevamente la distribuci´on exp(λ/ρ). Determine la prima por este principio para cubrir el riesgo S , y verifique la condici´on de ganancia neta. 45. Demuestre que la transformada del principio del riesgo ajustado de par´ametro ρ de un riesgo S con distribuci´on Pareto(a, b) es nuevamente la distribuci´on Pareto(a/ρ, b). Determine la prima para cubrir S usando este principio, y verifique la condici´on de ganancia neta. 46. Calcule la prima para cubrir un riesgo S con distribuci´on unif(0, 1), usando el principio del riesgo ajustado con ´ındice de riesgo ρ, y verifique la condici´ on de ganancia neta.
Propiedades 47. Complete la siguiente tabla determinando si cada uno de los principios mencionados para calcular primas cumple la propiedad correspondiente. En cada caso demuestre su afirmaci´on o proporcione un contraejemplo.
58
3.3. Ejercicios
Cota inf Valor esperado Varianza Desv est´ andar Utilidad cero Valor medio Exponencial Porcentaje Esscher Riesgo ajustado
Consistencia
Aditividad
Invarianza
Cota sup
Parte 4
Reaseguro
El reaseguro se presenta cuando una aseguradora firma un contrato para cubrir ciertos riesgos con otra compa˜n´ıa aseguradora llamada reaseguradora . De esta manera ambas aseguradoras adquieren la obligaci´on de solventar las posibles reclamaciones del riesgo en cuesti´on. Desde el punto de vista de la aseguradora, el reaseguro le ayuda a evitar posibles fuertes montos en las reclamaciones, aunque naturalmente disminuyen sus ingreso por primas pues tiene que compartir ´estas con la reaseguradora. En este cap´ıtulo se estudian algunas ideas simples y generales del reaseguro. Considere un riesgo S y denote por S A la parte del riesgo asumido por el asegurador y sea S R la parte asumida por el reasegurador. Las letras A y R indican los t´erminos Asegurador y Reasegurador , respectivamente. Debe entonces cumplirse la igualdad S = S A + S R . El reaseguro puede tomar por lo menos dos perspectivas: actuar sobre las reclamaciones individuales o sobre el total del riesgo. Reclamaciones individuales Reaseguro Total del riesgo
Figura 4.1:
59
60
4.1. Reaseguro proporcional
En ambos esquemas de reaseguro se aplica una funci´on continua h del intervalo [0, ) en s´ı mismo tal que h(0) = 0 y h(x) x. Las dos funciones de este tipo que consideraremos son h(x) = ax para a (0, 1), y h(x) = m´ın x, M , para alguna constante M > 0. Gr´aficamente estas funciones se muestran a la Figura 4.2.
∞
∈
≤
{
h(x) = ax
}
h(x) = m´ın{x, M } M
x
x M
Figura 4.2: Bajo el esquema de reaseguro, la aseguradora afronta ´unicamente el riesgo resultante de aplicar la funci´on h al riesgo original o a cada una de sus reclamaciones. Cuando se utiliza la primera de las funciones h mencionadas, el reaseguro se llama proporcional , y en el segundo caso se le llama no proporcional . Estudiaremos a continuaci´ on estos dos tipos de reaseguro.
4.1.
Reaseguro proporcional
N
Suponga que una compa˜n´ıa aseguradora reasegura un riesgo S = j=1 Y j . En el reaseguro proporcional se usa la funci´on h(x) = ax, para alg´ u n valor de la constante a en el intervalo (0, 1). Usando la linealidad de esta funci´on, es claro que es equivalente aplicar la funci´on a cada reclamaci´on por separado o al riesgo completo. Dada una reclamaci´on Y , la aseguradora hace frente a una proporci´on de ´esta, aY , y la reaseguradora cubre el porcentaje restante, (1 a)Y . El riesgo total asumido por la aseguradora es aS , y la reaseguradora cubre (1 a)S pues
−
N A
S =
j=1
−
N
a Y j = aS
y
R
S =
j=1
(1
− a) Y j = (1 − a)S.
Las caracter´ısticas probabil´ısticas de S A (o bien de S R ) se encuentran f´acilmente de las de S pues, por ejemplo, es inmediato comprobar que
61
Parte 4. Reaseguro
a) F SA (x) = F S (x/a). b) f S A (x) =
1 a f S (x/a),
cuando S es absolutamente continua.
c) M S A (r) = M S (ar). Probabilidad de insolvencia. Comprobaremos a continuaci´on que el reaseguro proporcional es conveniente para la aseguradora en el sentido de que la probabilidad de insolvencia bajo este tipo de reaseguro es menor o igual a la probabilidad de insolvencia cuando no hay reaseguro. Suponga que una compa˜n´ıa aseguradora adquiere un riesgo S durante un cierto periodo y por el cual cobra una prima p. Suponga esta aseguradora tiene un capital inicial u. La probabilidad de que la compa˜ n´ıa aseguradora no pueda solventar el riesgo es P (S > p +u). Ahora suponga que la compa˜ n´ıa decide reasegurarse mediante el esquema de reaseguro proporcional. Suponga adem´as que el asegurador obtiene una parte de la prima original p dada por ap, y el reasegurador obtiene al aceptar reasegurar este riesgo (1 a) p. La probabilidad de que la aseguradora no pueda solventar el nuevo riesgo bajo este esquema es
−
P (aS > ap + u) = P (S > p + u/a)
≤ P (S > p + u).
De esta forma hemos comprobado que la probabilidad de insolvencia bajo el esquema de reaseguro proporcional es menor o igual a la probabilidad del mismo evento cuando no hay reaseguro. La ventaja para la aseguradora al contratar el reaseguro es que la incertidumbre disminuye pero sus ganancias tambi´en disminuyen al ceder un porcentaje de sus ingresos por primas.
4.2.
Reaseguro no proporcional
En el reaseguro no proporcional se toma la funci´on h(x) = m´ın x, M , para alguna constante M > 0 llamada nivel de retenci´ on . Distinguiremos dos casos: cuando se aplica esta funci´on a cada reclamaci´on y cuando se aplica sobre el total del riesgo.
{
}
Reaseguro en cada reclamaci´ on. Si se aplica la funci´on h(x) a cada reclamaci´on Y , entonces el asegurador cubre Y A = m´ın Y, M , y el reasegurado cubre el monto restante Y R = Y m´ın Y, M = m´ ax 0, Y M . Por lo tanto, cada una de las
−
{
}
{
{
}
− }
62
4.2. Reaseguro no proporcional
aseguradoras asume los siguientes riesgos N
S A =
j=1
N
m´ın Y j , M
{
y
}
S R =
j=1
m´ ax 0, Y j
{
− M }.
A este esquema de reaseguro se le conoce tambi´en con el nombre de reaseguro por exceso de p´ erdida (excess of loss). N´ umero de reclamaciones. Sea N A el n´ umero de reclamaciones que un asegurador afronta ba jo un reaseguro por exceso de p´erdida ( excess of loss ) con nivel de retenci´on M sin recurrir a la reaseguradora, es decir, N A
N =
1(Y j ≤M ) .
j=1
Por otro lado, el n´umero de reclamaciones que el reasegurador atiende para este tipo de reaseguro es N
N R =
1(Y j >M ) .
j=1
Es claro que se cumple la identidad N = N A + N R . Observe adem´as que, condicionado al evento (N = n), cada una de estas variables aleatorias tiene una distribuci´ on binomial en donde n es el n´ umero de ensayos y las probabilidades de ´exito son complementarias. La distribuci´on no condicional de estas variables es el contenido del siguiente resultado en donde supondremos que la distribuci´on de N es conocida y corresponde a uno de tres casos. Proposici´ on. Sea ν = P (Y j > M ). Entonces 1. si N tiene distribuci´on bin(n, p), entonces a ) N R
∼ bin(n,νp). b ) N A ∼ bin(n, (1 − ν ) p).
2. si N tiene distribuci´on Poisson(λ), entonces a ) N R
∼ Poisson(νλ). b ) N A ∼ Poisson((1 − ν )λ).
3. si N tiene distribuci´on bin neg(α, p), entonces
63
Parte 4. Reaseguro
a ) N R A
b ) N
∼ bin neg(α,p/( p + ν − νp)). ∼ bin neg(α,p/( p + (1 − ν ) − (1 − ν ) p)).
ormula general M S (t) = M N (ln(M Y (t)) cuando el Demostraci´ on. Se aplica la f´
riesgo S es la variable N R y Y es la variable aleatoria con distribuci´on Bernoulli dada por la funci´on indicadora 1(Y j >M ) . Primeramente M Y (t) = E (etY ) = 1 ν + νe t . Entonces M N R (t) = M N (ln(1 ν + νe t )). Para el primer inciso, cuando N tiene distribuci´on bin(n, p) tenemos que M N (t) = (1 p + pet )n . Por lo tanto
−
−
M N R
− (t) = (1 − p + p(1 − ν + νe t ))n = (1 − νp + νpe t )n .
Es decir N R tiene distribuci´on bin(n,νp). An´alogamente puede verse que N A tiene distribuci´ on bin(n, (1 ν ) p). De la misma forma se demuestran los otros casos. Recuerde que si N tiene distribuci´on Poisson(λ), entonces M N (t) = exp λ(et 1) , y si N es bin neg(r, p), entonces M N (t) = ( p/(1 (1 p)et ))r .
−
{
− −
− }
Reaseguro en el riesgo completo. En este caso se aplica la funci´on h(x) = m´ın x, M sobre el totalidad del riesgo para obtener la parte del riesgo que cubre la aseguradora, y el riesgo excedente lo cubre la reaseguradora. De esta manera cada una de las aseguradoras cubren los riesgos
{
}
S A = m´ın S, M
{
y
}
S R = m´ax 0, S
{
− M },
en donde puede verificarse la identidad S = S A + S R . Mediante este mecanismo la aseguradora tiene la certidumbre de que cubrir´a un monto m´aximo de M para el riesgo S . A este tipo de reaseguro se le llama reaseguro de p´erdida m´ axima (stop loss). Tanto la variable S A como S R son, en general, variables aleatorias mixtas, es decir, no son discretas ni continuas. Por ejemplo, la variable S A tiene una masa de probabilidad en el punto M de valor P (S M ), es decir, P (S A = M ) = P (S M ). Puede demostrarse que su funci´on de distribuci´on toma la expresi´on
≥
F S A (x) =
≥
F S (x) si x < M, 1 si x M,
≥
la cual se muestra en la Figura 4.3 (a) en el caso cuando F S (x) es continua. Debido a su condici´on de variable aleatoria mixta, la funci´on de densidad del riesgo S A no puede expresarse como una funci´on tradicional sino que hay que usar funciones generalizadas. El n-´esimo momento de S A , sin embargo, puede expresarse de la siguiente forma suponiendo que S es absolutamente continua, A n
E [(S ) ] =
M
0
xn f S (x) dx + M n P (S
≥ M ).
64
4.2. Reasegur Reaseguro o no proporciona proporcional l
F S A (x) 1
F S R (x) 1
x
x
M (a)
( b)
Figura 4.3: Por su parte, la variable S R tiene una masa de probabilidad en el punto 0 de valor F S (M ), M ), es decir, P ( P (S R = 0) = F S (M ), M ), y su funci´on on de distribuci´ distribuci´on on es F S R (x) =
0 si x < 0, F S (M + x) si x 0,
≥
la cual se muestra en la Figura 4.3 (b) en el caso cuando F S (x) es continua. Nuevamente, no es posible escribir la funci´on on de densidad de S R en t´erminos erminos tradicionale tradic ionaless pero el n-´esimo esimo momento mo mento adquiere adq uiere la siguiente si guiente expresi´ expres i´on, on, R n
∞
E [(S [(S ) ] =
xn f S (M + x) dx.
0
Es interesante notar que la variable S R puede tomar el valor 0 con probabilidad positiva positiva y que en la pr´ actica actica tal situaci´on on no es relevante para la compa˜n´ n´ıa ıa reas re aseg eguuR radora quien est´a interesada en los valores positivos de S . No es dif´ıcil ıcil comprobar comprob ar que la funci´on on de distribuci´on o n de S R condicionada a tomar valores positivos es, para x > 0, F SR | S R >0 (x) = P ( P (S R
F S (M ) M ) ≤ x | S R > 0) = F S (M 1 −+ F x)S−(M ) . M )
A manera de resumen de los tipos de reaseguro mencionados se tiene el diagrama de la Figura 4.4. Seguros Seguros con deducible fijo. Algunos tipos de seguros, como el seguro contra accidentes de autom´oviles, oviles, contemplan el pago de una cantidad llamada deducible
65
Parte arte 4. Reasegur Reaseguro o
Proporcional Reclamaciones individuales Exceso Exces o de p´erdida erdi da (excess of loss) Reaseguro Proporcional Total del riesgo P´erdi erdida da m´axima axima (stop loss)
Figura 4.4: cada vez que el asegurado presenta una reclamaci´on on ante la compa˜n´ıa asegur ase gurado adora. ra. En este caso particular estamos suponiendo que dicho deducible es una cantidad fija de d unidades monetarias, y que la reclamaci´on on se modela con la variable aleatoria S . Si el monto de la reclamaci´on es menor a d, el asegurado cubre la totalidad de la reclamaci´on, on, es decir, no hay reclamaci´on on para la aseguradora. En cambio, si el monto de la reclamaci´on on excede el valor de d, entonces el asegurado paga el deducible d y la aseguradora cubre la cantidad restante, es decir, m´ax 0, S d . De esta forma, los riesgos para este tipo de p´olizas de seguros se modelan con las herramientas que hemos mencionado para el reaseguro de p´ erdida erdida m´axima con nivel de retenci´on on d.
{
4.3. 4.3.
Ejer Ejerci cici cios os
Reaseguro proporcional 48. Para un reaseguro reaseguro proporcional proporcional demuestre demuestre que a) E (S A ) = a E (S ). ).
− }
66
4.3. Ejercicio Ejercicios s
b) Var(S ar(S A ) = a2 Var(S Var(S ). ). c)
E [(S [(S A E (S A ))3 ] E [(S [(S E (S )) ))3 ] = . [Var(S [Var(S A )]3/2 [Var(S [Var(S )] )]3/2
−
−
49. Bajo el esquema de reaseguro proporcional de un cierto riesgo S , el riesgo asumido por el asegurador es S A = aS , y la prima recibida es ap. ap. Suponga que el capital inicial de la aseguradora para afrontar dicho riesgo es u. Demuestre que la probabilidad de insolvencia P ( P (aS > ap + u) es una funci´on on creciente de a (0, (0, 1).
∈
50. Suponga Suponga que un riesgo riesgo S se modela mediante la distribuci´on on exp(α exp(α). Demuestre que bajo un reaseguro proporcional el riesgo asumido por la aseguradora S A = aS tiene distribuci´on on exp(α/a exp(α/a). ). 51. Suponga que un riesgo S se modela mediante la distribuci´on on gamma(γ, gamma(γ, α). Demuestre que bajo un reaseguro proporcional el riesgo asumido por la aseguradora S A = aS tiene distribuci´on on gamma(γ,α/a gamma(γ,α/a). ). 52. Suponga Suponga que un un riesgo S se S se modela mediante la distribuci´on on log normal(µ, normal(µ, σ 2 ). Demuestre que bajo un reaseguro proporcional el riesgo asumido por la aseguradora S A = aS tiene distribuci´on on log normal(µ normal(µ + ln a, σ 2 ).
Reaseguro no proporcional 53. Considere un reaseguro r easeguro no proporcional por exceso de p´erdida, erdida, y sean N A y N R el n´ umero de reclamaciones afrontadas por el segurador y por el reaseumero gurador respectivamente. a ) ¿Son N A y N R independientes? b ) ¿Son N y N A independientes?
54. Demuestre que bajo ba jo un reaseguro no prop orcional de p´erdida erdida m´axima axima (stop A R loss), los riesgos S y S tienen las siguientes funciones de distribuci´on: on: F S A (x) =
F S (x) si x < M, 1 si x M.
≥
F S R (x) =
0 si x < 0, F S (M + x) si x 0.
≥
55. Suponga Suponga que un cierto riesgo S se representa mediante un modelo colectivo. Condicionando sobre los posibles valores de la variable aleatoria N , N , demuestre A R que las variables N y N correspondientes al n´umero umero de reclamaciones en
67
Parte 4. Reaseguro
un reaseguro no proporcional por exceso de p´erdida (excess of loss) tienen la misma distribuci´on que N pero con distintos par´ametros en los casos cuando N es Poisson, binomial y binomial negativa. Este m´ etodo es alternativo al presentado en el texto en donde se us´o la funci´ on generadora de momentos. 56. Considere un reaseguro no proporcional de p´erdida m´axima (stop loss) para un riesgo S que sigue una distribuci´on exp(α). Encuentre la funci´on generadora de momentos de los riesgos S A y S R . 57. Suponga que un riesgo S se modela mediante la distribuci´on exp(α). Demuestre que bajo un reaseguro no proporcional de p´erdida m´axima (stop loss) se tiene que a ) E (S A ) = b ) E (S R ) =
1 e−αM ). α (1 1 −αM . αe
−
58. Considere un riesgo S con distribuci´on Poisson compuesta de par´ametro λ. Suponga que cada reclamaci´on Y tiene distribuci´on Pareto(α, β). Se adquiere un reaseguro no proporcional por exceso de p´erdida en donde la reclamaci´on afrontada por la aseguradora es Y A = m´ın Y, M . Demuestre que
{
}
β − ( β+M )α−1 E (Y ). β )α−1 E (S ). b ) E (S A ) = E (S ) − ( β+M
a ) E (Y A ) = E (Y )
59. Suponga se tiene un riesgo de la forma S = N un el modelo colecj=1 Y j , seg´ tivo, en donde cada reclamaci´on se modela mediante una variable aleatoria con distribuci´on exp(α). Bajo un reaseguro no proporcional por exceso de p´erdida con nivel de retenci´on M , el monto a pagar por la aseguradora por cada reclamaci´on es Y A = m´ın Y, M . Demuestre que
{
1 (1 α E ((Y A )2 ) = α22 Var(Y A ) = α12 A
− e−αM ). −αM − α2 e−αM − 2M . α e − 2M e−αM − α1 e−2αM . α
a) E (Y A ) = b) c)
}
2
2
≤ E (Y ). e) Var(Y A ) ≤ Var(Y ).
d) E (Y )
Usando las f´ ormulas generales encuentre ahora la esperanza y varianza de N A S = j=1 m´ın Y j , M .
{
}
68
4.3. Ejercicios
60. Suponga que el riesgo S sigue una distribuci´on exp(α). Bajo el reaseguro de p´erdida m´axima (stop loss), demuestre que la distribuci´on del riesgo S R condicionada al evento (S R > 0) es nuevamente exp(α). 61. Suponga que el riesgo S sigue una distribuci´on Pareto(a, b). Bajo el reaseguro de p´erdida m´axima (stop loss), demuestre que la distribuci´on del riesgo S R condicionada al evento (S R > 0) es Pareto(a, b + M ).
Parte 5
Teor´ıa de la credibilidad
Considere un cierto riesgo proveniente de un conjunto de asegurados vigentes por un periodo determinado, t´ıpicamente un a˜no. Si este grupo de asegurados es homog´eneo en el sentido de que todos sus miembros tienen la misma probabilidad de realizar una reclamaci´on, entonces aplicar una misma prima a todos ellos es razonable. Sin embargo, cuando el grupo no es homog´eneo o bien surge con el paso del tiempo cierta heterogeneidad entre ellos, habr´a subgrupos de bajo riesgo y otros de alto riesgo. Cobrar una misma prima a todos ellos ser´ıa injusto, y no ser´ıa bueno para la aseguradora pues eventualmente los asegurados de bajo riesgo buscar´ıan un mejor trato con otras aseguradoras, y s´olo se quedar´ıan en la cartera los asegurados de alto riesgo. La idea fundamental es aplicar primas menores a los asegurados de bajo riesgo y primas mayores a los de alto riesgo, con base en el historial de reclamaciones que cada uno de los asegurados o subgrupos hayan realizado durante los a˜ nos anteriores. En la teor´ıa de la credibilidad se estudian m´etodos para el c´ alculo de primas a trav´es de la combinaci´on de la experiencia individual (historial de reclamaciones) y la experiencia de grupo (comportamiento te´orico).
5.1.
Credibilidad americana
Credibilidad completa. Suponga que S representa el riesgo para una aseguradora correspondiente a un asegurado o un conjunto de asegurados con ciertas caracter´ısticas particulares, y v´alido por un periodo fijo, por ejemplo, un a˜no. Sean S 1 , . . . , Sm los montos de las reclamaciones anuales efectuadas por este asegurado o 69
70
5.1. Credibilidad americana
¯ = (S 1 + +S m)/m grupo de asegurados durante m periodos consecutivos, y sea S ¯a el promedio de las reclamaciones. Nos interesa estudiar el comportamiento de S lo largo del tiempo para un conjunto de asegurados en particular pues deseamos determinar si la prima que se les cobra a cada uno de ellos es la adecuada. Si las variables S 1 , . . . , Sm son independientes, id´enticamente distribuidas y con esperanza ¯ converge finita, entonces la ley de los grandes n´umeros garantiza que la variable S a la constante E (S ), conforme el n´umero de sumandos crece a infinito. Es decir, el ¯ como funci´on de m es posiblemente oscilatorio alrededor de comportamiento de S E (S ) pero eventualmente va a estabilizarse en ese valor. La pregunta es ¿Qu´e tan ¯ est´e razonablemente cercano a E (S )? La intenci´on grande debe ser m para que S ¯ como elemento para calcular la prima del asegurado (o grupo de asegues usar S rados), siempre y cuando se tenga suficiente historial para dar credibilidad a tal estad´ıstica. El siguiente criterio es una posible respuesta a la pregunta planteada.
· ··
Definici´ on. Sean k (0, 1) y p credibilidad completa (k, p) si
∈ (0, 1) dos n´umeros fijos. Se dice que S ¯ tiene
¯ P ( S
(5.1)
∈
| − E (S )| ≤ kE (S ) ) ≥ p.
¯ tiene credibilidad completa si dista de E (S ), La condici´on anterior establece que S en menos de kE (S ) con probabilidad mayor o igual a p. Observe que la definici´on tiene sentido cuando E (S ) = 0. Naturalmente se toman valores de k cercanos a cero y valores de p cercanos a uno, t´ıpicamente k =0.05 y p = 0.9 . El problema es entonces encontrar el valor de n´umero de a˜ nos de observaci´on m que cumpla con el criterio (5.1).
Credibilidad completa bajo hip´ otesis de normalidad. Encontraremos una condici´ on sobre el n´umero de periodos de observaci´on m para obtener credibilidad ¯ ¯) = completa cuando S tiene una distribuci´on aproximada normal. Observe que E (S ¯) = Var(S )/m. Tenemos entonces que la parte izquierda de (5.1) es E (S ) y Var(S
¯ P ( S
| − E (S )| ≤ kE (S ) )
¯ E (S ) S Var(S )/m k mE (S ) 2Φ( ) Var(S )
= P (
≈
| − √
| ≤
kE (S ) ) Var(S )/m
− 1.
Parte 5. Teor´ ıa de la credibilidad
71
Como esta probabilidad debe ser mayor o igual a p se obtiene la desigualdad
√
k m E (S ) Φ( ) Var(S )
≥ 1 +2 p .
Sea uq el q-cuantil de la distribuci´on normal, es decir Φ(uq ) = q. Entonces
√
k m E (S ) Var(S )
Despejando m se obtiene m
≥
≥ u(1+ p)/2.
u2(1+ p)/2 Var(S ) k2
E 2 (S )
= 1082
Var(S ) , E 2 (S )
(5.2)
en donde para la ´ultima expresi´on es aproximada y se han usado los valores k =0.05 y p = 0.9, y por lo tanto u(1+ p)/2 = u0.95 = 1.6449. Los t´erminos E (S ) y Var(S ) pueden ser conocidos o estimados a trav´es de la media y varianza muestral, respectivamente, usando la informaci´on que se tenga a disposici´on al momento de hacer el an´alisis. Substituyendo estos valores en la formula se puede conocer una ¯ tenga credibilidad aproximaci´ on del n´ umero de periodos m de historial para que S completa. Ejemplo. Suponga que un riesgo S para un grupo de asegurados tiene distriN buci´ on Poisson compuesta, es decir, S = j=1 Y j , en donde N tiene distribuci´on Poisson(λ). Suponga adicionalmente que cada reclamaci´on individual Y tiene distribuci´ on exp(α). De acuerdo a la notaci´on previa, el primer y segundo momento de Y son µ1 = 1/α y µ2 = 2/α2 . Entonces E (S ) = λµ1 = λ/α, y Var(S ) = λµ2 = 2λ/α2 . Por lo tanto, tomando nuevamente k =0.05 y p =0.9, la aproximaci´ on (5.2) se reduce a λm 2164. ¯. Es decir, despu´es de 2164 reclamaciones, se obtiene credibilidad completa para S Observe que λm representa el total de reclamaciones promedio durante m peridos. Observe adem´as para este ejemplo particular que puede no conocerse el valor del par´ametro λ, pues aunque la esperanza y varianza de S se expresan en t´erminos de este par´ametro, el criterio de credibilidad completa se expresa en t´erminos del n´ umero de reclamaciones promedio (λm), y no del n´umero de periodos m.
≥
◦
¯ para E (S ) se propone la combiCredibilidad parcial. En lugar del estimador S naci´on lineal ¯ (1 z)E (S ), z S +
−
72
5.1. Credibilidad americana
en donde z [0, 1] es llamado factor de credibilidad . Nuevamente se pretende que tal estimador no diste demasiado de E (S ). La condici´on (5.1) se reduce a
∈
¯ P ( z(S
|
− E (S ))| ≤ kE (S ) ) ≥ p.
Observe que esta expresi´on hace referencia ´unicamente al primer sumando del estimador propuesto. Reescribimos la expresi´on anterior de la forma siguiente
| − E (S )| ≤ kz E (S ) ) ≥ p.
¯ P ( S
Esta es la misma condici´on para la credibilidad completa solo que en lugar del ¯ par´ametro k tenemos ahora k/z, es decir, la credibilidad completa (k, p) para z S + ¯. (1 z)E (S ) es equivalente a la credibilidad completa (k/z,p) para S
−
Credibilidad parcial bajo hip´ otesis de normalidad. Nuevamente bajo la ¯ y para los valores de k y p los mencionados antehip´ otesis de normalidad para S riormente se tiene la aproximaci´on m
≥
z 2 u2(1+ p)/2 Var(S ) k2
E 2 (S )
= (1082) z 2
Var(S ) . E 2 (S )
(5.3)
De donde se obtiene
√
√
k E (S ) m m z= = 32,89 u(1+ p)/2 Var(S )
E (S ) . Var(S )
(5.4)
Este valor de z excede el valor de uno para valores suficientemente grandes de m, por lo tanto se define el factor de credibilidad como z = m´ın
{
√
k E (S ) m , 1 . u(1+ p)/2 Var(S )
}
(5.5)
Ejemplo. Considere nuevamente un riesgo S con distribuci´on Poisson compuesN ta, S = j=1 Y j , en donde N tiene distribuci´on Poisson(λ), y Y tiene distribuci´on exp(α). Para los valores de k y p mencionados, la condici´on de credibilidad par¯ (1 z)E (S ) se reduce a cial (5.3) para z S +
−
λm
≥ 2164z2,
√
Considerando igualdad y despejando z se obtiene z = λm/46,52, en donde λm se substituye por el n´umero de reclamaciones totales en que se hayan presentado
73
Parte 5. Teor´ ıa de la credibilidad
√
en m periodos, siempre y cuando λm 46,52. De esta manera la prima por credibilidad parcial es λm ¯ λm S + (1 ) E (S ), 46,52 46,52 ¯ en donde E (S ) = λ/α es el valor esperado te´orico supuesto para el riesgo S , y S es la experiencia observada.
√
−
≤ √
◦
5.2.
Credibilidad Bayesiana
La credibilidad Bayesiana es otra forma de incorporar el historial de reclamaciones de un grupo de asegurados en el c´alculo de las primas. Estimaci´ on Bayesiana. En la estad´ıstica tradicional se considera el problema de estimaci´on de un par´ametro θ de una distribuci´on probabilidad dada f (x; θ). Para ello se considera una muestra aleatoria de esta distribuci´on y se estudian distintos m´etodos para estimar θ, considerando siempre que este par´ametro tiene un valor desconocido y fijo. Existe, sin embargo, un punto de vista distinto llamado estimaci´ on Bayesiana. Desde esta perspectiva se considera que θ es una variable aleatoria para la cual se asume una distribuci´on de probabilidad h(θ) llamada a on refleja cierta informaci´on que el observador tiene sobre el priori . Esta distribuci´ par´ametro θ. La distribuci´ on conjunta de una muestra aleatoria y el par´ametro θ es m
|
f (x1 , . . . , x m , θ) = f (x1 , . . . , xm θ) h(θ) = La distribuci´on marginal de la muestra es entonces
|
f (xi θ) h(θ).
i=1
m
f (x1 , . . . , xm ) =
|
f (xi θ) h(θ) dθ.
θ i=1
Conociendo estas funciones puede ahora calcularse la distribuci´on condicional de θ dada la muestra como sigue g(θ x1 , . . . , xm ) =
|
=
|
f (x1 , . . . , xm θ) h(θ) f (x1 , . . . , xm ) m i=1 f (xi θ) h(θ) . m i=1 f (xi θ) h(θ) dθ θ
| |
74
5.2. Credibilidad Bayesiana
De esta forma la distribuci´on h(θ) representa cierta informaci´on que el observador conoce del par´ametro θ antes de tomar la muestra, y la distribuci´on a posteriori g(θ x1 , . . . , xm ) es la distribuci´on modificada a la luz de la muestra aleatoria. Teniendo ahora esta distribuci´on a posteriori para θ uno puede proponer varias formas de estimar este par´ametro, una de ellas es simplemente tomar la esperanza de esta distribuci´on, es decir, un estimador Bayesiano para θ es
|
θˆ = E (θ x1 , . . . , xm ) =
|
|
θ g(θ x1 , . . . , xm ) dθ.
Ilustraremos estas ideas con un ejemplo particular y despu´es las aplicaremos al problema de encontrar mecanismos para calcular primas tomando en cuenta el historial de reclamaciones de un riesgo. Ejemplo. Suponga que X 1 , . . . , Xm es una muestra aleatoria de la distribuci´ on Ber( p), y suponga adem´as que el par´ametro p tiene una distribuci´on beta(a, b), con a y b conocidos. Observe que el soporte de la distribuci´on beta es el intervalo (0, 1), de modo que en este sentido tal distribuci´on es factible para el par´ametro p. La densidad conjunta de la muestra y el par´ametro es
|
f (x1 , . . . , xm , p) =
f (x1 , . . . , xm p) h( p) 1 = pm¯x (1 p)m−m¯x pa−1 (1 p)b−1 B(a, b) 1 = pa+m¯x−1 (1 p)m−m¯x+b−1 . B(a, b)
−
−
−
Integrando respecto a p se obtiene la densidad marginal de la muestra, f (x1 , . . . , xm ) = =
1 1 pa+m¯x−1 (1 p)m−m¯x+b−1 dp B(a, b) 0 B(a + m¯ x, m m¯ x + b) . B(a, b)
−
−
Por lo tanto, la densidad a posteriori para p es
|
g( p x1 , . . . , xm ) =
1 B(a + m¯ x, m
a+m¯ x−1
− m¯x + b) p
−
(1
− p)m−m¯x+b−1.
Esta es la densidad beta(a + m¯ x, m m¯ x + b), y su esperanza puede usarse como un estimador Bayesiano para p, es decir, pˆ =
a + m¯ x . m m¯ x+b
−
75
Parte 5. Teor´ ıa de la credibilidad
◦
Ahora aplicaremos estas ideas al problema del c´alculo de primas tomando en cuenta la experiencia de un riesgo. Suponga que las variables S 1 , . . . , Sm representan el historial de reclamaciones en m a˜nos o periodos que se han registrado de un riesgo dado. Suponga adem´as que estas variables son independientes y todas ellas tienen una distribuci´on com´ un dependiente de un par´ametro desconocido θ, y esta distribuci´ on es tal que E (S ) = θ. Bajo el enfoque Bayesiano se considera que el par´ametro θ es una variable aleatoria para la cual se asume una distribuci´on de probabilidad a priori. La esperanza a posteriori de θ, es decir, E (θ S 1 , . . . , Sm ), representa una estimaci´on para E (S ) = θ tomando en cuenta el historial S 1 , . . . , Sm . A esta esperanza a posteriori se le llama prima de credibilidad . En los casos que analizaremos esta prima tiene la forma de la credibilidad parcial mencionada antes. Los casos que consideraremos para la distribuci´on de S son: la distribuci´on Poisson con media λ, y la distribuci´on normal con media θ.
|
Modelo Poisson-gamma. Este modelo adquiere su nombre a partir de las siguientes hip´ otesis: Se postula que cada una de las variables aleatorias independientes S 1 , . . . , Sm tiene distribuci´on Poisson con par´ametro λ, el cual se considera aleatorio con distribuci´on a priori gamma(γ, α), con γ y α par´ametros conocidos. Observe que en este modelo se considera que los montos de las reclamaciones toman valores enteros. La funci´on de densidad a posteriori de λ es, para x > 0,
|
g(λ S 1 , . . . , Sm ) =
|
f (S 1 , . . . , Sm λ) h(λ)
∞
f (S 1 , . . . , Sm λ) h(λ) dλ
|
0
m
(
=
j=1 ∞ m
0
=
λSj −λ αγ γ −1 −αλ e ) λ e S j ! Γ(γ )
(
λSj −λ αγ γ −1 −αλ e ) λ e dλ S j ! Γ(γ )
j=1 ¯ −1 −(m+α)λ mS+γ
λ
∞
e
¯
λmS+γ −1 e−(m+α)λ dλ
0
=
¯
(m + α)mS+γ mS+γ ¯ −1 −(m+α)λ λ e . ¯ Γ(mS + γ )
¯ γ, m + α). Por lo tanto la prima Es decir, la densidad a posteriori es gamma(mS +
76
5.2. Credibilidad Bayesiana
por credibilidad, esperanza de esta densidad, es prima = =
E (λ S 1 , . . . , Sm ) ¯ γ mS +
|
m+α m ¯ α γ = S + m+α m+αα ¯ (1 z) γ , = z S + α
−
en donde z = m/(m + α) es llamado factor de credibilidad . Esta cantidad crece mon´otonamente a uno cuando m crece a infinito, dando cada vez m´as credibilidad ¯ y desfavoreciendo a la media te´orica γ/α. Observe adem´as a la media muestral S que cuando m crece a infinito, la media de la distribuci´on a posteriori converge a la media muestral l´ımite dado por el historial de reclamaciones, y que la varianza ¯ γ )/(m + α)2 converge a cero, lo cual indica que la de λ dada por Var(λ) = (mS + distribuci´ on a posteriori se concentra cada vez mas alrededor de su media. Modelo normal-normal. En este modelo se postula que cada una de las reclamaciones S 1 , . . . , Sm tiene distribuci´o n N(θ, σ 2 ), en donde el par´ametro σ2 es conocido y la media θ es una variable aleatoria con distribuci´ on N(µ, η 2 ), con µ y η 2 conocidos. La primera hip´otesis puede ser justificada en el caso cuando los montos anuales se componen de un gran n´umero de reclamaciones individuales, para ello no es necesario suponer que las reclamaciones individuales tienen la misma distribuci´ on. La segunda hip´otesis podr´ıa ser razonable si es que los par´ ametros µ y η 2 son tales que la probabilidad asignada a la parte negativa del eje es muy peque˜na. La funci´ on de densidad a posteriori de θ es
|
g(θ S 1 , . . . , Sm ) =
f (S 1 , . . . , Sm θ) h(θ)
|
∞
f (S 1 , . . . , S m θ) h(θ) θ
|
−∞
=
√1
∞
−∞
e−
m
2 2 j=1 (Sj −θ) /2σ
2πσ 2 m 2 2 1 e− j=1 (Sj −θ) /2σ 2πσ 2
√
2 2 1 e−(θ−µ) /2η 2πη 2 . 1 −(θ −µ)2 /2η2 e dθ 2πη 2
77
Parte arte 5. Teor Teor´ ıa de la credibilid credibilidad ad
Nos concentramos concentramos en analizar analizar ´unicament unicamentee el exponente exponente y tenemos tenemos que m
− j=1
(S j θ )2 2σ 2
−
− (θ 2−η2µ)
¯
2
mS µ −θ2( 2mσ2 + 21η2 ) + 2θ 2θ ( 2 + 2 ) 2σ 2η
=
m
− (
j=1
S j2 ) 2σ 2
−
µ2 . 2η 2
Completando el cuadrado en θ, este exponente se puede escribir como sigue [θ
−
¯
− ( mσ2S + ηµ2 )/( σm2 + η12 )]2 2(
m 1 + 2 )−1 2 σ η
¯ mS µ + 2 )2 2 σ η + m 1 2( 2 + 2 ) σ η (
m
− (
j=1
S j2 ) 2σ 2
2
− 2µη2 .
Este exponente aparece tanto en el numerador como en el denominador, y como los ultimos u ´ ltimos dos sumandos no dependen de θ ´estos estos desaparecen desapar ecen completamente completa mente al al hacer el cociente. cociente. Lo que resulta resulta es nuev nuevamente amente la distribuci´ distribuci´on on normal
g (θ S 1 , . . . , S m )=
|
[θ
1
m 1 2π( 2 + 2 )−1 σ η
exp
{−
¯
− ( mσ2S + ηµ2 )/( σm2 + η12 )]2 m 1 2( 2 + 2 )−1 σ η
}.
La media de esta distribuci´on on es entonces la prima por credibilidad, es decir,
|
prim rima = E (θ S 1 , . . . , Sm ) ¯ mS µ m 1 = ( 2 + 2 )/( 2 + 2 ) σ η σ η mη 2 σ2 ¯+ = S + S µ mη 2 + σ2 mη2 + σ2 ¯ + (1 z ) µ, = z S + S
−
en donde z = mη 2 /(mη2 + σ2 ) es el factor de credibilidad, el cual tiene nuevamente nuevamente comportamiento mon´otono otono creciente a uno conforme m crece a infinito. Observe adem´ as as que Var(θ Var(θ) = ( σm2 + η12 )−1 y que esta cantidad converge a cero cuando el tama˜ no no de muestra m crece a infinito, indicando nuevamente que la distribuci´on on a posteriori se concentra cada vez mas alrededor de su media.
78
5.3. 5.3.
5.3. Ejercicio Ejercicios s
Ejer Ejerci cici cios os
Credibilidad completa 62. Sean S 1 , . . . , Sm los resultados de m lanzamientos sucesivos de una moneda honesta con valores 0 y 1, dependiendo si se obtiene una cara de la moneda u otra. Usando la aproximaci´ aproximaci´ on normal encuentre el valor de m para obtener on ¯ = (S la credibilidad completa (k, ( k, p) para S ( S 1 + + S m )/m. /m. Suponga k = 0.1 y p = 0.9.
···
63. Encuentre el valor de m para obtener la credibilidad completa (k, ( k, p) para ¯ S = (S 1 + + S m )/m de un riesgo S con distribuci´on on N(5, N(5, 2). Suponga k = 0.15 y p = 0.9.
···
Credibilidad parcial 64. Use la aproximaci´on on normal para encontrar la prima por credibilidad parcial, a partir de una muestra S 1 , . . . , Sm , de un riesgo S con distribuci´on on Pareto(4, Pareto(4 , 3). Suponga k = 0.1 y p = 0.9. 65. Use la aproximaci´ aproximaci´ on on normal para encontrar encontrar la prima por credibilidad credibilidad parcial con k = 0.1 y p = 0.9 considerando el historial de reclamaciones S 1 , . . . , Sm N de un riesgo de la forma S = j =1 Y j , en donde a) N se distribuye bin(n, bin(n, p) con n = 100 y p = 1/2, y Y j se distribuye exp(α exp(α) con α = 1/10. b) N se distribuye bin neg(α, neg( α, p) con α = 10 y p = 1/3, y Y j se distribuye exp(α exp(α) con α = 1/ 1 /10.
Estimaci´ on on Bayesiana 66. Suponga que el n´umero umero de reclamaciones X de un cierto riesgo sigue una distribuci´ on on Poisson de par´ametro ametro λ. Se considera que el par´ametro ametro λ es desconocido conocido y se le modela como una variable variable aleatoria aleatoria con distribuci´ distribuci´ on on exp(µ exp(µ). Demuestre que la distribuci´on on a posteriori o no condicional de X es la si-
Parte arte 5. Teor Teor´ ıa de la credibilid credibilidad ad
79
guiente distribuci´on on geo g eom´ m´etric etr ica. a. P ( P (X = x) = µ
x+1
1 1+µ
.
67. Suponga Suponga que que N tiene una distribuci´on on Poisson(λ Poisson(λ), y que condicionada al valor de N la variable X tiene distribuci´on on bin(N, bin(N, p). Demuestre que la distribuci´on on no condicional condicional de X es Poisson(λp Poisson(λp). ).
80
5.3. Ejercicios
Parte 6
Procesos estoc´ asticos
En este cap´ıtulo se presenta una introducci´on breve al tema de los procesos estoc´asticos. Se explican algunos conceptos y propiedades generales, y se dan algunos ejemplos de procesos estoc´ asticos particulares. Este material ser´a usado en la ´ultima parte del curso, y supondremos como elemento base un espacio de probabilidad (Ω, F , P ).
{
astico es una colecci´ Definici´ on. Un proceso estoc´ on de variables aleatorias X t : t T , parametrizada por un conjunto T , llamado espacio parametral.
∈ }
El conjunto T usualmente se interpreta como un conjunto de tiempos. Se dice que el proceso es a tiempo discreto en caso de que el conjunto de par´ametros sea un conjunto discreto, por ejemplo T = 0, 1, 2, . . . . En este caso el proceso consiste de una sucesi´on infinita de variables aleatorias. Se dice en cambio que el proceso es a tiempo continuo cuando el conjunto de par´ametros consiste de un subintervalo de R, por ejemplo, T = [0, ). En general consideraremos procesos estoc´asticos con este espacio parametral. Un proceso estoc´astico es entonces una funci´o n de R, tal que para cada t dos variables X : T Ω T , la funci´on ω X t (ω) es una variable aleatoria, mientras que para cada ω en Ω, la funci´on t X t (ω) es una trayectoria del proceso. Con este modelo se pretende representar la evoluci´on aleatoria de un sistema a lo largo del tiempo.
{
}
∞
× →
∈
81
→ →
82
6.1. Filtraciones y tiempos de paro
6.1.
Filtraciones y tiempos de paro
Una familia de σ-´algebras (F t )t≥0 es una filtraci´ s t, se cumple on si para 0 F s F t F . Al espacio (Ω, F , P, (F t )t≥0 ) se le llama espacio de probabilidad on (F t )t≥0 si para cada filtrado. Se dice que un proceso es adaptado a una filtraci´ t 0, X t es F t -medible. Todo proceso estoc´astico X t determina una filtraci´ on s t . Claramente todo proceso es adaptado natural dada por F t = σ X s : 0 a su filtraci´on natural. En este caso a la σ-´ algebra F t se le interpreta como la “historia” del proceso al tiempo t, pues en ella se encuentran todos los posibles eventos o sucesos que el proceso haya tenido hasta ese momento. Un tiempo de on τ : Ω [0, ] tal que (τ t) F t para cada t 0. Esto es, paro es una funci´ un tiempo de paro es una variable aleatoria no negativa, con posible valor infinito, tal que puede determinarse la ocurrencia o no ocurrencia del evento ( τ t) s´olo con la informaci´ on o historia del proceso hasta el tiempo t. Por ejemplo, y sin entrar en mayores detalles t´ecnicos, el tiempo aleatorio que transcurre hasta la ocurrencia de un cierto evento es un tiempo de paro, este tiempo aleatorio puede ser, por ejemplo, el tiempo que transcurre hasta la llegada de la n-´esima reclamaci´on a una compa˜ n´ıa aseguradora.
⊆
≤ ≤
⊆
≥
{
≤ ≤ }
→ ∞
6.2.
{ }
≤ ∈
≥ ≤
Proceso de Poisson
En esta secci´on recordaremos la definici´on y algunos aspectos elementales de uno de los procesos estoc´asticos de mayor importancia: el proceso de Poisson. Definici´ on. Un proceso estoc´astico de tiempo continuo N t : t 0 , y con espacio de estados el conjunto discreto 0, 1, . . . , es un proceso de Poisson de par´ametro o intensidad λ > 0 si cumple las siguientes propiedades:
{
}
{
≥ }
a) N 0 = 0. b) Tiene incrementos independientes. c) N t+s
− N s tiene distribuci´on Poisson(λt), para cualesquiera s ≥ 0, t > 0.
El proceso de Poisson se utiliza para modelar situaciones de conteo de ocurrencias de un evento particular en un intervalo de tiempo dado. Por ejemplo, N t puede
´sticos Parte 6. Procesos estoca
83
representar el n´umero de llamadas telef´onicas recibidas en un conmutador, o el n´ umero de accidentes ocurridos en un cierto lugar, o el n´umero de clientes que buscan un servicio durante el intervalo de tiempo [0, t], etc. En particular E (N t ) = λt, y Var(N t ) = λt. En nuestro caso, usaremos este proceso para modelar el n´umero de reclamaciones que llegan a una compa˜n´ıa aseguradora hasta el tiempo t. Una posible trayectoria de un proceso de Poisson se muestra en Figura 6.1. N t (ω)
3
2
1
t
Figura 6.1: Uno de los objetos de estudio acerca de este proceso es la variable T k definida como el tiempo que transcurre entre el evento k 1 y el evento k, llamado tambi´en tiempo de interarribo . Puede demostrarse que los tiempos T 1 , T 2 , . . . son variables aleatorias independientes, y cada una de ellas tiene distribuci´on exp(λ). Rec´ıprocamente, a partir de esta colecci´on de v.a.i.i.d. puede construirse el proceso de conteo Poisson N t : t 0 .
−
{
6.3.
≥ }
Martingalas
Las martingalas son un tipo de proceso estoc´astico que aparece con frecuencia tanto en la teor´ıa general de procesos como en las aplicaciones. Existe una extensa teor´ıa matem´atica desarrollada de estos procesos.
84
6.3. Martingalas
{ ≤ ≤
≥ }
Definici´ on. Un proceso M t : t 0 que es adaptado e integrable es una martingala si para 0 s t se cumple E (M t
| F s ) = M s
c.s.
(6.1)
Las martingalas son procesos que estan relacionados con los juegos justos. Por ejemplo, si M t representa la fortuna de un jugador al tiempo t, y quien supondremos apuesta de manera continua, entonces la igualdad anterior se interpreta del siguiente modo: en promedio la fortuna del jugador al tiempo t dada toda la historia del juego hasta el tiempo s anterior a t es la fortuna del jugador al tiempo s, es decir, el juego es justo pues el jugador en promedio no pierde ni gana. Cuando en lugar de (6.1) se cumple E (M t F s ) M s se dice que el proceso es una supermartingala , se trata entonces de un juego desfavorable al jugador pues en promedio su fortuna disminuye. En caso de la desigualdad contraria el proceso es una submartingala , juego favorable al jugador. Cuando se toma esperanza en la ecuaci´ on (6.1) se obtiene E (M t ) = E (M s ). Esto quiere decir que todas las variables aleatorias que conforman una martingala tienen la misma esperanza. En particular, si la variable inicial M 0 es cero o su esperanza es cero, entonces E (M t ) = 0 para cualquier t 0. Algunos ejemplos sencillos de martingalas aparecen en la secci´ on de ejercicios. Finalmente enunciaremos un resultado de la teor´ıa general de martingalas que ser´a usado en la ´ultima parte del curso. Recuerde la notaci´on x y = m´ın x, y .
|
≤
≥
∧
{ }
Proposici´ on. (Teorema de paro de martingalas). Sea M t : t 0 una martingala y sea τ un tiempo de paro. Entonces M t∧τ : t 0 es tambi´en una martingala, es decir, para cualesquiera 0 s t,
{
{ ≤ ≤
E (M t∧τ
| F s ) = M s∧τ
≥ }
≥ }
c.s.
En el siguiente cap´ıtulo usaremos la teor´ıa de martingalas para estimar la probabilidad de ruina en el modelo cl´asico de Cram´er-Lundberg.
´sticos Parte 6. Procesos estoca
85
Proceso de Poisson 68. Suponga que las llegadas de reclamaciones a una compa˜n´ıa aseguradora siguen un proceso de Poisson de intensidad λ = 5, en donde la unidad de tiempo es un d´ıa, es decir, en promedio llegan 5 reclamaciones por d´ıa. Calcule la probabilidad de que a) no se reciba ninguna reclamaci´on en un d´ıa cualquiera. b) se reciban m´as de 10 reclamaciones en un d´ıa cualquiera. c) se reciba una sola reclamaci´on en los siguientes tres dias. 69. Los clientes ingresan a un establecimiento de acuerdo a un proceso de Poisson a raz´on de 10 clientes por hora en promedio. Calcule la probabilidad de que a) en una hora cualquiera no llegue ning´un cliente. b) no llegue ning´un cliente en una jornada de 12 horas. c) se presente exactamente un cliente en todas y cada una de las 12 horas en las que est´a abierto el establecimiento en un d´ıa. 70. (Superposici´ on) Demuestre que la suma de dos procesos de Poisson independientes es nuevamente un proceso de Poisson con par´ametro la suma de los par´ametros. Nota: La operaci´on suma debe entenderse en el sentido de superponer los dos procesos puntuales.
{ }
71. (Thinning) Sea N t un proceso de Poisson de par´ametro λ > 0. Considere una sucesi´on de variables aleatorias Y 1 , Y 2 , . . . independientes, con distribuci´ on com´ un Ber( p), e independientes del proceso de Poisson. Defina el proceso X t : t 0 como aparece abajo, definiendo adem´as a X t como cero cuando N t es cero.
{
≥ }
N t
X t =
Y k ,
k=1
{ }
a) Demuestre que X t es un proceso de Poisson de par´ametro λp. b) Demuestre que los procesos X t y N t X t son independientes.
{ } { − }
72. Suponga que los accidentes automovil´ısticos en una cierta ciudad ocurren de acuerdo a un proceso de Poisson con un promedio de cinco accidentes por semana. Suponga adem´as que la probabilidad de que en cada accidente haya personas lastimadas que requieran atenci´on m´edica es 0.2. Calcule la probabilidad de que a) en un d´ıa no se presente ning´un accidente.
86
6.3. Martingalas
b) en una semana no se presente ning´un accidente. c) en un mes no se presente ning´un accidente con personas lastimadas.
{ }
73. Sea N t un proceso de Poisson con par´ametro λ, y sea a > 0 una constante. Demuestre que N at es un proceso de Poisson con par´ametro λa.
{ }
74. Considere dos procesos de Poisson independientes de par´ametros λ1 y λ2 . Sea X el n´ umero de eventos que ocurren en el primer proceso entre dos eventos sucesivos del segundo proceso. Demuestre que X tiene la siguiente distribuci´ on geom´etrica. λ2 P (X = n) = λ1 + λ2
λ1 λ1 + λ2
n
.
Martingalas
{ }
75. Sea N t un proceso de Poisson de par´ametro o intensidad λ, junto con su filtraci´on natural. Demuestre que el proceso centrado N t λt es una martingala.
{ − }
{ }
76. Demuestre que el proceso M t es una submartingala si y s´olo si una supermartingala.
{−M t} es
77. Demuestre que un proceso es una martingala si y s´olo si es al mismo tiempo una submartingala y una supermartingala.
Parte 7
Teor´ıa de la ruina
Este cap´ıtulo contiene una intro ducci´on breve al modelo cl´ asico de Cram´er-Lundberg, y a algunos aspectos elementales sobre la probabilidad de ruina en tal modelo.
7.1.
Modelo cl´ asico de Cram´ er-Lundberg
El modelo de Cram´er-Lundberg tiene sus or´ıgenes en la tesis doctoral de Filip Lundberg defendida en el a˜no de 1903. En este trabajo Lundberg analiza el reaseguro de riesgos colectivos y presenta el proceso de Poisson compuesto. Lundberg utiliz´ o t´erminos un tanto distintos a los actuales pues en aquellos a˜nos a´ u n no se hab´ıa formalizado la teor´ıa de los procesos estoc´asticos como la entendemos hoy en d´ıa. En 1930 Harald Cram´er retoma las ideas originales de Lundberg, y las pone en el contexto de los procesos estoc´asticos, en ese entonces de reciente creaci´on. El modelo ha sido estudiado en extenso, y varias formas de generalizarlo se han propuesto y analizado.
87
88
´ sico de Cram´ 7.1. Modelo cla er-Lundberg
Ernest Filip Oskar Lundberg (Suecia 1876–1965)
Carl Harald Cram´er (Suecia 1893–1985)
El modelo cl´asico que estudiaremos en este cap´ıtulo es el proceso estoc´astico a tiempo continuo C t : t 0 dado por
{
≥ }
N t
−
C t = u + c t
(7.1)
Y j ,
j=1
en donde u es el capital inicial de la compa˜n´ıa aseguradora, ct es la entrada por primas hasta el tiempo t con c una constante positiva, Y j es el monto de la j´esima reclamaci´o n, y N t es un proceso de Poisson de par´ametro λ. La variable C t representa el balance m´as sencillo de ingresos menos egresos de una compa˜n´ıa aseguradora. Al proceso C t se le llama proceso de riesgo (risk process), o proceso de super´ avit (surplus process), y tiene trayectorias como se muestra en la Figura 7.1.
C t (ω)
E (C t )
u
t
Figura 7.1:
89
Parte 7. Teor´ ıa de la ruina
Estas trayectorias comienzan siempre en u, que es el capital inicial. Los intervalos en donde ellas son continuas y crecientes corresponden a periodos en donde no hay reclamaciones. El crecimiento es de la forma ct. Las discontinuidades son siempre saltos hacia abajo, y aparecen en el momento en que se efect´ua una reclamaci´on, la cual se supone que se paga de manera inmediata. El tama˜no de un salto es el tama˜ no de la reclamaci´on dada por la variable Y . Nuevamente supondremos que los montos Y 1 , Y 2 , . . . son variables aleatorias independientes, no negativas, e id´enticamente distribuidas, con funci´on generadora de momentos M Y (r). Los momentos son µn = E (Y n ), y en particular µ denota el primer momento µ1 . No es dif´ıcil comprobar que E (C t ) = u + (c λµ)t, y que Var(C t ) = λµ2 t. La trayectoria promedio de C t es la linea recta que inicia en u > 0 y tiene pendiente c λµ, la cual es positiva por la condici´ on o hip´otesis de ganancia neta. La variable aleatoria C t se puede interpretar como el capital de la compa˜n´ıa aseguradora al tiempo t y por razones naturales y legales es importante que C t permanezca por arriba de cierto nivel m´ınimo. Supongamos que tal nivel m´ınimo es a, con 0 < a < u. Ajustando el capital inicial u, esto es, suponiendo un nuevo capital inicial de magnitud u a, se puede suponer, sin p´erdida de generalidad, que este nivel m´ınimo es cero, y as´ı lo supondremos en nuestro an´alisis. De esta forma cuando C t < 0 se dice que hay ruina . La ruina casi nunca sucede en la pr´actica, es solamente un t´ermino t´ecnico que produce alguna toma de decisi´on. Por ejemplo, si el capital de una compa˜n´ıa aseguradora asignado a una cartera decrece en forma significativa, autom´aticamente la aseguradora puede tomar ciertas medidas para subsanar esta situaci´on y no se trata de un evento insalvable. Por otro lado es natural suponer que la compa˜n´ıa aseguradora posea varios portafolios de modo que ruina en uno de ellos no significa necesariamente bancarrota que el t´ ermino ruina podr´ıa sugerir.
−
−
−
7.2.
Probabilidad de ruina
Nos interesa calcular o estimar la probabilidad de una eventual ruina en el modelo de Cram´er-Lundberg. Para ello definiremos el tiempo de ruina dado por
{
}
τ = ´ınf t > 0 : C t < 0 ,
∅ ∞
(7.2)
en donde se define ´ınf = . La probabilidad de ruina en el intervalo [0, t] o tambi´en llamada probabilidad de ruina con horizonte finito es ψ(u, t) = P (τ
≤ t | C 0 = u).
90
7.2. Probabilidad de ruina
Mientras que la probabilidad de ruina con horizonte infinito , o simplemente probabilidad de ruina , es ψ(u) = l´ım ψ(u, t) = P (τ < ).
∞
t→∞
Es intuitivamente claro que ψ(u, t) ψ(u), y que ψ(u, t1 ) ψ(u, t2 ), cuando t1 t2 . Presentaremos a continuaci´on tres resultados generales sobre la probabilidad de ruina. A diferencia del primer cap´ıtulo, y para hacer la notaci´on m´as apegada a la literatura existente en el tema, en esta parte final del texto denotaremos por F (x) a la funci´ on de distribuci´on de una reclamaci´on Y cualquiera.
≤
≤
≤
Proposici´ on. Sea Q(u) = 1
− ψ(u). Entonces u λ 1. Q′ (u) = [ Q(u) − Q(u − y) dF (y) ]. c
0
2. ψ(0) =
λµ . c
λ 3. ψ(u) = [ c
∞
u
(1
u
− F (y)) dy +
ψ(u
0
− y)(1 − F (y)) dy ].
alisis del primer paso condicionando sobre el momento Demostraci´ on. Usaremos an´ y monto de la primera reclamaci´on.
∞)” | C 0 = u) P ( “No ruina en [0, ∞)” | T 1 = t, Y 1 = y)dF (y)dF T (t)
Q(u) = P ( “No ruina en [0, ∞
=
∞
0
0
∞
=
u+ct
P ( “No ruina en [0,
0
0
∞
=
1
P ( “No ruina en (t,
0
∞
0
∞)” | T 1 = t, Y 1 = y)dF (y)dF T (t)
u+ct
λe−λt
0
=
1
∞)” | T 1 = t, Y 1 = y)dF (y)dt
u+ct
λe−λt
Q(u + ct
0
− y)dF (y)dt.
Sea s(t) = u + ct. Entonces 1 Q(u) = c
∞
u
−λ(s−u)/c
λe
s
0
Q(s
− y)dF (y)ds.
91
Parte 7. Teor´ ıa de la ruina
Derivando esta expresi´on se encuentra el resultado del primer inciso. Integrando esta ecuaci´on diferencial entre 0 y u se obtiene Q(u)
− Q(0)
= = = = = = =
λ [ c λ [ c
u
λ [ c λ [ c λ c λ c λ c
0
u
Q(x)dx
0
u
Q(x)dx
0
0 u
0
Q(x)(1
− y) dF (y) dx]
Q(x
− y) dxdF (y)]
u
u−y
Q(x) dxdF (y)]
0
u−x
u
Q(x)dx
Q(x
y
0
u
0
0
u
Q(x)dx
0
0
u
0
u
x
− − − −
Q(x) dF (y) dx]
0
− F (u − x)) dx
u
Q(u
− x)(1 − F (x)) dx
(7.3)
∞
Q(u
0
− x)(1 − F (x)) 1[0,u](x) dx.
El siguiente paso es hacer u tender a infinito. En tal caso, Q(u) tiende a uno. Adem´ as el integrando que aparece en el lado derecho es una funci´on mon´otona creciente en u, y cuyo l´ımite es la funci´on integrable (1 F (x)). Entonces por el teorema de convergencia mon´otona se obtiene
−
1
−
λ Q(0) = c
∞
0
Por lo tanto ψ(0) = 1
(1
− F (x)) dx = λµc .
− Q(0) = λµc .
(7.4)
De esta forma se obtiene el segundo resultado. Finalmente de (7.3) y (7.4) se sigue que ψ(u) = =
u λ [µ (1 ψ(u x))(1 F (x)) dx ] c 0 ∞ u λ [ (1 F (x))dx + ψ(u x)(1 F (x)) dx ]. c u 0
− − −
−
−
−
−
92
7.2. Probabilidad de ruina
Observe que la u ´ ltima expresi´on corresponde a una ecuaci´on recursiva para encontrar la probabilidad de ruina. En general no es f´acil resolver este tipo de ecuaciones, de modo que nos limitaremos s´olo a encontrar algunas estimaciones de estas probabilidades. Sin embargo, cuando las reclamaciones tienen distribuci´on exponencial el sistema es soluble como se muestra a continuaci´on. La condici´ o n de ganancia neta. Sean T 0 , T 1 , T 2 , . . . los tiempos aleatorios (tiempos de paro) en donde la aseguradora recibe las reclamaciones. Supondremos T 0 = 0. Para cada entero k 1 defina la variable aleatoria X k = c (T k T k−1 ) Y k , que pueden ser interpretadas como el balance de la compa˜n´ıa aseguradora entre dos siniestros sucesivos. La esperanza de esta variable es
≥
−
E (X k ) = c E (T k
−
− T k−1) − E (Y k ) = c (1/λ) − µ. ≤
Se puede demostrar que la ruina ocurre casi seguramente si, y s´olo si, E (X k ) 0. Como deseamos que esta situaci´on no ocurra supondremos que E (X k ) > 0, es decir, tenemos la hip´ otesis: Condici´ on de ganancia neta:
c > λµ.
Esta condici´on ya la hab´ıamos mencionado antes, y ahora la interpretamos de la siguiente forma: en promedio, la entrada por primas por unidad de tiempo, c, es mayor que el total de reclamaciones por unidad de tiempo, λµ. Ejemplo. Encontraremos la probabilidad de ruina cuando las reclamaciones son exponenciales. Este es uno de los pocos modelos para los cuales tal probabilidad puede encontrarse de manera expl´ıcita. Considere entonces el modelo de Cram´erLundberg en donde las reclamaciones tienen distribuci´on exp(α). La esperanza es µ = 1/α. Por lo anteriormente encontrado, la probabilidad de no ruina Q(y) = 1 ψ(y) cumple la ecuaci´on
−
λ Q (u) = [ Q(u) c ′
−αu
−e
u
Q(y) αeαy dy ].
0
Derivando esta expresi´on se obtiene Q′′ (u) = (
λ c
− α) Q′ (u),
cuya soluci´on es Q(u) = a + be−(α−λ/c)u , en donde a y b son constantes. Usando las condiciones ψ(0) = λ/(αc) y ψ( ) = 0 se encuentra que a = 1 y b = λ/(αc).
∞
−
93
Parte 7. Teor´ ıa de la ruina
Por lo tanto
λ −(α−λ/c)u e . αc cuya gr´afica se encuentra en la Figura 7.2. Observe que debido a la condici´on de ganancia neta, el exponente (α λ/c) es negativo, y por lo tanto la probabilidad de ruina decae a cero exponencialmente cuando el capital inicial u crece a infinito. ψ(u) =
− − ψ(u)
λ αc
u Figura 7.2:
◦ El coeficiente de ajuste. Este es un n´ umero que aparece en el problema de calcular o estimar probabilidades de ruina. Hay varias maneras de definirlo, una de ellas, un tanto artificial p ero que despu´es justificaremos, es la siguiente. Se define primero la funci´ on θ(r) = λ(M Y (r) 1) cr,
− −
en donde M Y (r) es la funci´on generadora de Y . Naturalmente esta funci´on esta bien definida para valores de r en donde M Y (r) existe. Entonces, suponiendo dife′ ′′ renciabilidad, se tiene que θ ′ (r)= λM Y (r) c, y θ′′ (r)= λM Y (r)= λE (Y 2 erY ) > 0. Por lo tanto, θ(r) es una funci´on estrictamente convexa tal que θ(0) = 0, y por la condici´ on de ganancia neta, θ ′ (0) = λµ c < 0. Entonces es posible que exista un valor R > 0 tal que θ(R) = 0. Una gr´afica de la funci´on θ(r), presentando esta situaci´ on, se muestra en la Figura 7.3.
− −
94
7.2. Probabilidad de ruina
θ(r)
r
R
Figura 7.3:
Definici´ on. A la posible soluci´on R > 0 de la siguiente ecuaci´o n se le llama coeficiente de ajuste , o exponente de Lundberg . θ(R) = λ(M Y (R)
− 1) − cR = 0.
Observe que la existencia del coeficiente de ajuste depende enteramente de la distribuci´ on de las reclamaciones. Aquellas distribuciones para las cuales el coeficiente de ajuste existe se les llama distribuciones con colas ligeras, y la raz´o n de ello es que la funci´on de densidad decae a cero exponencialmente r´apido, asignando probabilidades peque˜ nas a reclamaciones grandes. Por ejemplo, demostraremos a continuaci´ on que en el caso de reclamaciones exponenciales, el coeficiente de ajuste existe y es f´acil calcularlo. Ejemplo: Reclamaciones con distribuci´on exponencial. Suponga que las reclamaciones siguen una distribuci´on exp(α), es decir, la funci´on generadora de momentos es M Y (r) = α/(α r), para r < α. Entonces
−
θ(r)
− − − − − − − − −
= λ (M Y (r) 1) cr α = λ( 1) cr α r r = λ( ) cr α r λ = ( c) r. α r
De modo que θ(r) es cero cuando r = 0, o bien cuando λ/(α r) c = 0. Despejando r de la segunda condici´on y escribiendo ahora R como la variable se obtiene R =
− −
95
Parte 7. Teor´ ıa de la ruina
α λ/c. M´as a´ un, por lo encontrado antes en el caso de reclamaciones exponenciales, la probabilidad de ruina puede ahora escribirse de la forma siguiente
−
ψ(u) =
λ −(α−λ/c)u λ −Ru e = e < e −Ru , αc αc
en donde la desigualdad es consecuencia de la condici´on de ganancia neta. Este tipo de cota superior para la probabilidad de ruina (llamada desigualdad de Lundberg) ser´a demostrada m´as adelante para cualquier distribuci´on de las reclamaciones para la cual el coeficiente de ajuste exista.
◦
Ejemplo: Reclamaciones con distribuci´on gamma(γ, α) con γ = 2. Suponga que las reclamaciones siguen una distribuci´ on gamma(γ, α) con γ = 2. La funci´ on γ generadora de momentos es M Y (r) = (α/(α r)) , para r < α. Por lo tanto la funci´ on θ(r) correspondiente es
−
θ(r) = λ
γ
− − α
α
−r
1
cr.
La condici´on θ(r) = 0 produce la ecuaci´on cuadr´atica cr2 + r(λ cuyas ra´ıces son r=
− 2αc) + (cα2 − 2αλ) = 0, √ 2αc − λ ± λ2 + 4αcλ
. 2c El caso con ra´ız cuadrada positiva es inv´alido pues resulta r > α, en efecto, usando la condici´ on de ganancia neta, c > λ(2/α), se obtiene (2αc
−λ+
λ2 + 4αcλ)/2c
≥
−
(2αc λ + = α + λ/c > α.
λ2 + 8λ2 )/2c
Por lo tanto la ra´ız con el signo negativo es el coeficiente de ajuste.
◦
Ejemplo: M´etodo de Newton-Raphson. Recordaremos a continuaci´ on el m´etodo de Newton-Raphson y lo aplicaremos al problema de encontrar de manera aproximada el coeficiente de ajuste en un caso particular. Sea g(x) una funci´on diferenciable que tiene una ra´ız cerca de x = x0 . V´ease la Figura 7.4.
96
7.2. Probabilidad de ruina
g(x)
x1 x0
x
Figura 7.4: La f´ ormula punto-pendiente de la recta tangente que pasa por ( x0 , g(x0 )) es y
− g(x0) = g′(x0)(x − x0 ).
Esta l´ınea recta cruza el eje horizontal cuando el valor de x es igual a x1 = x0
− g(x0)/g(x1 ).
Repitiendo este an´alisis se encuentra una sucesi´on de puntos x0 , x1 , x2 , . . ., que bajo ciertas condiciones converge a la ra´ız de la funci´on g(x). Aplicaremos este procedimiento al problema de encontrar el coeficiente de ajuste cuando las reclamaciones siguen una distribuci´on gamma(γ, α) con γ = 3. La condici´on θ(r) = 0 produce la siguiente ecuaci´on que puede reducirse a una ecuaci´on c´ ubica en r, g(r) = λ(α3
− (α − r)3 ) − cr(α − r)3 = 0.
La ra´ız buscada r es tal que por restricciones de la funci´on generadora de momentos debe satisfacer 0 < r < α. Tomaremos α = 3, λ = 1, y c = 2. Se han escogido estos valores de los par´ametros por simplicidad pero al mismo tiempo cuidando que se verifique la condici´on de ganancia neta: c > λ(3/α). El esquema general de Newton-Raphson es entonces rn+1 = rn
− g(rn )/g′(rn).
M´ as adelante demostraremos que si el coeficiente de ajuste existe, entonces ´este se encuentra siempre dentro del intervalo (0, 2(c λµ)/(λµ2 )). Usando este resultado tomaremos como condici´on inicial r0 = 2(c λµ)/(λµ2 ) = 3/2. Usando estos datos,
−
−
Parte 7. Teor´ ıa de la ruina
97
la iteraci´on de Newton-Raphson arroja los siguientes valores: r0 r1 r2 r3 r4
= = = = =
1.5 0.8¯3 0.8405056 0.8404738 0.8404738
El coeficiente de ajuste es entonces R = 0.8404738 .
◦
El siguiente resultado proporciona una forma equivalente de definir el coeficiente de ajuste, permite adem´as comprobar su existencia a trav´ es de la determinaci´on de la finitud de una integral, y posibilita dar una interpretaci´on de aquellas distribuciones de probabilidad para las cuales el coeficiente de ajuste existe. Proposici´ on. La ecuaci´on θ(r) = λ(M Y (r) 1) soluci´on r > 0 si, y s´olo si, se cumple la identidad
− − cr = 0 tiene una posible
∞
¯ erx F (x) dx =
0
¯ en donde F (x) = 1 reclamaciones.
c , λ
− F (x), siendo F (x) la funci´on de distribuci´o n de las
Demostraci´ on. Usando integraci´ on por partes se tiene que ∞
e
rx
∞
−
¯ ¯ dF (x) = erx F (x)
0
∞ 0
¯ rerx F (x) dx.
0
Por la hip´otesis de existencia de la funci´on generadora de momentos de la distribuci´ on F (x), la evaluaci´on del primer t´ermino del lado derecho en el valor infinito se anula, y la evaluaci´on en cero es uno. Por lo tanto, usando el hecho de que ¯ dF (x) = dF (x), se obtiene la expresi´on
−
∞
0
e
rx
∞
dF (x) = 1 + r
0
¯ erx F (x) dx.
98
7.2. Probabilidad de ruina
Tenemos entonces que 0 = θ(r) = λ(M Y (r) ∞
= λ(
0
= λr
− 1) − cr erx dF (x) − 1) − cr
∞
¯ erx F (x) dx
0
− cr.
Despejando la integral se obtiene el resultado enunciado. Definici´ on. A una distribuci´on de probabilidad para la cual existe el coeficiente de ajuste se les llama “distribuci´on con cola ligera”. Cuando no existe tal coeficiente la distribuci´on adquiere el nombre de “distribuci´on con cola pesada”.
Ejemplo. Usaremos el criterio de la proposici´ on anterior para demostrar que para la distribuci´on Burr no existe el coeficiente de ajuste. En este caso tenemos que ¯ F (x) = (1 + xc )−k .
Entonces para cualquier valor de r > 0, ∞
0
¯ e F (x) dx = rx
∞
rx
c −k
e (1 + x )
0
∞
dx
≈
erx x−ck dx =
0
Por lo tanto la distribuci´on Burr es una distribuci´on con cola pesada.
∞. ◦
Seg´ un el criterio reci´en demostrado, para que exista el coeficiente de a juste, la cola ¯ de la distribuci´on, F (x), debe decaer a cero lo suficientemente r´apido para anular el comportamiento creciente del t´ermino erx dentro de la integral. En el ejemplo anterior, la cola de distribuci´on Burr decae a cero en la forma x−ck que es insuficiente para hacer que la integral sea finita. Una distribuci´on con cola ligera asigna probabilidades muy peque˜ nas a los valores grandes de la variable aleatoria. Esto puede no ser muy conveniente para modelar algunos riesgos pues de esa manera se est´ a subestimando la posibilidad de registrar grandes montos en las reclamaciones.
Ejemplo. Distribuciones con cola ligera:
Parte 7. Teor´ ıa de la ruina
99
¯ 1. exp(α), F (x) = e−αx. 2. gamma(γ, α). r ¯ 3. Weibull(r, α), F (x) = e−(αx) , para r
4. Normal truncada, f (x) =
2/π e−x
2
≥ 1.
/2
.
◦
Ejemplo. Distribuciones con cola pesada: 1. lognormal(µ, σ 2 ). 2. Pareto(a, b). ¯ 3. Burr, F (x) = (k/(k + xr ))α . r ¯ 4. Weibull(r, α), F (x) = e−(αx) , para 0 < r < 1.
5. loggamma(γ, α).
◦ Desigualdad de Lundberg. Vamos a demostrar ahora que para aquellas distribuiones para las cuales el coeficiente de ajuste R existe se cumple la desigualdad Ψ(u) < e−Ru . Para demostrar este resultado haremos uso de la teor´ıa de martingalas.
{ } {
Proposici´ on. Sea C t el proceso de riesgo, y sea θ(r) = λ(M Y (r) Entonces el proceso e−rC t−θ(r)t : t 0 es una martingala.
≥ }
− 1) − cr.
Demostraci´ on. La adaptabilidad del proceso es evidente pues impl´ıcitamente esta-
mos usando la filtraci´on natural. Acerca de la integrabilidad tenemos los siguientes
100
7.2. Probabilidad de ruina
c´ alculos E (e−rC t −θ(r)t ) =
Nt
e−θ(r)tE (e−r(u+ct−
j=1
Y j )
Nt
)
= e−θ(r)t−r(u+ct)E (er j=1 Y j ) = e−θ(r)t−r(u+ct)M St (r) = e−θ(r)t−r(u+ct)eλt(M Y (r)−1) <
∞.
Finalmente tenemos la propiedad de martingala. Para 0 E (e−rC t−θ(r)t
| F s)
≤ s < t,
e−θ(r)tE (e−rC t F s ) = e−θ(r)tE (e−r(C t −C s )−rC s F s ) = e−θ(r)t−rC s E (e−r(C t−C s ) )
=
|
|
Nt
= e−θ(r)t−rC s E (e−r(c(t−s)−
j=Ns +1
Y j )
)
Nt−s
= e−θ(r)t−rC s−rc(t−s) E (er j=1 Y j ) = e−θ(r)t−rC s−rc(t−s) eλ(t−s)(M Y (r)−1) = e−rC s−θ(r)s .
En particular, si el coeficiente de ajuste existe, es decir, si θ(R) = 0, entonces el proceso e−RC t es una martingala. Este es el resultado clave para demostrar la siguiente cota superior para la probabilidad de ruina.
{
}
Teorema. (Desigualdad de Lundberg). Suponga que el coeficiente de ajuste R existe. Entonces ψ(u) < e −Ru.
Demostraci´ on. Sea τ el tiempo de paro correspondiente al primer tiempo de ruina.
Como el proceso e−RC t
{
} es una martingala, se tiene que el proceso {e−RC } t∧τ
101
Parte 7. Teor´ ıa de la ruina
tambi´en es una martingala que inicia en e−Ru. Por lo tanto e−Ru
= e−RC 0 = E (e−RC t τ ) = E (e−RC t τ τ t) P (τ t) +E (e−RC t τ τ > t) P (τ > t) E (e−RC t τ τ t) P (τ t) = E (e−RC τ τ t) P (τ t) ∧
| ≤ | | ≤ | ≤
≤
∧
∧
≥
= Haciendo t evento (τ <
∧
−RC τ
e
≤ ≤
1(τ ≤t) dP P (τ
≤ t).
→ ∞ mon´otonamente, el evento (τ ≤ t) converge crecientemente al ∞). Por el teorema de convergencia mon´otona se obtiene entonces que e−Ru ≥ E (e−RC | τ < ∞) P (τ < ∞) > E ( 1 | τ < ∞) P (τ < ∞) = P (τ < ∞) τ
= ψ(u).
Ejercicio. Demuestre que efectivamente el evento (τ t) converge mon´otonamente al evento (τ < ) cuando t tiende a infinito mon´otonamente.
≤
∞
e−Ru 1
u Figura 7.5: Cota superior para la probabilidad de ruina.
102
7.2. Probabil Probabilidad idad de ruina ruina
Como hemos visto, el coeficiente de ajuste no siempre existe, y a´un cuando conozcamos su existencia no siempre es f´acil acil calcularlo. El siguiente resultado proporciona algunas cotas para el valor de este coeficiente, suponiendo su existencia. Proposici´ on. on. Si el coeficiente de ajuste R existe, entonces
−
1 c 2(c 2(c λµ) λµ) ln( ) < R < , M λµ λµ2 en donde la primera desigualdad es v´alida alida bajo la hip´otesis otesis adicional de que Y M c.s., para alguna constante constante M > 0.
≤
Demostraci´ on. Demostraremos primero la cota superior. Considere nuevamente la
− −
funci´ on on θ(r) = λ(M Y 1) cr, cr, para r Y (r) esta funci´on on dos veces se obtiene
≥ 0. Sabemos que θ(0) = 0. Derivando
′ θ′ (r) = λM Y (r) c, ′′ θ (r) = λE (Y 2 erY ) > λE ( λE (Y 2 ) = λµ2 .
−
En donde θ ′ (0) = λµ
− c. Por el teorema fundamental del c´alculo, alculo,
′
r
′
θ (r) = θ (0) +
θ ′′ (s)ds > (λµ
0
− c) + λµ2r.
Por lo tanto, t
θ(r) = θ(0) +
0
θ′ (s)ds > (λµ
− c)r + λµ2 12 r2 .
Evaluando la ultima u ´ ltima desigualdad en R se obtiene obtiene 0 > (λµ
− c)R + λµ2 12 R2 = [ (λµ − c) + λµ2 12 R ] R.
Como R > 0, se tiene que (λµ ( λµ superior anunciada.
− c) + λµ2 12 R < 0. Despejando Despejando R se obtiene la cota
≤ M c.s. y defina la funci´on on x RM (e − 1) − (eRx − 1). 1). h(x) = M
Demostraremos ahora la cota inferior. Suponga que Y
103
Parte arte 7. Teor Teor´ ıa de la ruina
Entonces h′′ (x) = R2 eRx < 0. Por lo tanto h es c´oncava oncava con h(0) = h(M ) = 0. Esto quiere decir que h(x) > 0 para 0 < x < M , M , es decir,
−
x RM (e M o bien
(eRx
− 1) − (eRx − 1) > 0,
x RM − 1) ≤ M − 1). (e 1).
(7.5)
Sea g (x) = xex ex + 1. Entonces g ′ (x) = xex > 0. Por lo tanto g (x) es creciente para x > 0, es decir, g (x) > g (0) = 0, para x > 0. Es decir, xex ex + 1 > 0, para x > 0. En particular, evaluando en x = RM se obtiene RM eRM eRM + 1 > 0. Por lo tanto eRM 1 < e RM . (7.6) RM Por otro lado, usando (7.5),
−
−
−
−
M
M Y Y (R)
−1
=
(eRx
0
M
≤ = =
0
− 1) dF ( dF (x)
x RM (e M
1 RM (e M µ RM (e M
− 1) dF ( dF (x) M
− 1) 0 − 1). 1).
x dF ( dF (x) (7.7)
Por lo tanto, usando (7.7) y luego (7.6), 0 = λ(M Y 1) cR Y (R) λµ RM (e 1) cR M < λµReRM cR = (λµeRM c)R.
− − − − − −
≤
Por lo tanto λµeRM
− c > 0. Despejando R se obtiene la cota inferior buscada. buscada.
Es interesante notar que la cota superior encontrada no involucra hip´otesis adicionales, de modo que cuando el coeficiente de ajuste R existe, ´este este se encuentra siempre dentro del intervalo (0, (0 , 2(c 2(c λµ) λµ)/λµ2 ). Observe adem´as as que cuando las reclamaciones est´an an acotadas superiormente por una constante positiva M , M , puede
−
104
7.3. Ejercicio Ejercicios s
encontrarse una cota superior para la probabilidad de ruina sin conocer necesariamente el coeficiente de ajuste pues u
ψ (u) < e −Ru < e − M
7.3. 7.3.
ln(c/λµ ln(c/λµ))
u/M
ln(λµ/c)) = eln(λµ/c
= (λµ/c) λµ/c)u/M .
Ejer Ejerci cici cios os
Modelo Mod elo de Cram´ er-Lundberg er-Lund berg
{ }
78. Considere el proceso de Cram´er-Lundberg er-Lundberg C t con la notaci´on on e hip´otesis otesis usuales. Demuestre que a) E (C t ) = u + (c (c
− λµ) λµ)t.
b) Var(C Var(C t ) = λµ2 t.
c) M C ct) C t (r) = exp[ r(u + ct)
− λt( λt(M Y Y (r ) − 1)].
Probabilidades de ruina 79. Suponga que las l as reclamaciones en el modelo de Cram´er-Lundberg er-Lundberg siguen una distribuci´ on on exponencial de par´ametro ametro α = 1. Suponga adem´as as que λ = 1/2 y c = 2. Observe que se cumple la condici´on on de ganancia neta c > λµ. λµ. ¿Cu´al al debe ser el capital inicial u para que la probabilidad de ruina sea menor o igual a 0.01? Coeficiente de ajuste 80. Demuestr Demuestree que si las reclamacione reclamacioness son variables variables aleatorias aleatorias acotadas, acotadas, entonces entonces el coeficiente de ajuste existe. 81. Se ha demostrado que cuando las reclamaciones reclamaciones tienen distribuci´on on exp(α exp(α) el coeficiente de ajuste es R = α λ/c. λ/c. Usando la condici´on on de ganancia neta compruebe que este valor de R efectivamente cumple la desigualdad
−
0
−
2(c 2(c λµ) λµ) . λµ2
Ap´ endice A
F´ ormula de De Pril en R #################################### # F\’ormula de De Pril en R v1.1 # #################################### I <- 5 # Montos de reclamaciones J <- 3 # \’Indice m\’aximo para tasas de muerte R <- 20 # Valor m\’aximo para r en g(r) # n <- array(1:15, dim=c(5,3)) n[1,1]<-1 n[2,1]<-3 n[3,1]<-5 n[4,1]<-2 n[5,1]<-2 n[1,2]<-3 n[2,2]<-5 n[3,2]<-3 n[4,2]<-2 n[5,2]<-3 n[1,3]<-1 n[2,3]<-4 n[3,3]<-4 n[4,3]<-6 n[5,3]<-4
105
106 # q <- array(1:3, dim=c(3)) q[1]<-0.03 q[2]<-0.04 q[3]<-0.05 #............................... # Funci\’on h(i,k) #............................... h <- function(i,k) { aux <- 0 for (j in 1:J) { aux <- aux+n[i,j]*(q[j]/(1-q[j]))^k } aux <- i*((-1)^(k-1))*aux return(aux) } #............................... # C\’alculo de la densidad de S #............................... gc <- array(1:R, dim=c(R)) gc0 <- g(0) # g <- function(r) { if (r==0) { aux <- 1 for (i in 1:I) { for (j in 1:J) { aux <- aux*((1-q[j])^n[i,j]) } } return(aux) } else { aux <- 0 for (i in 1:min(r,I)) { for (k in 1:floor(r/i)) { if (r-i*k==0) { aux <- aux + gc0*h(i,k) } else {aux <- aux + gc[r-i*k]*h(i,k)} } } aux <- aux/r gc[r] <- aux
Ap´ e ndice A. Ap´ endice
return(aux) } } #............................... # Asignaci\’on en el arreglo "gc" y graficaci\’on. #............................... for (i in 1:R) { gc[i] <- g(i) } # Nota: Se omite en la gr\’afica el valor de la densidad en cero "gc0". barplot(gc,main="Funci?n de densidad de S",xlab="r", ylab="g(r)") ################################################################# # Fin de c\’odigo #################################################################
107
108
F´ ormula de Panjer en R (Caso Poisson) #################################### # F\’ormula de Panjer en R v1.0 # # [Caso Poisson] # #################################### # R <- 20 # Valor m\’aximo para r en g(r) # #............................... # c\’alculo de p_k=P(N=k) (Caso Poisson) #............................... a <- 0 b <- 3.5 #lambda p0 <- 2.7172^{-b} p <- array(1:R, dim=c(R)) p[1] <- (a+b)*p0 for (k in 2:R) { p[k] <- (a+b/k)*p[k-1] } #............................... # c\’alculo de f_r=P(Y=r), r>=1 #............................... # f <- array(1:R, dim=c(R)) f[1] <- 0.1 f[2] <- 0.1 f[3] <- 0.2 f[4] <- 0.3 f[5] <- 0.3 for (i in 5:R) { f[i] <- 0 } #................................ # C\’alculo de la densidad de S #................................ g0 <- p0 g <- array(1:R, dim=c(R)) g[1] <- (a+b)*f[1]*g0 for (r in 2: R) { aux <- 0 for (i in 1:{r-1}) {
Ap´ e ndice A. Ap´ endice
aux <- aux + (a+b*i/r)*f[i]*g[r-i] } aux <- aux + (a+b)*f[r]*g0 g[r] <- aux } #............................... # Graficaci\’on #............................... # Nota: Se omite en la gr\’afica el valor de la densidad en cero "g0". barplot(g,main="Funcin de densidad de S",xlab="r", ylab="g(r)") # ################################################################# # Fin de c\’odigo #################################################################
109
110
Conceptos y resultados varios Alfabeto griego. Aα Bβ Γ γ ∆δ E ǫ, ε Z ζ H η Θ θ, ϑ
alpha beta gamma delta epsilon zeta eta theta
Iι Kκ Λλ M µ N ν Ξξ Oo Ππ
iota kappa lambda mu nu xi omikron pi
P ρ, ̺ Σ σ, ς T τ Υυ Φ φ, ϕ X χ Ψψ Ωω
rho sigma tau upsilon phi chi psi omega
Funci´ on indicadora. La funci´ on indicadora de un conjunto A 1A : Ω 0, 1 dada por
→{ }
1A (ω) =
⊆ Ω es la funci´on
1 si ω A, 0 si ω / A.
∈ ∈
De este modo la funci´on 1A toma el valor uno dentro del conjunto A y cero fuera de ´el, y cumple las siguientes propiedades. a) 1A∪B = m´ax 1A , 1B = 1 A + 1B
{ } − 1 A 1B . b) 1A∩B = m´ın{1A , 1B } = 1A 1B . c) 1A = 1 − 1A . d) 1A−B = 1A − 1A 1B . e) 1A△B = |1A − 1B | = 1 A + 1B − 2 1A 1B = (1A − 1B )2 . f) A ⊆ B ⇒ 1A ≤ 1B . c
Coeficiente de asimetr´ıa de Fisher. Para una variable aleatoria X con tercer momento finito se define el coeficiente de asimetr´ıa de Fisher α3 como el n´umero α3 =
E [(X E (X ))3 ] . [Var(X )]3/2
−
111
Ap´ e ndice A. Ap´ endice
Esta cantidad es una medida de la asimetr´ıa de la distribuci´ on alrededor de su media. Cuando α3 = 0 la distribuci´on es completamente sim´etrica alrededor de su media, como es el caso, por ejemplo, de la distribuci´on normal. Cuando α3 > 0 se dice que la distribuci´on es asim´etrica positiva o que tiene mayor sesgo hacia la derecha (es decir, la cola a la derecha de la media es m´as larga que la de la izquierda, o bien que hay valores m´as separados de la media a la derecha). Cuando α3 < 0, se dice que la distribuci´on es asim´etrica negativa o que tiene mayor sesgo a la izquierda (es decir, la cola a la izquierda de la media es m´as larga que la de la derecha, o bien que hay valores m´as separados de la media a la izquierda). α3 > 0
α3 = 0
µ
α3 < 0
µ
µ
Desigualdad de Jensen. Sea u una funci´on convexa y sea X una variable aleatoria tal que tanto X como u(X ) tienen esperanza finita. Entonces u(E (X ))
≤ E (u(X )).
Esperanza condicional. Sean (Ω, F , P ) un espacio de probabilidad, X una variable aleatoria con esperanza finita y G una sub-σ-´algebra de F . La esperanza condicional de X dado G es una variable aleatoria denotada por E (X G ) que cumple las siguientes tres propiedades:
|
1. Es
G -medible.
2. Tiene esperanza finita. 3. Para cualquier evento G en
G ,
E [ E ( X
| G ) 1G ] = E [ X 1G ].
Puede demostrarse que esta variable aleatoria existe y es ´unica casi seguramente, esto significa que si existe otra variable aleatoria con las tres propiedades anteriores, entonces con probabilidad uno coincide con E (X G ). Cuando G = σ(Y ) para alguna variable aleatoria Y , se escribe E (X Y ) en lugar de E (X σ(Y )). En particular, el t´ermino P (A Y ) significa E (1A Y ). Se enuncian a continuaci´on algunas propiedades de esta esperanza.
|
|
|
|
|
112 a) E (X
| {∅, Ω} ) = E (X ). b) E (1A |{∅, Ω} ) = P (A). c) E (1A |{∅, B , B c , Ω} ) = P (A|B)1B + P (A|B c )1B . d) E (E (X | G )) = E (X ). En particular, E (P (A | Y )) = E (1A ) = P (A). e) Si X es G -medible, entonces E (X | G ) = X . En particular, si c es una constante, entonces E (c | G ) = c. f) E (aX + Y | G ) = aE (X | G ) + E (Y | G ). g) Si X ≥ 0, entonces E (X | G ) ≥ 0. c
h) Teorema de convergencia mon´ otona . Si 0 X n X , entonces E (X n G )
≤
ր
| ր E (X | G ) c.s.
i) Teorema de convergencia dominada . Si X n Y , E Y < y X n X c.s., entonces E (X n
| |≤
| | ∞
→
| G ) → E (X | G ) c.s.
j) Desigualdad de Jensen . Si ϕ es convexa, entonces ϕ(E (X
| G )) ≤ E (ϕ(X ) | G ). k) Si H es una sub σ-´algebra de G , entonces E (E (X | G ) | H ) = E (X | H ). l) Si Z es G -medible y acotada, entonces E (Z X | G ) = Z E (X | G ). m) Si X es independiente de G , entonces E (X | G ) = E (X ). Un estudio m´as detallado de la esperanza condicional puede ser encontrado en libros dedicados a probabilidad como [10] o [18]. Integral de Riemann-Stieltjes. Esta es una integral que generaliza la integral usual de Riemann y se trata de la integral de una funci´on h(x) respecto de otra funci´ on F (x). Su definici´on es an´aloga al caso de la integral de Riemann: si a = x0 < x1 < < xn = b es una partici´on del intervalo [a, b], entonces definimos de manera informal
·· ·
n
b
a
h(x) dF (x) := l´ım
∆x→0
h(xi )(F (xi )
i=1
− F (xi−1 )),
en donde ∆x es el m´aximo de las distancias xi xi−1 , y las funciones h(x) y F (x) deben cumplir ciertas condiciones para que la integral tenga sentido y est´ e bien
−
113
Ap´ e ndice A. Ap´ endice
definida. En particular, a la funci´on integradora F (x) se le pide que sea continua por la derecha, mon´otona no decreciente y tal que F ( ) F ( ) < M , para alg´ un n´ umero M > 0. Observe que F (x) debe cumplir propiedades semejantes a las de una funci´on de distribuci´on, justamente usaremos a las funciones de distribuci´on como funciones integradoras. En particular, cuando F (x) = x sobre el intervalo [a, b] se tiene que
∞ − −∞
b
b
h(x) dF (x) =
a
h(x) dx,
a
suponiendo la existencia de tal integral. Igualmente, bajo la hip´otesis de existencia de todas las integrales que aparecen a continuaci´on, la integral de Riemann-Stieltjes cumple las siguientes propiedades: a) Es lineal en el integrando, es decir, b
b
(αh1 (x) + h2 (x)) dF (x) = α
a
b
h1 (x) dF (x) +
a
h2 (x) dF (x).
a
b) Es tambi´en lineal en el integrador, es decir, b
b
h(x) d(αF 1 (x) + F 2 (x)) = α
a
b
h(x) dF 1 (x) +
a
h(x) dF 2 (x).
a
c) Cuando h(x) tiene primera derivada continua se cumple la siguiente f´ormula de integraci´on por partes: b
b
h(x) dF (x) = h(b)F (b)
a
− h(a)F (a)
−
F (x)h′ (x) dx.
a
d) De especial inter´ es en la teor´ıa de la probabilidad es el caso cuando F (x) es diferenciable. Bajo tal hip´otesis se tiene la igualdad b
b
h(x) dF (x) =
a
h(x)F ′ (x) dx.
a
En particular, tomando h(x) = x y si X es una v.a. absolutamente continua con esperanza finita, con funci´on de distribuci´ on F (x) y funci´on de densidad f (x), entonces ∞
E (X ) =
−∞
∞
x dF (x) =
−∞
xf (x) dx.
114 e) Otro caso interesante para la teor´ıa de la probabilidad ocurre cuando h(x) es continua y F (x) es constante excepto en los puntos x0 , x1 , . . ., en donde la funci´ on tiene saltos positivos de tama˜ no p(x0 ), p(x1 ), . . . respectivamente. En este caso y suponiendo convergencia, ∞
b
h(x) dF (x) =
a
h(xi ) p(xi ).
i=0
Esto significa que integrar respecto de la funci´on de distribuci´on de una variable aleatoria discreta se reduce a efectuar una suma. Nuevamente tomando h(x) = x y si X es una v.a. discreta con esperanza finita y con funci´on de distribuci´ on como se mencion´o antes, entonces ∞
∞
E (X ) =
x dF (x) =
−∞
xi p(xi ).
i=0
En el caso cuando X es una v.a. mixta con esperanza finita, en el c´alculo de la esperanza se separa la parte continua de la parte discreta de la siguiente forma ∞ ∞
E (X ) =
∞
x dF (x) =
−∞
xf (x) dx +
−∞
xi p(xi ).
i=0
Un tratamiento m´as riguroso y completo de la integral de Riemann-Stieltjes puede encontrarse en el texto de probabilidad de Harris [9], o en tratados de an´alisis matem´atico como el de Apostol [1]. Variables aleatorias mixtas. Una variable aleatoria mixta X es aquella que no es ni continua ni es discreta. Su funci´on de distribuci´on puede escribirse de la siguiente forma x
F (x) =
f (u) du +
−∞
p(xi ),
xi ≤x
en donde f (u) es una funci´on no negativa y p(xi ) = P (X = xi ) > 0 para ciertos valores x0 , x1 , . . . Si g es una funci´on tal que g(X ) es una variable aleatoria integrable, entonces su esperanza se calcula de la siguiente forma ∞
E (g(X )) =
−∞
∞
∞
g(x) dF (x) =
−∞
g(x)f (x) dx +
i=0
g(xi ) p(xi ).
115
Ap´ e ndice A. Ap´ endice
Varianza condicional. Sea X una variable aleatoria con segundo momento finito, y sea G una sub-σ-´algebra de F . La varianza condicional de X dado G se define como la variable aleatoria dada por Var(X G ) = E [ (X
|
− E (X |G ))2 | G ].
Nuevamente, cuando la sub-σ-´ algebra G es σ(Y ) para alguna variable aleatoria Y , entonces Var(X G ) se escribe Var(X Y ), y puede tomarse como definici´o n la igualdad Var(X Y ) = E [ (X E (X Y ))2 Y ].
|
|
|
−
|
|
Se enuncian a continuaci´on algunas propiedades de esta variable aleatoria. a) Var(X
|{∅, Ω}) = Var(X ). b) Var(1A | {∅, Ω}) = P (A)(1 − P (A)). c) Var(X | G ) = E (X 2 | G ) − E 2 (X | G ). d) Var(X ) = E [Var(X | G )] + Var[E (X | G )]. Ley de los grandes n´ umeros. Sea X 1 , X 2 , . . . una sucesi´on de variables aleatorias independientes e id´enticamente distribuidas con media µ. Entonces 1 n
n
i=1
X i
→ µ.
Cuando la convergencia es en probabilidad este resultado se conoce como la ley d´ebil . Y cuando la convergencia es casi segura se llama ley fuerte. Teorema central del l´ımite. Sea X 1 , X 2 , . . . una sucesi´on de variables aleatorias independientes e id´enticamente distribuidas con media µ y varianza σ2 . Entonces 1 n
n i=1
X i − µ d √ → N(0, 1). σ/ n
Teorema de convergencia dominada. Sea X 1 X 2 una sucesi´o n de variables aleatorias para la cual existe otra variable aleatoria Y con esperanza finita y tal que X n Y , para n 1. Si X n converge casi seguramente a una variable X , entonces tanto X como X n tienen esperanza finita y E (X n ) E (X ).
≤
| |≤
≥
≤ ·· ·
→
116 Teorema de convergencia mon´ otona. Sea 0 X 1 X 2 una sucesi´on mon´otona de variables aleatorias convergente casi seguramente a una variable X . Entonces E (X n ) E (X ).
≤
→
≤
≤ ·· ·
117
Ap´ e ndice A. Ap´ endice
Distribuciones de probabilidad En esta secci´on se presentan en orden alfab´etico algunas distribuciones de probabilidad utilizadas en el texto. La funci´ on generadora de probabilidad se denota por G(t), y la funci´ on generadora de la momentos por M (t).
Distribuci´ on Bernoulli
∼
f (x)
∈
X Ber( p) con p (0, 1). f (x) = px (1 p)1−x para x = 0, 1. E (X ) = p. Var(X ) = p(1 p). G(t) = 1 p + pt. M (t) = (1 p) + pet .
−
− −
( p = 0,7)
−
x 0
1
Distribuci´ on beta
∼
X beta(a, b) con a > 0, b > 0. f (x) = xa−1 (1 x)b−1 /B(a, b) para x (0, 1). en donde B(a, b) = Γ(a)Γ(b)/Γ(a + b), ∞ con Γ(a) = 0 ta−1 e−t dt. E (X ) = a/(a + b). Var(X ) = ab/[(a + b + 1)(a + b)2 ]. Cuando a = b = 1 se obtiene la dist. unif(0, 1).
−
f (x)
∈
x
Distribuci´ on binomial X
∼ bin(n, p)
con n
∈ {1, 2, . . .} y p ∈ (0, 1).
n x p (1 p)n−x para x = 0, 1, . . . , n. k E (X ) = np. Var(X ) = np(1 p). G(t) = (1 p + pt)n . f (x) =
−
f (x)
(n = 8, p = 0,3)
−
−
x
118 M (t) = [(1
− p) + pet]n.
Distribuci´ on binomial negativa f (x)
∼ bin neg(r, p) con p ∈ (0, 1) y r ∈ {1, 2, . . .}. r+x−1 r f (x) = p (1 − p)x para x = 0, 1, . . . x E (X ) = r(1 − p)/p. Var(X ) = r(1 − p)/p2. G(t) = [ p/(1 − t(1 − p))]r . M (t) = [ p/(1 − qe t )]r . X
(r = 3, p = 1/2)
x
Cuando r = 1 se obtiene la distribuci´on geom´etrica de par´ametro p.
Distribuci´ on Cauchy
∼ Cauchy(a, b)
f (x)
∈ R y b > 0. 1 f (x) = , para x ∈ R. bπ[1 + ((x − a)/b)2] F (x) = 1/2 + (1/π) arctan((x − a)/b). X
con a
La esperanza y varianza no existen. La funci´ on generadora de momentos no existe. Cuando a = 0 y b = 1 se obtiene la distribuci´on Cauchy est´andar, Cauchy(0, 1).
x a
Distribuci´ on exponencial f (x)
∼
X exp(α) con α > 0. f (x) = αe−αx para x > 0. F (x) = 1 e−αx para x > 0. E (X ) = 1/α. Var(X ) = 1/α2 . M (t) = α/(α t) para t < α.
−
−
α
x
119
Ap´ e ndice A. Ap´ endice
Distribuci´ on gamma X
∼ gamma(γ, α) γ −1
f (x)
con γ > 0 y α > 0.
(αx) αe−αx para x > 0. Γ(γ ) −1 F (x) = 1 e−αx γj=0 (αx)j /j! para x > 0 y γ entero. E (X ) = γ/α. Var(X ) = γ/α 2 . M (t) = [α/(α t)]γ para t < α. f (x) =
−
x
−
Distribuci´ on ji-cuadrada X
f (x)
∼ χ2(n)
con n > 0. (1/2)n/2 n/2−1 −x/2 f (x) = x e para x > 0. Γ(n/2) E (X ) = n. Var(X ) = 2n. M (t) = (1 2t)−n/2 para t < 1/2.
−
x
Distribuci´ on log normal
∼ lognormal(µ, σ2 ) con µ ∈ R y σ2 > 0. 1 f (x) = √ exp[−(ln x − µ)2 /2σ 2], x 2
f (x)
X
x 2πσ
0. E (X ) = exp(µ + σ2 /2). E (X n ) = exp(nµ + n2 σ2 /2). Var(X ) = exp(2µ + 2σ2 ) exp(2µ + σ2 ).
−
>
x
120 Distribuci´ on normal f (x)
∼ N(µ, σ2 ) con µ ∈ R y σ2 > 0. 1 f (x) = √ e−(x−µ) /2σ . 2 X
2
2
2πσ E (X ) = µ. Var(X ) = σ2 . M (t) = exp(µt + σ2 t2 /2). φ(t) = exp(iµt σ2 t2 /2). Cuando µ = 0 y σ2 = 1 se obtiene la distribuci´ on normal est´andar, N(0, 1).
µ
−
x
Distribuci´ on Pareto X
∼ Pareto(a,a b)
f (x)
con a, b > 0.
ab para x > 0. (b + x)a+1 F (x) = 1 [b/(b + x)]a para x > 0. E (X ) = b/(a 1) para a > 1. Var(X ) = ab2 /[(a 1)2 (a 2)] para a > 2. f (x) =
−
−
−
a/b
−
x
Distribuci´ on Poisson X
∼ Poisson(λ) x
f (x) = e−λ
con λ > 0.
f (x)
(λ = 4)
λ para x = 0, 1, . . . x!
E (X ) = λ. Var(X ) = λ. G(t) = e−λ(1−t) . M (t) = exp[λ(et
− 1)].
x
121
Ap´ e ndice A. Ap´ endice
Distribuci´ on t f (x)
∼ t(n) con n > 0. Γ(n + 1/2) x2 f (x) = √ (1 + )−n−1/2 . n nπ Γ(n/2) X
E (X ) = 0. Var(X ) = n/(n 2) para n > 2. M (t) no existe para t = 0. φ(t) = exp( t ).
−
||
x
Distribuci´ on Weibull
∼
X Weibull(r, α) con r,α > 0. −(αx)r f (x) = e rαr xr−1 para x > 0. −(αx)r F (x) = 1 e para x > 0. E (X ) = Γ(1 + 1/r)/α. Var(X ) = [Γ(1 + 2/r) Γ2 (1 + 1/r)]/α2 .
f (x)
−
−
x
Bibliograf´ıa
[1] Apostol T. M. (1974) Mathematical analysis. Addison–Wesley. [2] Beard R. E., Pentik¨ ainen T., Pesonen E. (1984) Risk theory. Tercera edici´on. Chapman and Hall. London. [3] B¨ uhlmann H. (1970) Mathematical methods in risk theory. Springer–Verlag. New York. [4] Daykin C. D., Pentik¨ ainen T., Pesonen M. (1994) Practical risk theory for actuaries. Chapman and Hall. London. [5] De Pril N. (1986) On the exact computation of the aggregate claims distribution in the individual life model. ASTIN Bulletin 16(2) 109–112. [6] Dickson D. C. M. (2005) Insurance risk and ruin. Cambridge University Press. [7] Embrechts P., Kluppelberg C., Mikosch T. (1999) Modelling extremal events for insurance and finance. Springer. [8] Gerber H. U. (1979) An introduction to mathematical risk theory. Monograph No. 8. S. S. Huebner Foundation for Insurance Education. Wharton School. University of Pennsylvania. [9] Harris B. (1966) Theory of probability. Addison–Wesley. [10] Karr A. F. (1993) Probability. Springer–Verlag. [11] Kass R., Goovaerts M., Dhaene J., Denuit M. (2001) Modern actuarial risk theory. Kluwer Academic Publishers.
123
124
Bibliograf´ ıa
[12] Klugman S. A., Panjer H. H., Willmot G. E. (2008) Loss models: from data to decisions. Third edition. Wiley. [13] Melnikov A. (2003) Risk analysis in finance and insurance. Chapman & Hall/CRC. [14] Panjer H. H. (1981) Recursive evaluation of a family of compound distributions. ASTIN Bulletin 12(1) 22–26. [15] Panjer H. H. (Editor) (1986) Actuarial mathematics. Proceedings of Symposia in Applied Mathematics, Vol. 35, AMS. [16] Rolski T., Schmidli H., Teugels J. (1999) Stochastic processes for insurance and finance. John Wiley & Sons. [17] Schmidli H. Lecture notes on risk theory. [18] Williams D. (1991) Probability with martingales. Cambridge University Press.
´Indice
Agregado de reclamaciones en el modelo colectivo, 16 en el modelo individual, 8 Aproximaci´ on de Edgeworth, 42 gamma trasladada, 41 normal, 10, 40 Asimetr´ıa coeficiente de Fisher, 110 Coeficiente de ajuste, 94, 97 de ajuste (cotas), 102 de asimetr´ıa de Fisher, 110 Condici´ on de ganancia neta, 50, 92 Cram´er-Lundberg, 87 Credibilidad Bayesiana, 73 completa, 69, 70 factor de, 72, 76, 77 parcial, 71 Credibilidad Bayesiana modelo normal-normal, 76 modelo Poisson-gamma, 75
de Lundberg, 95, 99, 100 Distribuci´ on geom´etrica compuesta, 21 Bernoulli, 117 beta, 117 binomial, 117 binomial compuesta, 20 binomial negativa, 118 binomial negativa compuesta, 20 Cauchy, 118 con cola ligera, 94, 98 con cola pesada, 98 exponencial, 118 gamma, 119 geom´etrica, 118 ji-cuadrada, 119 log normal, 119 normal, 120 Pareto, 120 Poisson, 120 Poisson compuesta, 21 Poisson compuesta mixta, 27 t de Student, 121 Weibull, 121
De Pril f´ormula de, 11 Desigualdad de Jensen, 111 de Jensen condicional, 112
Espacio de prob. filtrado, 82 Esperanza condicional, 111 Esscher principio de, 53 125
126 transformada de, 53 Excess of loss, 62 Exponente de Lundberg, 94, 97 F´ ormula de De Pril, 11 de Panjer, 33 Factor de credibilidad, 72, 76, 77 de recargo, 50 Filtraci´ on, 82 natural, 82 Funci´ on de utilidad, 51 de valor, 52 indicadora, 110 Integral de Riemann-Stieltjes, 112 Jensen desigualdad de, 111 desigualdad de (condicional), 112 Ley de los grandes n´umeros, 115 Lundberg desigualdad de, 95, 99, 100 exponente de, 94, 97 M´etodo de Newton-Raphson, 95 Modelo binomial compuesto, 20 binomial negativo compuesto, 20 colectivo, 15 colectivo Poisson, 22 de Cram´er-Lundberg, 87 individual, 7 normal-normal, 76 Poisson compuesto, 21
´ Indice
asociado, 22 como l´ımite, 23 como suma, 25 con reclamaciones clasificadas, 26 mixto, 27 Poisson-gamma, 75 Net profit condition, 50, 92 Newton-Raphson, 95 Nivel de retenci´on, 61 Panjer f´ormula de, 33 Prima, 49 de credibilidad, 75 pura de riesgo, 49 Principio de Esscher, 53 de la desviaci´on est´andar, 51 de la varianza, 51 de utilidad cero, 51 del porcentaje, 53 del riesgo ajustado, 54 del valor esperado, 50 del valor medio, 52 exponencial, 52 Prob. de ruina, 89, 90 horizonte finito, 89 horizonte infinito, 90 Proceso a tiempo continuo, 81 a tiempo discreto, 81 adaptado, 82 de Poisson, 82 de Poisson (superposici´on), 85 de Poisson (thinning), 85 de riesgo, 88 de super´avit, 88 estoc´astico, 81 submartingala, 84