Math ClubMath Club
v1 · padrão canônico

Lição 75 — Distribuição binomial

n ensaios de Bernoulli independentes. PMF binomial, esperança np, variância np(1-p). Aplicações em controle de qualidade, A/B test, genética e eleições.

Used in: Stochastik — Leistungskurs alemão · H2 Math — Singapura · AP Statistics — EUA · Math B — Japão

P(X=k)=(nk)pk(1p)nk,E[X]=np,Var(X)=np(1p)P(X = k) = \binom{n}{k} p^k (1-p)^{n-k}, \quad E[X] = np, \quad \text{Var}(X) = np(1-p)

A distribuição binomial Bin(n,p)\text{Bin}(n, p) conta o número de sucessos em nn ensaios independentes, cada um com probabilidade pp de sucesso. O fator (nk)\binom{n}{k} conta as maneiras de arranjar os sucessos; pk(1p)nkp^k(1-p)^{n-k} é a probabilidade de cada arranjo.

Choose your door

Rigorous notation, full derivation, hypotheses

Definição rigorosa

Hipóteses BInS

"If each trial in a binomial experiment has pp = 0.5, meaning the outcomes are equally likely, the distribution looks bell shaped. As pp moves away from 0.5, the graph skews right or left." — OpenStax Statistics §4.4

Exemplos resolvidos

Exercise list

42 exercises · 10 with worked solution (25%)

Application 24Understanding 2Modeling 12Proof 4
  1. Ex. 75.1Application

    XBin(5,0,5)X \sim \text{Bin}(5, 0{,}5). Calcule P(X=3)P(X = 3).

    Show solution
    P(X=3)=(53)(0,5)3(0,5)2=10/32=0,3125P(X=3) = \binom{5}{3}(0{,}5)^3(0{,}5)^2 = 10/32 = 0{,}3125.
    Show step-by-step (with the why)
    1. XBin(5,0,5)X \sim \text{Bin}(5, 0{,}5): 5 ensaios, prob. de sucesso 0,5.
    2. (53)=10\binom{5}{3} = 10 (maneiras de escolher quais 3 dos 5 são sucesso).
    3. (0,5)3×(0,5)2=0,55=1/32(0{,}5)^3 \times (0{,}5)^2 = 0{,}5^5 = 1/32.
    4. P=10×1/32=10/32=5/160,3125P = 10 \times 1/32 = 10/32 = 5/16 \approx 0{,}3125.
    Atalho mental: para p=0,5p = 0{,}5, P(X=k)=(nk)/2nP(X=k) = \binom{n}{k}/2^n.
  2. Ex. 75.2Application

    XBin(10,0,3)X \sim \text{Bin}(10, 0{,}3). Calcule P(X=0)P(X = 0).

    Show solution
    P(X=0)=(0,7)100,0282P(X=0) = (0{,}7)^{10} \approx 0{,}0282. Use o logaritmo: 10ln(0,7)3,56710 \ln(0{,}7) \approx -3{,}567, e3,5670,0282e^{-3{,}567} \approx 0{,}0282.
  3. Ex. 75.3ApplicationAnswer key

    XBin(8,0,25)X \sim \text{Bin}(8, 0{,}25). Calcule P(X=2)P(X = 2).

    Show solution
    P(X=2)=(82)(0,25)2(0,75)6=28×0,0625×0,17800,3115P(X=2) = \binom{8}{2}(0{,}25)^2(0{,}75)^6 = 28 \times 0{,}0625 \times 0{,}1780 \approx 0{,}3115.
  4. Ex. 75.4Application

    XBin(6,1/6)X \sim \text{Bin}(6, 1/6). Calcule P(X1)P(X \geq 1) pelo complemento.

    Show solution
    Complemento: P(X1)=1P(X=0)=1(5/6)610,3349=0,6651P(X \geq 1) = 1 - P(X=0) = 1 - (5/6)^6 \approx 1 - 0{,}3349 = 0{,}6651.
    Show step-by-step (with the why)
    1. XBin(6,1/6)X \sim \text{Bin}(6, 1/6): lançar dado 6 vezes, sucesso = tirar 6.
    2. P(X=0)=(5/6)6P(X = 0) = (5/6)^6 (nenhum 6 em 6 lançamentos).
    3. P(X1)=1(5/6)610,335=0,665P(X \geq 1) = 1 - (5/6)^6 \approx 1 - 0{,}335 = 0{,}665.
    Macete: quando o enunciado diz "pelo menos um", use complemento de "nenhum" — economiza cálculo.
  5. Ex. 75.5ApplicationAnswer key

    XBin(4,0,5)X \sim \text{Bin}(4, 0{,}5). Monte a tabela completa de PMF para k=0,1,2,3,4k = 0, 1, 2, 3, 4.

    Show solution
    Para XBin(4,0,5)X \sim \text{Bin}(4, 0{,}5): P(0) = 1/16, P(1) = 4/16, P(2) = 6/16, P(3) = 4/16, P(4) = 1/16. Soma = 16/16 = 1 ✓. Distribuição simétrica com pico em 2.
  6. Ex. 75.6ApplicationAnswer key

    XBin(20,0,1)X \sim \text{Bin}(20, 0{,}1). Calcule E[X]E[X] e Var(X)\text{Var}(X).

    Show solution
    E[X]=np=20×0,1=2E[X] = np = 20 \times 0{,}1 = 2. Var(X)=np(1p)=20×0,1×0,9=1,8\text{Var}(X) = np(1-p) = 20 \times 0{,}1 \times 0{,}9 = 1{,}8.
  7. Ex. 75.7Application

    XBin(100,0,5)X \sim \text{Bin}(100, 0{,}5). Calcule σ=Var(X)\sigma = \sqrt{\text{Var}(X)}.

    Show solution
    σ=np(1p)=100×0,5×0,5=25=5\sigma = \sqrt{np(1-p)} = \sqrt{100 \times 0{,}5 \times 0{,}5} = \sqrt{25} = 5.
  8. Ex. 75.8Application

    Lance 10 moedas. Calcule P(exatamente 5 caras)P(\text{exatamente 5 caras}).

    Show solution
    P(X=5)=(105)(0,5)10=252/10240,2461P(X=5) = \binom{10}{5}(0{,}5)^{10} = 252/1024 \approx 0{,}2461.
  9. Ex. 75.9ApplicationAnswer key

    Lance 10 moedas. Calcule P(pelo menos 8 caras)P(\text{pelo menos 8 caras}).

    Show solution
    P(X8)=P(8)+P(9)+P(10)=[(108)+(109)+(1010)](0,5)10=(45+10+1)/1024=56/10240,0547P(X \geq 8) = P(8)+P(9)+P(10) = \left[\binom{10}{8}+\binom{10}{9}+\binom{10}{10}\right]\cdot(0{,}5)^{10} = (45+10+1)/1024 = 56/1024 \approx 0{,}0547.
    Show step-by-step (with the why)
    1. P(X8)=P(8)+P(9)+P(10)P(X \geq 8) = P(8) + P(9) + P(10).
    2. P(8)=(108)(0,5)10=45/1024P(8) = \binom{10}{8}(0{,}5)^{10} = 45/1024.
    3. P(9)=10/1024P(9) = 10/1024, P(10)=1/1024P(10) = 1/1024.
    4. Total: 56/10240,054756/1024 \approx 0{,}0547 (5,5%).
    Observação: poderia usar complemento 1P(X7)1 - P(X \leq 7), mas como há poucos termos acima, soma direta é mais rápida.
  10. Ex. 75.10ApplicationAnswer key

    Lance um dado 6 vezes. Calcule P(exatamente 2 seis)P(\text{exatamente 2 seis}).

    Show solution
    P(X=2)=(62)(1/6)2(5/6)4=15×(1/36)×(625/1296)=15×625/466560,2009P(X=2) = \binom{6}{2}(1/6)^2(5/6)^4 = 15 \times (1/36) \times (625/1296) = 15 \times 625/46656 \approx 0{,}2009.
  11. Ex. 75.11Application

    Lance um dado 6 vezes. Calcule P(nenhum seis)P(\text{nenhum seis}).

    Show solution
    P(X=0)=(5/6)60,3349P(X=0) = (5/6)^6 \approx 0{,}3349. Cerca de 33% de chance de não tirar nenhum seis em 6 lançamentos.
  12. Ex. 75.12Application

    Para XBin(n,p)X \sim \text{Bin}(n, p), calcule P(X=0)+P(X=n)P(X = 0) + P(X = n) em função de nn e pp.

    Show solution
    P(X=0)=(1p)nP(X=0) = (1-p)^n e P(X=n)=pnP(X=n) = p^n. Logo P(X=0)+P(X=n)=(1p)n+pnP(X=0)+P(X=n) = (1-p)^n + p^n. Para p=0,5p=0{,}5, isso é 2×(0,5)n=1/2n12 \times (0{,}5)^n = 1/2^{n-1}.
  13. Ex. 75.13Application

    Para XBin(n,p)X \sim \text{Bin}(n, p), derive a razão P(X=k)/P(X=k1)P(X = k)/P(X = k-1) em função de nn, pp e kk.

    Show solution
    Razão de PMFs consecutivos: P(X=k)/P(X=k1)=(nk+1)kp1pP(X=k)/P(X=k-1) = \frac{(n-k+1)}{k} \cdot \frac{p}{1-p}. Derivação: substituir as PMFs e simplificar os coeficientes binomiais.
  14. Ex. 75.14Application

    Mostre que o modo de Bin(n,p)\text{Bin}(n, p) é (n+1)p\lfloor (n+1)p \rfloor. Calcule o modo de Bin(10,0,3)\text{Bin}(10, 0{,}3).

    Show solution
    O modo é o valor de kk que maximiza P(X=k)P(X=k). Usando a razão: P(k)/P(k1)>1    (nk+1)p>k(1p)    k<(n+1)pP(k)/P(k-1) > 1 \iff (n-k+1)p > k(1-p) \iff k < (n+1)p. Logo o modo é (n+1)p\lfloor (n+1)p \rfloor (ou ambos os inteiros se (n+1)p(n+1)p é inteiro). Para n=10n=10, p=0,3p=0{,}3: modo = 3,3=3\lfloor 3{,}3 \rfloor = 3.
  15. Ex. 75.15Application

    XBin(100,0,3)X \sim \text{Bin}(100, 0{,}3). Aproxime P(X25)P(X \leq 25) pela normal (use correção de continuidade).

    Show solution
    XBin(100,0,3)X \sim \text{Bin}(100, 0{,}3), μ=30\mu = 30, σ=214,58\sigma = \sqrt{21} \approx 4{,}58. Aproximação normal: P(X25)Φ((25,530)/4,58)=Φ(0,98)0,164P(X \leq 25) \approx \Phi((25{,}5-30)/4{,}58) = \Phi(-0{,}98) \approx 0{,}164 (com correção de continuidade).
    Show step-by-step (with the why)
    1. Parâmetros: μ=30\mu = 30, σ4,58\sigma \approx 4{,}58.
    2. Verificar condições: np=3010np = 30 \geq 10 e n(1p)=7010n(1-p) = 70 \geq 10 ✓.
    3. Correção de continuidade: P(X25)P(Z(25,530)/4,58)=P(Z0,98)P(X \leq 25) \approx P(Z \leq (25{,}5-30)/4{,}58) = P(Z \leq -0{,}98).
    4. Φ(0,98)0,164\Phi(-0{,}98) \approx 0{,}164.
    Macete: correção de continuidade: P(Xk)Φ((k+0,5μ)/σ)P(X \leq k) \approx \Phi((k+0{,}5-\mu)/\sigma).
  16. Ex. 75.16Application

    XBin(1000,0,001)X \sim \text{Bin}(1000, 0{,}001). Use a aproximação Poisson para P(X=0)P(X = 0).

    Show solution
    XBin(1000,0,001)X \sim \text{Bin}(1000, 0{,}001). np=1=λnp = 1 = \lambda. Aproximação Poisson: P(X=0)e10,368P(X=0) \approx e^{-1} \approx 0{,}368.
  17. Ex. 75.17Application

    XBin(50,0,5)X \sim \text{Bin}(50, 0{,}5). Aproxime P(X30)P(X \geq 30) pela normal com correção de continuidade.

    Show solution
    XBin(50,0,5)X \sim \text{Bin}(50, 0{,}5), μ=25\mu = 25, σ=12,53,54\sigma = \sqrt{12{,}5} \approx 3{,}54. P(X30)P(Z(29,525)/3,54)=P(Z1,27)10,898=0,102P(X \geq 30) \approx P(Z \geq (29{,}5-25)/3{,}54) = P(Z \geq 1{,}27) \approx 1 - 0{,}898 = 0{,}102.
  18. Ex. 75.18Application

    X1Bin(10,0,3)X_1 \sim \text{Bin}(10, 0{,}3) e X2Bin(20,0,3)X_2 \sim \text{Bin}(20, 0{,}3) independentes. Qual a distribuição de X1+X2X_1 + X_2?

    Show solution
    Soma de binomiais com mesmo pp: Bin(10,0,3)+Bin(20,0,3)Bin(30,0,3)\text{Bin}(10, 0{,}3) + \text{Bin}(20, 0{,}3) \sim \text{Bin}(30, 0{,}3). E[X]=9E[X] = 9, Var(X)=6,3\text{Var}(X) = 6{,}3.
  19. Ex. 75.19Application

    XBin(50,0,02)X \sim \text{Bin}(50, 0{,}02). Use aproximação Poisson para P(X=0)P(X = 0), P(X=1)P(X = 1) e P(X=2)P(X = 2).

    Show solution
    XBin(50,0,02)X \sim \text{Bin}(50, 0{,}02). λ=np=1\lambda = np = 1. Poisson: P(X=0)e10,368P(X=0) \approx e^{-1} \approx 0{,}368; P(X=1)e10,368P(X=1) \approx e^{-1} \approx 0{,}368; P(X=2)e1/20,184P(X=2) \approx e^{-1}/2 \approx 0{,}184.
  20. Ex. 75.20Application

    Eleição: p=0,52p = 0{,}52, n=1000n = 1000. Aproxime P(p^<0,50)P(\hat p < 0{,}50), a chance de a pesquisa errar o líder.

    Show solution
    Pesquisa eleitoral: XBin(1000,0,52)X \sim \text{Bin}(1000, 0{,}52). μ=520\mu = 520, σ=1000×0,52×0,4815,8\sigma = \sqrt{1000 \times 0{,}52 \times 0{,}48} \approx 15{,}8. P(X<500)Φ((499,5520)/15,8)=Φ(1,30)0,097P(X < 500) \approx \Phi((499{,}5-520)/15{,}8) = \Phi(-1{,}30) \approx 0{,}097. Cerca de 10% de chance de pesquisa indicar derrota do líder.
  21. Ex. 75.21Application

    Para XBin(n,0,5)X \sim \text{Bin}(n, 0{,}5), a partir de qual nn a aproximação normal é considerada boa? Justifique.

    Show solution
    Para XBin(n,0,5)X \sim \text{Bin}(n, 0{,}5), a aproximação normal é boa quando np10np \geq 10 e n(1p)10n(1-p) \geq 10. Para p=0,5p = 0{,}5: n×0,510n20n \times 0{,}5 \geq 10 \Rightarrow n \geq 20. Na prática, n30n \geq 30 dá excelente aproximação visual.
  22. Ex. 75.22Application

    Mostre que a variância de Bin(n,p)\text{Bin}(n, p) é maximizada em p=0,5p = 0{,}5 para nn fixo.

    Show solution
    Variância de Bin(n,p)\text{Bin}(n, p) é np(1p)np(1-p). Para nn fixo, maximizar em pp: derivada n(12p)=0p=0,5n(1-2p) = 0 \Rightarrow p = 0{,}5. Segunda derivada 2n<0-2n < 0 (máximo). Variância máxima = n/4n/4.
  23. Ex. 75.23Application

    Spam filter com 90% de recall. Em 500 emails reais de spam, P(marcar470)P(\text{marcar} \geq 470).

    Show solution
    Spam filter: 90% recall. XBin(500,0,9)X \sim \text{Bin}(500, 0{,}9). μ=450\mu = 450, σ=456,71\sigma = \sqrt{45} \approx 6{,}71. P(X470)P(Z(469,5450)/6,71)=P(Z2,91)0,0018P(X \geq 470) \approx P(Z \geq (469{,}5-450)/6{,}71) = P(Z \geq 2{,}91) \approx 0{,}0018 (menos de 0,2%).
  24. Ex. 75.24ApplicationAnswer key

    Por que a fórmula Var(X)=np(1p)\text{Var}(X) = np(1-p) pode ser deduzida pela decomposição em variáveis de Bernoulli?

    Select the correct option
    Select an option first
    Show solution
    A fórmula Var(X)=np(1p)\text{Var}(X) = np(1-p) decorre de escrever X=Y1++YnX = Y_1 + \ldots + Y_n com YiBernoulli(p)Y_i \sim \text{Bernoulli}(p) iid. A independência garante que variâncias se somam: Var(X)=nVar(Yi)=np(1p)\text{Var}(X) = n \cdot \text{Var}(Y_i) = n \cdot p(1-p).
  25. Ex. 75.25Modeling

    Linha de produção: 3% de defeituosas. Lote de 50 peças. Calcule P(pelo menos 3 defeituosas)P(\text{pelo menos 3 defeituosas}).

    Show solution
    Linha de produção: 3% defeituosas, lote de 50. XBin(50,0,03)X \sim \text{Bin}(50, 0{,}03). P(X3)=1P(X2)10,811=0,189P(X \geq 3) = 1 - P(X \leq 2) \approx 1 - 0{,}811 = 0{,}189 (ver Exemplo 3 desta aula para cálculo detalhado).
  26. Ex. 75.26Modeling

    Vacina: eficácia 85%. Em 100 vacinados, P(90 protegidos)P(\geq 90 \text{ protegidos}). Use aproximação normal.

    Show solution
    Vacina com 85% de eficácia. Em 100 vacinados, XBin(100,0,85)X \sim \text{Bin}(100, 0{,}85). μ=85\mu = 85, σ=12,753,57\sigma = \sqrt{12{,}75} \approx 3{,}57. P(X90)P(Z(89,585)/3,57)=P(Z1,26)0,104P(X \geq 90) \approx P(Z \geq (89{,}5-85)/3{,}57) = P(Z \geq 1{,}26) \approx 0{,}104. Cerca de 10% de chance.
  27. Ex. 75.27Modeling

    A/B test: variante A, 100 visitantes, 14 compraram. Variante B, 100 visitantes, 22 compraram. Calcule o p-valor do z-test para diferença de proporções.

    Show solution
    A/B test: A tem 14/100 = 14%, B tem 22/100 = 22%. p^pool=36/200=0,18\hat p_{\text{pool}} = 36/200 = 0{,}18. SE=0,18×0,82×(1/100+1/100)=0,0029520,0543SE = \sqrt{0{,}18 \times 0{,}82 \times (1/100+1/100)} = \sqrt{0{,}002952} \approx 0{,}0543. z=(0,220,14)/0,05431,47z = (0{,}22-0{,}14)/0{,}0543 \approx 1{,}47. p-valor0,14p\text{-valor} \approx 0{,}14. Diferença não significativa a 5%.
  28. Ex. 75.28ModelingAnswer key

    Pesquisa eleitoral: n=1500n = 1500, margem de erro desejada ±2,5%\pm 2{,}5\% a 95%. O tamanho é suficiente?

    Show solution
    Pesquisa eleitoral: n=1500n = 1500, margem de erro = 1,96×p(1p)/n1{,}96 \times \sqrt{p(1-p)/n}. Pior caso: p=0,5p = 0{,}5. ME=1,96×0,25/1500=1,96×0,012910,025=2,5%ME = 1{,}96 \times \sqrt{0{,}25/1500} = 1{,}96 \times 0{,}01291 \approx 0{,}025 = 2{,}5\%. Sim, o tamanho é suficiente para margem de ±2,5%\pm 2{,}5\% a 95%.
    Show step-by-step (with the why)
    1. Margem de erro a 95%: ME=z0,025×p(1p)/nME = z_{0{,}025} \times \sqrt{p(1-p)/n}.
    2. Pior caso: p=0,5p = 0{,}5, maximiza p(1p)=0,25p(1-p) = 0{,}25.
    3. ME=1,96×0,25/1500=1,96/60002,53%ME = 1{,}96 \times \sqrt{0{,}25/1500} = 1{,}96/\sqrt{6000} \approx 2{,}53\%.
    4. Como 2,53%2,5%2{,}53\% \approx 2{,}5\%, o tamanho é adequado (na margem).
    Curiosidade: a "margem de erro de 3%" da maioria das pesquisas no Brasil vem de n1067n \approx 1067.
  29. Ex. 75.29ModelingAnswer key

    Genética: cruzamento Aa×AaAa \times Aa, cada descendente tem prob. 1/41/4 de ser AAAA. Em 8 filhos, P(exatamente 2 sa˜AA)P(\text{exatamente 2 são } AA).

    Show solution
    Genética: XBin(8,1/4)X \sim \text{Bin}(8, 1/4). P(X=2)=(82)(1/4)2(3/4)6=28×(1/16)×(729/4096)0,311P(X=2) = \binom{8}{2}(1/4)^2(3/4)^6 = 28 \times (1/16) \times (729/4096) \approx 0{,}311.
  30. Ex. 75.30ModelingAnswer key

    Call center: 5% das chamadas falham. Em 200 chamadas, calcule esperança e σ\sigma de falhas.

    Show solution
    Call center: 5% de falhas, 200 chamadas. XBin(200,0,05)X \sim \text{Bin}(200, 0{,}05). E[X]=10E[X] = 10, Var(X)=200×0,05×0,95=9,5\text{Var}(X) = 200 \times 0{,}05 \times 0{,}95 = 9{,}5, σ=9,53,08\sigma = \sqrt{9{,}5} \approx 3{,}08.
  31. Ex. 75.31Modeling

    Six Sigma (com ajuste 1,5σ): taxa de 3,4 ppm. Em 1 milhão de peças, use aproximação Poisson para P(0 defeitos)P(0 \text{ defeitos}) e E[defeitos]E[\text{defeitos}].

    Show solution
    Six Sigma: 3,4 defeitos por milhão = p=3,4×106p = 3{,}4 \times 10^{-6}. Em 1 milhão de peças: XBin(106,3,4×106)X \sim \text{Bin}(10^6, 3{,}4 \times 10^{-6}), λ=3,4\lambda = 3{,}4. Por Poisson: P(X=0)=e3,40,0334P(X=0) = e^{-3{,}4} \approx 0{,}0334 (3,3% de chance de zero defeitos). Esperança = 3,4 defeitos.
  32. Ex. 75.32Modeling

    Aposta: 30% de chance de ganhar R100.CadajogadacustaR 100. Cada jogada custa R 25. Em 20 jogadas, qual o lucro esperado total?

    Show solution
    Aposta: 30% de ganhar R$ 100, custa R$ 25 por jogada. Lucro por jogada: R$ 75 (prob. 0,3) ou R$ -25 (prob. 0,7). E[lucro/jogada]=75×0,325×0,7=22,517,5=5E[\text{lucro/jogada}] = 75 \times 0{,}3 - 25 \times 0{,}7 = 22{,}5 - 17{,}5 = 5. Em 20 jogadas: lucro total = R$ 100.
  33. Ex. 75.33Modeling

    Taxa de conversão de leads: 1%. Para fechar em média 5 negócios por mês, quantos leads precisa gerar?

    Show solution
    Captação: 1% de leads convertem. Para fechar 5 negócios em média: E[X]=np=5n=5/0,01=500E[X] = np = 5 \Rightarrow n = 5/0{,}01 = 500 leads necessários.
  34. Ex. 75.34Modeling

    ENEM: 60% dos candidatos atingem nota mínima na redação. Em turma de 20 alunos, calcule E[X]E[X], σ\sigma e P(X15)P(X \geq 15).

    Show solution
    ENEM: se 60% dos candidatos passam na redação, em 20 candidatos: XBin(20,0,6)X \sim \text{Bin}(20, 0{,}6). P(X15)P(Z(14,512)/2,19)=P(Z1,14)0,127P(X \geq 15) \approx P(Z \geq (14{,}5-12)/2{,}19) = P(Z \geq 1{,}14) \approx 0{,}127. Esperança = 12, desvio = 2,19.
  35. Ex. 75.35Modeling

    Urna com 30% de bolas vermelhas. 50 sorteios com reposição. Por que a binomial se aplica? Calcule E[X]E[X] e P(X=15)P(X = 15).

    Show solution
    Urna com 30% bolas vermelhas. 50 sorteios com reposição: binomial válida (independência mantida). XBin(50,0,3)X \sim \text{Bin}(50, 0{,}3). E[X]=15E[X] = 15, σ3,24\sigma \approx 3{,}24. P(X=15)=(5015)(0,3)15(0,7)350,1147P(X = 15) = \binom{50}{15}(0{,}3)^{15}(0{,}7)^{35} \approx 0{,}1147.
  36. Ex. 75.36Modeling

    Concurso público: 8% de taxa de aprovação. Turma de 30 alunos. E[aprovados]E[\text{aprovados}] e P(pelo menos 1 aprovado)P(\text{pelo menos 1 aprovado}).

    Show solution
    Aprovação em concurso público: 8% taxa de aprovação, turma de 30 alunos. XBin(30,0,08)X \sim \text{Bin}(30, 0{,}08). E[X]=2,4E[X] = 2{,}4. P(X1)=1P(X=0)=1(0,92)3010,0843=0,916P(X \geq 1) = 1 - P(X=0) = 1 - (0{,}92)^{30} \approx 1 - 0{,}0843 = 0{,}916.
  37. Ex. 75.37Understanding

    Por que a binomial não se aplica ao sorteio sem reposição? Dê um contraexemplo numérico onde usar binomial daria resposta errada.

    Show solution
    A binomial exige ensaios **independentes**. Sorteio sem reposição viola independência: a probabilidade de sucesso muda conforme retiradas anteriores. Exemplo: urna com 5 vermelhas e 5 azuis, 3 sorteios sem reposição. Após 1 vermelha: prob. de vermelha cai de 5/10 para 4/9. A distribuição correta é a **hipergeométrica**.
  38. Ex. 75.38Understanding

    Qual é a diferença fundamental entre distribuição binomial e hipergeométrica?

    Select the correct option
    Select an option first
    Show solution
    A diferença fundamental está na independência dos ensaios. Binomial: ensaios independentes (como sorteio COM reposição). Hipergeométrica: sorteio SEM reposição, ensaios dependentes — a PMF é (Kk)(NKnk)/(Nn)\binom{K}{k}\binom{N-K}{n-k}/\binom{N}{n}.
  39. Ex. 75.39Proof

    Demonstre E[X]=npE[X] = np e Var(X)=np(1p)\text{Var}(X) = np(1-p) via decomposição X=Y1++YnX = Y_1 + \cdots + Y_n em variáveis de Bernoulli.

    Show solution
    Decomposição em Bernoulli: X=Y1++YnX = Y_1 + \ldots + Y_n, YiBernoulli(p)Y_i \sim \text{Bernoulli}(p) iid. Por linearidade: E[X]=i=1nE[Yi]=npE[X] = \sum_{i=1}^n E[Y_i] = n \cdot p. Para variância, como YiY_i são independentes: Var(X)=Var(Yi)=np(1p)\text{Var}(X) = \sum \text{Var}(Y_i) = n \cdot p(1-p). A independência é essencial para somar variâncias. \blacksquare
  40. Ex. 75.40ProofAnswer key

    Demonstre o limite Poisson: Bin(n,λ/n)Poisson(λ)\text{Bin}(n, \lambda/n) \to \text{Poisson}(\lambda) quando nn \to \infty com λ\lambda fixo.

    Show solution
    Limite Poisson: fixe λ=np\lambda = np. Então p=λ/np = \lambda/n. (nk)(λ/n)k(1λ/n)nk=n(n1)(nk+1)k!λknk(1λ/n)n(1λ/n)k\binom{n}{k}(\lambda/n)^k(1-\lambda/n)^{n-k} = \frac{n(n-1)\cdots(n-k+1)}{k!} \cdot \frac{\lambda^k}{n^k} \cdot (1-\lambda/n)^n (1-\lambda/n)^{-k}. Quando nn \to \infty: primeiro fator 1\to 1; (1λ/n)neλ(1-\lambda/n)^n \to e^{-\lambda}; (1λ/n)k1(1-\lambda/n)^{-k} \to 1. Logo o produto converge para λkeλ/k!\lambda^k e^{-\lambda}/k!. \blacksquare
  41. Ex. 75.41Proof

    Demonstre que k=0n(nk)pk(1p)nk=1\sum_{k=0}^n \binom{n}{k} p^k (1-p)^{n-k} = 1 usando o Teorema Binomial.

    Show solution
    A PMF binomial é válida: k=0n(nk)pk(1p)nk=(p+(1p))n=1n=1\sum_{k=0}^n \binom{n}{k} p^k (1-p)^{n-k} = (p + (1-p))^n = 1^n = 1 pelo Teorema Binomial de Newton. \blacksquare
  42. Ex. 75.42Proof

    Demonstre a aditividade: se XBin(n1,p)X \sim \text{Bin}(n_1, p) e YBin(n2,p)Y \sim \text{Bin}(n_2, p) independentes (mesmo pp), então X+YBin(n1+n2,p)X + Y \sim \text{Bin}(n_1 + n_2, p).

    Show solution
    Para provar aditividade, usar MGF. MX(t)=(1p+pet)n1M_X(t) = (1-p+pe^t)^{n_1} e MY(t)=(1p+pet)n2M_Y(t) = (1-p+pe^t)^{n_2}. Por independência: MX+Y(t)=MX(t)MY(t)=(1p+pet)n1+n2M_{X+Y}(t) = M_X(t) \cdot M_Y(t) = (1-p+pe^t)^{n_1+n_2}, que é a MGF de Bin(n1+n2,p)\text{Bin}(n_1+n_2, p). Como a MGF determina a distribuição univocamente: X+YBin(n1+n2,p)X+Y \sim \text{Bin}(n_1+n_2, p). \blacksquare

Fontes

  • OpenIntro Statistics (4ª ed) — Diez, Çetinkaya-Rundel, Barr · 2019 · EN · CC-BY-SA. Fonte primária — §3.4 (hipóteses BInS, PMF, esperança, variância, A/B test).
  • Statistics (OpenStax) — Illowsky, Dean · 2022 · EN · CC-BY. §4.4 — tabelas binomiais, aproximações, exercícios AP-level.
  • Introduction to Probability (Grinstead-Snell) — Grinstead, Snell · 1997 · EN · GNU FDL. §5.1 — PMF, MGF, limite Poisson com prova; exercícios demonstrativos.

Updated on 2026-05-06 · Author(s): Clube da Matemática

Found an error? Open an issue on GitHub or submit a PR — open source forever.