Сижу смотрю на формулы тервера как баран на новые ворота - уже все забыл. Может кто то шарит сможет помочь.

В целом задание такое.

Есть фирма, у фирмы есть регламент, с какой то долей вероятности регламент выполняется неверно (напр. 2 разных человека выполняют одну и ту же функцию), что влечет за собой убытки в фирме.

Мне надо смоделировать эти события на отрезке 12 месяцев и посчитать сколько фирма потеряет за год.

Я конечно понмаю что условие задачи сформулировано коряво, но препод у меня чувак в стиле принеси то незнаю что.

Самое просто что пришло в голову:

Оцениваем вероятность наступления события в определенном месяце скажем в 2%, а ущерб от наступления в 10 т.р.. Таким образом берем серию из 12 экспериментов (читай кидаем монетку не 50\50, а 98\2) и получаем фин потери за 1 год.

Потом повторяем миллион раз эту серию из 12 месяцев и получаем сколкьо в среднем теряет фирма.


Выглядит как то ужасно топорно, и не факт что правильно. Не нравится то что у события фикс вероятность (хотя если проводить аналогию с монеткой то вроде это нормально). Если у кого то есть мысли как можно оформить подорбную задачу подскажите плз.

Адд:
Я привязал задачу к 12 месяцам (как бы дискретные промеждутки получил). На самом деле может это тоже неправильно?