Показать сообщение отдельно
Старый 01.11.2022, 17:51   #1
Paul Kellerman
Gold Member
 
Регистрация: 25.06.2005
Адрес: F000:FFF0
Сообщений: 1,804
По умолчанию Небольшая задача по теории вероятностей

Задача вроде простая, но никак не могу сообразить, как правильно решить. Нужна помощь специалистов.

Есть две независимые случайные непрерывные величины A >=0 и B >= 0, имеющие смысл длительности интервалов времени с некоторыми функциями распределения Fa(t) и Fb(t). Из них на оси времени формируется отрезок из случайных моментов времени T1...T2 следующим образом: T1 = A и T2 = A + B.

Пусть также задан некоторый фиксированный отрезок времени t1...t2, причем t2 > t1.

Как правильно рассчитать вероятность того, что заданный отрезок времени окажется внутри случайного отрезка времени: P(T1 < t1...t2 < T2), через функции распределения случайных величин A и B?

Последний раз редактировалось Paul Kellerman; 01.11.2022 в 18:41.
Paul Kellerman вне форума   Ответить с цитированием
Реклама